澳洲國家交通委員會針對駕駛法規之修正進行公眾諮詢,聚焦自駕系統實體法律義務

  澳洲國家交通委員會(National Transport Commission, NTC)於2017年10月3日提出「修正駕駛法律以支持自動駕駛車輛(Changing driving laws to support automated vehicles)」討論文件,向相關政府機關與業界徵詢修正駕駛法規之意見。此文件目的在於探討法規改革選項,並釐清目前針對駕駛人與駕駛行為法規對於自駕車之適用,並試圖為自動駕駛系統實體(automated driving system entities, ADSEs)建立法律義務。文件中並指出改革上應注意以下議題:

  1. 目前車輛法規皆以人類駕駛為前提;
  2. 自動駕駛系統並不具有法律人格,無法為其行為負法律責任;
  3. 目前的法律並未提供法律實體之定義或規範(即自動駕駛系統實體ADSEs)來為自動駕駛系統行動負責;
  4. 目前有些法律上人類駕駛應負之義務,無法直接於自動駕駛時由ADSEs負擔;
  5. 車輛之安全義務於自動駕駛時,可能需由非駕駛之他人執行;
  6. 法律中並未定義自動駕駛系統車輛的「控制」與「恰當控制」;
  7. 目前沒有規範何時人類應有義務將駕駛控制權力自自動駕駛系統轉移回來,來確保人類駕駛保持足夠之警覺性;
  8. 目前的遵循與實施規範可能不足以確保自動駕駛系統的安全運作。

  NTC並提出建議應定義自動駕駛系統之法律實體,重新規範人類與自動駕駛系統法律實體間的義務。澳洲國家交通委員會將進一步將諮詢結果與法律改革選項於2018年5月提供給澳洲交通部。

本文為「經濟部產業技術司科技專案成果」

相關連結
※ 澳洲國家交通委員會針對駕駛法規之修正進行公眾諮詢,聚焦自駕系統實體法律義務, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=7919&no=64&tp=1 (最後瀏覽日:2026/04/21)
引註此篇文章
你可能還會想看
用數字解讀國內企業的智財管理能量

歐盟執委會通過《歐洲互通法案》,以強化歐盟公共部門的跨境互通與合作

  歐盟執委會於2022年11月21日通過《歐洲互通法案》(Interoperable Europe Act)(下稱本法案),以強化歐盟公共部門的跨境互通與合作,加速數位化轉型。跨境互通將使歐盟及其成員國為公民與企業提供更優良的公共服務,並預計為公民節省550萬至630萬歐元的成本;為與公共行政有業務上往來的企業節省57億至192億歐元的成本。   《歐洲互通法案》為歐盟的公部門建立一套合作模式,該模式有助於建立安全的跨境資訊交換及可互通的數位共享解決方案(如開源軟體、指引、IT工具等),使彼此之間合作更有效率,進而帶動公部門創新。舉例而言,Covid-19疫情期間,互通性政策使醫院間得共享重症監護病床之數量資訊,以提供人民最即時的醫療資源。本法案架構如下:   1.結構化的歐洲合作:由歐盟成員國和區域、城市共同合作,制定跨境互通的共同戰略議程,並得到公共和私人的支持,實施互通性解決方案與進度監控。   2.強制性評估:評估跨境互通之IT系統對歐盟的影響。   3.共享和再利用解決方案:透過歐洲入口網(Interoperable Europe Portal)及社群合作的一站式平台,提供支持共享與再利用的解決方案(如開源軟體)。   4.提供創新和相關支持措施:包括監理沙盒(sandboxes)、GovTech計畫及訓練措施等。    自2010年以來,歐洲互通性框架(European Interoperability Framework, EIF)一直作為歐盟互通性政策的主要參考依據,惟始終不具有約束力。本法案將使EIF成為單一參考依據,使歐盟公共服務部門擁有互通性政策,並未來互通性合作框架將由歐洲互通委員會(Interoperable Europe Board)指導,該委員會由歐盟成員國、歐盟執委會、地區委員會(Committee of the Regions)及歐洲共同體經濟和社會委員會(European Economic and Social Committee)之代表組成。   可互通的數位公共服務對建構數位單一市場至關重要,除提升經濟效益和行政效率外,案例研究亦表明,互通性對提高政府信任可產生正面積極影響,同時本法案充分尊重現有的隱私與資料保護規則,以符合歐盟創建以人為中心的規範方法,提升個人基本權利。

數位商品交易金流機制之法律問題

澳洲數位轉型局12月發布《政府負責任使用人工智慧政策2.0》,以強化公部門之AI風險管理

2025年12月初,澳洲數位轉型局(Digital Transformation Agency,下稱DTA)發布《政府負責任使用AI政策2.0》(Policy for the responsible use of AI in Government 2.0),旨在進一步強化公部門在AI的透明度、問責性與風險管理能力,於2025年12月15日生效,取代 2024年9月實施的過渡版本。 一、適用範圍 政策適用於所有非企業型聯邦實體(Non-corporate Commonwealth entities),即不具獨立法人地位、直接隸屬於政府的機關或單位。企業型聯邦實體則被鼓勵自願遵循。政策定位為「補充與強化既有法制」,非另訂獨立規範,因此在實務中須與公務員行為準則、資安規範及資料治理制度併行適用。 二、政策重點 在政策施行的12個月內,適用機關須完成以下要求,以確保落實AI治理架構: (一)制度建置 1. AI 透明度聲明:機關須在政策生效後 6 個月內發布「AI 透明度聲明」,公開 AI 使用方法與現況。聲明中須說明機關風險管理流程、AI 事件通報機制及內外部申訴管道,確保使用過程透明、可追蹤。 2. 人員指定與培訓: 機關須指定制度問責人員(Accountable officials)以及AI使用案例承辦人(Accountable use case owners)。 所有員工皆須進行關於負責任使用AI的培訓,機關並依員工職務權責提供個別員工進階訓練。 3. 建立內部AI使用案例註冊清單(Internal AI use case register),以供後續追蹤 該清單至少包含: (1)使用案例負責人(Accountable use case owners):記錄並持續更新範疇內 AI 使用案例的指定負責人。 (2)風險等級(Risk rating):AI使用案例的風險等級資訊。 (3)異動紀錄:當使用案例的風險評級或負責人變更時,須即時更新清單。 (4)自定義欄位:各機關可根據其需求,自行增加欄位。 (二)AI 使用案例範疇判斷 機關須在評估所有新案例,依以下特徵判斷AI應用是否屬於「範疇內(In-scope)」的應用: 1.對個人、社群、組織或環境造成重大損害。 2.實質影響行政處分或行政決策。 3.在無人工審查的情況下,大眾將直接與AI互動或受其影響。 4.涉及個人、敏感資料等資訊。 (三)進階風險評估 依AI影響評估工具(Impact Assessment Tool)針對公眾近用權;不公平歧視;加重刻板印象;損害人、組織或環境;隱私顧慮;資料敏感之安全顧慮;系統建置之安全顧慮;公眾信任等8類別,加以判斷範疇內AI應用,若有任一類別被評為「高風險」,即判定為「高風險」;若所有類別中最高的分數為「中風險」,則整體判定為中風險。 判定為中、高風險之AI應用,均需進行全面審核。中風險須列出所有中風險項目及其控管措施,主要為內部控管;而高風險則要求向DTA報告,且每年至少進行一次全面審核與風險再評估。 澳洲欲透過發布AI透明度聲明、更新AI使用案例註冊清單、強制執行AI應用之風險評估及人員培訓,確保公部門對AI的負責任使用與問責。而我國企業可參考資策會科法所創意智財中心發布之《重要數位資料治理暨管理制度規範(EDGS)》,落實AI資料管理與追蹤。 本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。 本文同步刊登於TIPS網站(https://www.tips.org.tw)

TOP