自動駕駛車輛之分級與責任

  所謂自動駕駛(autopilot),原來是指一個用來控制載具軌道而無需人工一直干預的系統,亦即無須人類持續干預,但人類仍須於關鍵時刻介入進行決定或作為,此時機器僅作為輔助。

  而自動駕駛汽車或稱全自動駕駛,則只完全無須人類干預,由機器自動感應偵測,自動做成決策控制車輛行駛。故由人類的介入程度區別究竟是駕駛輔助或自動駕駛。美國國家公路交通安全管理局(NHTSA)於2016年已提出正式的分類系統,除手動駕駛(0級)外,區分弱駕駛輔助(1級)、部分自動駕駛(2級)、有條件全自動(3級)、高度/完全自動化(4級)不同程度的自動駕駛。其他國家如德國,在聯邦政府的「自動駕駛圓桌會議」也對自動駕駛有類似的四等級區分。

  德國聯邦政府也在於2017年1月25日提出規範自動駕駛之法律草案,亦即道路交通法修正法(Änderung des Straßenverkehrsgesetzes),核心在於賦予電腦與人類駕駛者法律上同等地位。亦即,駕駛人的定義未來擴張延伸到「使用不同程度自動駕駛系統者」。根據草案將來在車輛行駛中,人類可以在特定時間與特定狀況下接管整個行駛。而最重要的修正:人類始終應該負使用電腦的最終責任。

  故在行駛中駕駛人將會被輔助機器替代,更要求自駕系統應該具備“隨時可以由駕駛人接手操控或停俥”的功能。 分類中,駕駛人的角色只有到全自動駕駛實現時才退場,屆時才會發生無駕駛人只有乘客的狀況。

  修法也重視自駕技術失敗並導致事故所生責任分擔的問題。對於責任的調查將採用如同飛航安全中之「黑盒子」的方式,該裝置會記錄行駛中的所有基本資料。這將有助於發生事故後澄清,查明究竟是技術上原因、製造商或駕駛員的過失,以確保駕駛人無法將責任全部推給自動化系統的故障。

本文為「經濟部產業技術司科技專案成果」

※ 自動駕駛車輛之分級與責任, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=7738&no=67&tp=1 (最後瀏覽日:2026/01/20)
引註此篇文章
你可能還會想看
美司法部對Google書籍搜尋和解方案是否涉嫌壟斷展開

  美司法部於2008年介入Google與Yahoo網站上進行的搜尋動作提供相關廣告的合作案後,再次針對Google公司的網路版圖擴張動作,是否造成阻礙公平競爭採取調查行動,這次的目標是Google與書籍作者與出版商之間的圖書、文章數位化和解協議。     事實上Google 去年已與美國書籍作者與出版協會取得和解共識,前者願支付 1.25 億美元和解金,後者則撤銷其違反著作權的指控。但「無主」(orphan)的著作物,像是絕版書或不明著作的書籍作者必須在5月5日最後期限前選擇退出Google的計畫,否則就會被納入和解案。     不過,有七位作者上周向法院要求把5月5日截止期限再延長四個月,理由之一是提議的和解案太複雜。為讓Google有更多的時間,與其它作者商議和解協議,美國紐約聯邦法庭已將和解的期限延至 9 月4 日。Google表示會再花六十天的時間找到作者,並說服他們就Google線上書籍搜尋服務一案達成和解。如果Google的和解計畫順利完成,在其「Google Book Search service」搜尋服務中,將可找到數百萬件的作品。

放寬視障者及閱讀障礙者著作權合理使用之範圍

  2009年5月,巴西、厄瓜多爾及巴拉圭於世界智慧財產權組織(The World Intellectual Property Organization,以下簡稱WIPO)之著作權及其相關權利常務理事會(Standing Committee on Copyright and Related Right, 以下簡稱SCCR)中,根據世界盲人聯盟(World Blind Union ,以下簡稱WBU)所草擬的一份關於「促進視障者(Visually Impaired Persons,以下簡稱VIPs)及閱讀障礙者接觸受著作權保護之資訊」國際性公約,內容為提出增訂著作權的限制及例外(limitations and exceptions)條款的相關主張,亦即針對視障者及閱讀障礙者放寬著作權合理使用範圍。   SCCR的會員,將就此草擬公約於2010年5月26日至28日進行協商討論,其協商結果亦將於日內瓦下一屆會議中提出討論。 另外,WIPO也透過網路開放之平台,開放各界參與本議題之討論(https://www3.wipo.int/forum/),該網路論壇將持續開放討論至2010年6月20日,並決定加快有利於視障者接觸資訊之相關問題。 目前全球有超過3億1千4百萬盲人或視障者,但目前於全球各地,供給視障者及閱讀障礙者閱讀或收聽資訊的工具很少,在多數國家中,尤其是發展中國家,此將影響其教育及就業機會,甚至使其更陷於弱勢地位。而為促進保障視障者及閱讀障礙者接觸資訊的權利,例如藉由點字書(Braille)、大字本(large print)等科技產品,俾利提供給視障者及閱讀障礙者閱讀或收聽的工具。但如何結合現代科技、增進其接取資訊的機會與放寬著作權相關規定;亦即如何讓著作權所有人的權利受到保護,以及有利於盲人或視障者接觸資訊,兩者間如何取得平衡,其著作權合理使用範圍是需要再思考的問題。

美國證券交易委員會發布指引要求公司進一步揭露加密資產之潛在影響

美國證券交易委員會(United States Securities and Exchange Commission,下稱SEC)於2022年12月8日發布「致公司有關近期加密資產市場發展之樣本函(Sample Letter to Companies Regarding Recent Developments in Crypto Asset Markets)」指引文件(下稱本指引),指導公司應針對自身業務涉及近期加密資產市場動盪事件(如虛擬貨幣交易所破產等),進行直接或間接影響之風險揭露,以符合聯邦證券法規之資訊揭露(如風險及風險暴露等)義務。SEC轄下之企業金融處(Division of Corporation Finance,以下簡稱金融處)認為公司應向投資者提供具體且量身訂製之市場動盪事件報告、揭露公司在動盪事件中之狀況以及可能對投資者造成之影響。爰此,本負有常態報告義務的公司應據此考量現有的揭露內容是否須進行更新。 金融處說明,為加強並監督公司對資訊揭露要求之遵守狀況,爰依據1933年證券法(Securities Act of 1933)及1934年證券交易法(Securities Exchange Act of 1934)內涵,要求公司亦須針對應作出聲明的實際狀況,進一步揭露相關重大訊息,且不得進行誤導。本指引所要求公司明確揭露加密資產市場發展的重大影響,包括公司對競爭對手及其他市場參與者之風險暴露;與公司流動資金及獲取融資能力相關的風險;及與加密資產市場法律程序、調查或監管影響相關的風險等。 值得注意的是,本指引並未列出公司應考量問題的詳細清單,個別公司應視自身情況評估已存在之風險,或是否可能受到潛在風險事項的影響。由於公司所揭露之文件事前通常不會經過金融處審查,因此金融處也敦促各公司應自主依循本指引進行相關文件準備。

英國資訊委員辦公室提出人工智慧(AI)稽核框架

  人工智慧(Artificial Intelligence, AI)的應用,已逐漸滲透到日常生活各領域中。為提升AI運用之效益,減少AI對個人與社會帶來之負面衝擊,英國資訊委員辦公室(Information Commissioner’s Office, ICO)於2019年3月提出「AI稽核框架」(Auditing Framework for Artificial Intelligence),作為確保AI應用合乎規範要求的方法論,並藉機引導公務機關和企業組織,評估與管理AI應用對資料保護之風險,進而建構一個可信賴的AI應用環境。   AI稽核框架主要由二大面向所構成—「治理與可歸責性」(governance and accountability)以及「AI特定風險領域」(AI-specific risk areas)。「治理與可歸責性」面向,係就公務機關和企業組織,應採取措施以遵循資料保護規範要求的角度切入,提出八項稽核重點,包括:風險偏好(risk appetite)、設計階段納入資料保護及透過預設保護資料(data protection by design and by default)、領導管理與監督(leadership management and oversight)、政策與程序(policies and procedures)、管理與通報架構(management and reporting structures)、文書作業與稽核紀錄(documentation and audit trails)、遵循與確保能力(compliance and assurance capabilities)、教育訓練與意識(training and awareness)。   「AI特定風險領域」面向,則是ICO特別針對AI,盤點下列八項潛在的資料保護風險,作為風險管理之關注重點: 一、 資料側寫之公平性與透明性(fairness and transparency in profiling); 二、 準確性(accuracy):包含AI開發過程中資料使用之準確性,以及應用AI所衍生資料之準確性; 三、 完全自動化決策模型(fully automated decision making models):涉及人類介入AI決策之程度,歐盟一般資料保護規則(General Data Protection Regulation, GDPR)原則上禁止無人為介入的單純自動化決策; 四、 安全性與網路(security and cyber):包括AI測試、委外處理資料、資料重新識別等風險; 五、 權衡(trade-offs):不同規範原則之間的取捨,如隱私保護與資料準確性; 六、 資料最少化與目的限制(data minimization and purpose limitation); 七、 資料當事人之權利行使(exercise of rights); 八、 對廣泛公共利益和權利之衝擊(impact on broader public interests and rights)。   ICO將持續就前述AI特定風險領域,進行更深入的分析,並開放公眾討論,未來亦將提供相關技術和組織上之控制措施,供公務機關及企業組織進行稽核實務時之參考。

TOP