NHTSA要求自動駕駛系統及L2自動駕駛輔助系統回報意外事件

  美國國家公路交通安全管理局(National Highway Traffic Safety Administration, NHTSA)2021年6月29日 「自駕車與配備等級2駕駛輔助系統車輛之意外事件回報命令(Standing General Order 2021-01:Incident Reporting for Automated Driving Systems and Level 2 Advanced Driver Assistance Systems)」,課予系統製造商與營運商意外事件回報義務,重點如下:

(1)適用範圍:全美境內公共道路上發生之車輛碰撞事件,事發前30秒至事件結束期間內曾經啟用等級2駕駛輔助系統或自動駕駛系統。

(2)意外事件定義:事件中任何一方有人員死亡或送醫治療、車輛必須拖吊、安全氣囊引爆或事件涉及弱勢用路人(vulnerable road user)。

(3)回報期限:須於知悉事件後隔日立即回報,知悉後10日傳送更新資料,如後續仍有發現新事證,應於每月15號傳送更新。自駕車發生碰撞,即使無人傷亡、無車輛拖吊或安全氣囊引爆,仍需於次月15號傳送事件回報。

(4)回報方式及項目:需至NHTSA指定網站註冊帳號,線上填寫制式通報表格。項目包含車籍資料、事件時間、地點、天候、路況、傷亡及財損情形等等。

  NHTSA收到的回報資料,原則上會在將個人資料去識別化後對大眾公開,惟若系統製造上或營運商主張部分資訊為商業機密,可另行向NHTSA之諮詢辦公室通報審核。如逾期未報或隱匿資訊,可處每日最高22,992美元罰金,累計最高罰金為114,954,525美元。

本文為「經濟部產業技術司科技專案成果」

相關連結
相關附件
※ NHTSA要求自動駕駛系統及L2自動駕駛輔助系統回報意外事件, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8709&no=67&tp=1 (最後瀏覽日:2026/04/02)
引註此篇文章
你可能還會想看
人權組織向法國最高行政法院提交申訴,要求政府停止使用歧視性演算法

.Pindent{text-indent: 2em;} .Noindent{margin-left: 2em;} .NoPindent{text-indent: 2em; margin-left: 2em;} .No2indent{margin-left: 3em;} .No2Pindent{text-indent: 2em; margin-left: 3em} .No3indent{margin-left: 4em;} .No3Pindent{text-indent: 2em; margin-left: 4em} 國際特赦組織(Amnesty International)與法國數位隱私權倡議團體La Quadrature du Net(LQDN)等組織於2024年10月15日向法國最高行政法院提交申訴,要求停止法國國家家庭津貼基金機構(Caisse nationale des allocations familiales,CNAF)所使用的歧視性風險評分演算法系統。 CNAF自2010年起即慣於使用此系統識別可能進行福利金詐欺的對象,該系統演算法對獲取家庭與住房補助的對象進行0至1之間的風險評分,分數越接近1即越可能被列入清單並受調查,政府當局並宣稱此系統將有助於提升辨識詐欺與錯誤的效率。 LQDN取得該系統的原始碼,並揭露其帶有歧視性質。該等組織說明,CNAF所使用的評分演算法自始即對社會邊緣群體如身心障礙者、單親家長,與低收入、失業、居住於弱勢地區等貧困者表現出懷疑態度,且可能蒐集與系統原先目的不相稱的資訊量,這樣的方向直接違背了人權標準,侵犯平等、非歧視與隱私等權利。 依據歐盟《人工智慧法》(Artificial Intelligence Act,下稱AIA),有兩部分規定: 1. 用於公機關評估自然人是否有資格獲得基本社會福利或服務,以及是否授予、減少、撤銷或收回此類服務的人工智慧系統;以及用於評估自然人信用或建立信用評分的人工智慧系統,應被視為高風險系統。 2. 由公機關或私人對自然人進行社會評分之人工智慧系統可能導致歧視性結果並排除特定群體,從此類人工智慧總結的社會分數可能導致自然人或其群體遭受不當連結或程度不相稱的不利待遇。因此應禁止涉及此類不可接受的評分方式,並可能導致不當結果的人工智慧系統。 然而,AIA並未針對「社會評分系統」明確定義其內涵、組成,因此人權組織同時呼籲,歐盟立法者應針對相關禁令提供具體解釋,惟無論CNAF所使用的系統為何種類型,因其所具有的歧視性,公機關皆應立即停止使用並審視其具有偏見的實務做法。

法國法院判決:政府獨占賭博事業  違法

  賭博事業之經營是否應由政府獨占之議題,已陸續在歐洲國家產生爭議問題。2007年3月,義大利禁止於英國取得經營賭博事業執照之Stanley公司至義大利提供賭博服務,因此,義大利法院請求歐洲法院判決,以確定此一行為是否違反歐盟自由貿易原則。隨後,歐洲法院做出判決,認定義大利法律禁止未於義大利取得經營執照之公司在義大利境內經營賭博之規定,違反歐盟競爭法及歐盟條約第49條之規定。   2007年7月中旬,法國最高法院逆轉了過去禁止Malta’s Zeturf於法國經營經營賭博的見解,而遵循歐洲法院之判決結果,認為禁止賭博事業係違反了歐盟競爭法,以及歐盟條約第49條保障境內服務自由流通之規定,並基於上述理由判決Malta’s Zeturf取得於法國經營線上賭博遊戲之權利。法國法學專家Credric Manara以為,最高法院該判決將可能打開原來由政府獨占的賭博市場,而讓賽馬及其他運動賭博遊戲能擴及其他歐洲國家。   法國該向判決卻顯示了法國刑法禁止賭博的規定將無法限制歐盟條約中所保障的自由流通原則,然而,這樣的結果,卻也考驗了以刑法禁止賭博的國家對於法規衝突應如何解決以為之因應。

世界經濟論壇發布《贏得數位信任:可信賴的技術決策》

  世界經濟論壇(World Economic Forum, WEF)於2022年11月15日發布《贏得數位信任:可信賴的技術決策》(Earning Digital Trust: Decision-Making for Trustworthy Technologies),期望透過建立數位信任框架(digital trust framework)以解決技術開發及使用之間對數位信任之挑戰。   由於人工智慧及物聯網之發展,無論個人資料使用安全性還是演算法預測,都可能削弱人民對科技發展之信賴。本報告提出數位信任路線圖(Digital trust roadmap),說明建立數位信任框架所需的步驟,以鼓勵組織超越合規性,指導領導者尋求符合個人與社會期望之全面措施行動,以實現數位信任。路線圖共分為四步驟:   1.承諾及領導(commit and lead):數位信任需要最高領導階層之承諾才能成功,故需將數位信任與組織戰略或核心價值結合,並從關鍵業務領域中(例如產品開發、行銷、風險管理及隱私與網路安全)即納入數位信任概念。   2.規劃及設計(plan and design):透過數位信任差距評估(digital trust gap assessment)以瞭解組織目前之狀態或差距,評估報告應包括目前狀態說明;期望達成目標建議;治理、風險管理與合規性(governance, risk management and compliance, GRC)調查結果;將帶來之益處及可減輕之風險;計畫時程表;團隊人員及可用工具;對組織之影響等。   3.建立及整合(build and integrate):實現數位信任需關注人員、流程及技術等三大面向。首先需確保人員能力、達成該能力所需之資源,以及人員溝通與管理;第二,定義組織數位信任流程,包括制定計劃所需時程、預算及優先實施領域,調整目前現有管理流程,並識別現有資料資產;最後,針對技術使用,可考慮使用AI監控、雲端管理系統以及區塊鏈等,以監測資料之使用正確性及近用權限管理。   4.監控及滾動調整(monitor and sustain):建立數位信任框架後,需持續建構相關績效及風險評估程序,以確保框架之穩定,並根據不斷變化的數位信任期望持續改善,以及定期向董事會報告。

蘋果電腦(Apple)被判專利侵權須賠償美金1900萬元

  蘋果電腦(Apple)於2009年4月23日被美國德州東區地方法院判定侵害OPTi 公司之專利並且必須賠償美金$1900萬元。此項專利涉及記憶體之”predictive snooping” 技術。陪審團並認為蘋果電腦之行為構成故意侵權。蘋果電腦雖主張OPTi 公司之專利為無效,但此抗辯不為法院所採納。   OPTi 公司自2003年開始即放棄其原有的製造與販賣產品的生意,改經藉由提起侵權訴訟來獲取利益。除了控告蘋果電腦外,OPTi 公司也針對其”predictive snooping” 專利技術於同一法院對AMD 公司提出類似的專利侵權訴訟。由蘋果電腦此次被判敗訴來看,OPTi 公司似乎已準備好擴大藉由它所擁有的predictive snooping” 技術專利以提起訴訟的方式來獲取授權收益。如同以往,蘋果電腦未對此次被判侵權賠償做出任何評論。

TOP