NHTSA要求自動駕駛系統及L2自動駕駛輔助系統回報意外事件

  美國國家公路交通安全管理局(National Highway Traffic Safety Administration, NHTSA)2021年6月29日 「自駕車與配備等級2駕駛輔助系統車輛之意外事件回報命令(Standing General Order 2021-01:Incident Reporting for Automated Driving Systems and Level 2 Advanced Driver Assistance Systems)」,課予系統製造商與營運商意外事件回報義務,重點如下:

(1)適用範圍:全美境內公共道路上發生之車輛碰撞事件,事發前30秒至事件結束期間內曾經啟用等級2駕駛輔助系統或自動駕駛系統。

(2)意外事件定義:事件中任何一方有人員死亡或送醫治療、車輛必須拖吊、安全氣囊引爆或事件涉及弱勢用路人(vulnerable road user)。

(3)回報期限:須於知悉事件後隔日立即回報,知悉後10日傳送更新資料,如後續仍有發現新事證,應於每月15號傳送更新。自駕車發生碰撞,即使無人傷亡、無車輛拖吊或安全氣囊引爆,仍需於次月15號傳送事件回報。

(4)回報方式及項目:需至NHTSA指定網站註冊帳號,線上填寫制式通報表格。項目包含車籍資料、事件時間、地點、天候、路況、傷亡及財損情形等等。

  NHTSA收到的回報資料,原則上會在將個人資料去識別化後對大眾公開,惟若系統製造上或營運商主張部分資訊為商業機密,可另行向NHTSA之諮詢辦公室通報審核。如逾期未報或隱匿資訊,可處每日最高22,992美元罰金,累計最高罰金為114,954,525美元。

本文為「經濟部產業技術司科技專案成果」

相關連結
相關附件
※ NHTSA要求自動駕駛系統及L2自動駕駛輔助系統回報意外事件, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8709&no=55&tp=1 (最後瀏覽日:2026/05/17)
引註此篇文章
你可能還會想看
印度電子及資訊科技部公告封鎖數款由中國企業開發之應用程式

  2020年6月、9月及11月,印度電子及資訊科技部(Ministry of Electronics and Information Technology, MeitY)分別發布三項公告,內容為封鎖數款具資安風險之應用程式,並直接列出名單,總數一共高達220款。三項公告分別如下: 政府封鎖59款有害印度主權之完整性、防禦力、國家安全及公共利益的手機應用程式(Government Bans 59 mobile apps which are prejudicial to sovereignty and integrity of India, defence of India, security of state and public order)。 政府封鎖118款有害印度主權之完整性、防禦力、國家安全和公共利益的手機應用程式(Government Blocks 118 Mobile Apps Which are Prejudicial to Sovereignty and Integrity of India, Defence of India, Security of State and Public Order)。 政府禁止國內使用者使用43款手機應用程式(Government of India blocks 43 mobile apps from accessing by users in India)。   三項公告皆指出依照資訊技術法(Information Technology Act 2000)第69A條之規定,中央政府為保護印度主權之完整性、國家安全、公共利益而有必要,得透過命令封鎖、監視或解密由特定電腦資源(computer resource)產生、傳送、儲存或管理的資料。依照同法第2條第1項第k款,電腦資源係指電腦設備、電腦網路、軟體或應用程式。   電子及資訊科技部進一步表示,經民眾檢舉後調查發現,在手機Android及iOS系統之應用程式商店中,有許多應用程式未經使用者授權就存取其重要資料,並傳輸到印度境外的伺服器,不僅對印度人民隱私造成威脅,更損害印度國家安全與公共利益。有鑑於此,電子及資訊科技部決定封鎖此類具資安風險之應用程式,將名單中所列應用程式自應用程式商店中下架,名單中包括TikTok、WeChat、淘寶、支付寶、微博等應用程式。由於名單中大多數皆屬中國企業開發之應用程式,外界普遍認為是今年6月中印軍隊於邊界西段加勒萬河谷(Galwan Valley)發生衝突,因此印度透過封鎖中國資通訊服務之手段以牽制對方,預計此舉將導致兩國關係更加緊張。

日本文化廳發布《人工智慧著作權檢核清單和指引》

日本文化廳發布《人工智慧著作權檢核清單和指引》 資訊工業策進會科技法律研究所 2024年08月21日 日本文化廳為降低生成式人工智慧所產生的著作權風險,保護和行使著作權人權利,於2024年7月31日以文化廳3月發布的《人工智慧與著作權的思考》、內閣府5月發布的《人工智慧時代知識產權研究小組中期報告》,以及總務省和經濟產業省4月份發布的《人工智慧事業指引(1.0版)》的資料為基礎,制訂發布《人工智慧著作權檢核清單和指引》[1]。 壹、事件摘要 日本文化廳的《人工智慧著作權檢核清單和指引》主要分成兩部分,第一部分是「人工智慧開發、提供和使用清單」,依循總務省和經濟產業省4月份發布的《人工智慧事業指引(1.0版)》的區分方式,分為「AI開發者」、「AI提供者」、「AI(業務)使用者(事業利用人)」和「業務外利用者(一般利用人)」四個利害關係人,依不同的身份分別說明如何降低人工智慧開發前後的資料處理和學習等智慧財產權侵權風險的措施,以及提供和使用人工智慧系統和服務時,安全、適當地使用人工智慧的技術訣竅。 第二部分則是針對著作權人及依著作權法享有權利的其他權利人(例如表演人)的權益保護,從權利人的思考角度,建議正確理解生成式AI可能會出現什麼樣的(著作權)法律上利用行為[2]。其次,說明近似侵權的判斷要件、要件的證明、防止與賠償等可主張的法律上請求、可向誰主張侵權、權利主張的限制;於事先或發現後可採取的防止人工智慧侵權學習的可能措施;最後對侵權因應建議權利人可發出著作權侵權警告、進行訴訟、調解等糾紛解決,並提供可用的法律諮詢窗口資訊。 貳、重點說明 日本文化廳於此指引中,針對不同的角色提出生成式AI與著作權之間的關係,除更具體的對「AI開發者」、「AI提供者」、「AI(事業與一般利用人)」,提醒其應注意的侵權風險樣態、可能的合法使用範圍,並提供如何降低風險的對策。同時,從權利人角度提供如何保護權益的指引,並提供可用的法律諮詢窗口資訊。重點說明如下: 一、不符合「非享受目的」的非法AI訓練 日本著作權法第30條之4規定適用於以收集人工智慧學習資料等為目的而進行的著作權作品的複製,無需獲得權利人的授權,但是,該指引特別明確指出「為了輸出AI學習資料中包含的既有作品的內容,而進行額外學習;為讓AI產出學習資料庫中所包含的既有作品的創作表現;對特定創作者的少量著作權作品進行額外個別學習」,這三個情況係同時存有「享受」著作目的,不適用無須授權的規定[3]。 二、不能「不當損害著作權人利益」 從已經採取的措施和過去的銷售紀錄可以推斷,資料庫著作權作品計劃有償作為人工智慧學習的資料集。在這種情況下,未經授權以人工智慧學習為目的進行複製時,屬於「不當損害著作權人利益」的要求,將不適用(日本)著作權法第30條之4規定[4]。在明知某個網站發布盜版或其他侵害著作權的情況下收集學習資料,則使用該學習資料開發的人工智慧也會造成著作權侵權,人工智慧開發者也可能被追究著作權責任[5]。不應使用以原樣輸出作為學習資料的著作權作品的學習方法,如果該已訓練模型處於高概率生成與學習資料中的著作物相似的生成結果的狀態等情況下,則該已訓練模型可能被評價為「學習資料中著作物的複製物」, 對銷毀該模型的請求即有可能會被同意[6]。 三、使用生成式AI即可能被認定為可能有接觸被侵害著作[7] 權利人不一定必須證明「生成所用生成AI的學習資料中包含權利人的作品。如有下述AI使用者認識到權利人的作品的情況之一,權利人亦可透過主張和證明符合「依賴性(依拠性)」要件,例如:AI使用者將現有的著作物本身輸入生成AI、輸入了現有著作物的題名(標題)或其他特定的固有名詞、AI生成物與現有著作物高度類似等。 四、開發與提供者也可能是侵權責任主體[8] 該指引指出,除利用人外,開發或提供者亦有負侵權責任的可能,特別是--人工智慧頻繁產生侵權結果,或已意識到人工智慧很有可能產生侵權結果,但沒有採取措施阻止。於其應負侵權責任時,可能被請求從訓練資料集中刪除現有的著作權作品,甚至是刪除造成侵權的人工智慧學習創建的訓練模型。即便人工智慧學習創建的訓練模型一般並非訓練資料的重製物,不過如果訓練後的模型處於產生與作為訓練資料的著作權作品相似的產品的機率很高的狀態,該指引認為可能會被同意[9]。 參、事件評析 人工智慧(AI)科技迎來契機,其生成內容隨著科技發展日新月異,時常可以看見民眾在網路上分享AI技術生成的圖像和影音。是否能將AI生成的圖案用在馬克杯或衣服販售,或是將Chat GPT內容當作補習班教材,均成為日常生活中的訓練AI的資料與運用AI的產出疑義。 各國固然就存有人類的「創造性貢獻」是人工智慧生成結果是否受著作權法保護、可受著作權保護的條件,單純機械性的AI自動生成,基本上欠缺「人的創造性」,非著作權保護對象,已有明確的共識。如何以明確的法令規範降低AI開發過程的侵權風險或處理成本?賦予AI訓練合法使用既有著作,應有的界限?衡平(賦予)既有著作的著作權人權益?AI服務提供者應負那些共通義務?是否合理課予AI服務提供者應負之侵權損害責任?AI使用者之侵權責任是否須推定符合「接觸」要件?等等諸此進一步的疑義,則仍在各國討論、形成共識中。 而從日本文化廳的《人工智慧著作權檢核清單和指引》,我們可以清楚的看出,在樹立成為AI大國的國家發展政策下,其著作權法雖已賦予AI訓練資料合法的重製,但在指引是明列已屬「享受」目的訓練行為、不合理損害著作權利用的情況、明示開發服務者應負的揭露義務與可能承擔侵權責任,彰顯其對權利人權益平衡保護的努力。值得於我國將來推動落實AI基本法草案中維護著作權人權益原則時,做為完善相關法令機制的重要參考。 本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。 本文同步刊登於TIPS網站(https://www.tips.org.tw) [1] 文化庁著作権課,「AI著作権チェックリスト&ガイダンス」,令和6年7月31日,https://www.bunka.go.jp/seisaku/bunkashingikai/chosakuken/seisaku/r06_02/pdf/94089701_05.pdf,最後閱覽日:2024/08/20。 [2] 詳見前註,頁31。 [3] 詳見前註,頁7。 [4] 詳見前註,頁8。 [5] 詳見前註,頁9。 [6] 詳見前註,頁9。 [7] 詳見前註,頁35。 [8] 詳見前註,頁36。 [9] 詳見前註,頁42。

美國ULC公布統一虛擬貨幣事業監管規範建議,提供各州虛擬貨幣管制立法架構參考

  2017年美國統一法律委員會(Uniform Law Commission, ULC)於2017年9月公布「統一虛擬貨幣事業監管法」(Uniform Regulation of Virtual Currency Business Act, 以下簡稱VCBA)全文、總說明以及利害關係人意見,對於虛擬貨幣(virtual currency)提供管制架構,囊括虛擬貨幣定義和適用範圍、營業執照要求、跨州互惠原則、消費者保護、網路安全、反洗錢和對進行虛擬貨幣商業活動者之監管等重要問題,作為各州相關立法參考。迄今美國夏威夷州和內布拉斯加州分別向州議會提案,朝向採用VCBA作為該州虛擬貨幣管制參考規範之方向討論。

微軟與阿爾卡特的專利官司勝負難分

  2007年2月份美國加州聖地牙哥法院甫宣判,微軟公司必須支付約15億美元(折合新台幣近500億元)給阿爾卡特(Alcatel-Lucent)公司,以解決微軟公司產品使用MP3技術所引發的糾紛。不過在3月初,另一位聯邦法官Rudi Brewster做出一項裁定,駁回阿爾卡特公司所有的主張,因為阿爾卡特公司主張微軟公司侵害一項其所有之有關語音編碼的技術專利。   微軟與阿爾卡特的專利官司可追溯至2003年,當時未合併前的朗訊(Lucent,二公司於2006下半年合併)公司控告PC製造商Dell與Gateway使用其所擁有的MP3技術專利。微軟公司後來被捲入這場專利糾紛,與阿爾卡特(Alcatel-Lucent)公司專利官司的糾紛日益擴大。二家公司爭訟的結果,在2月份的判決,根據2003年5月以來微軟公司所賣出的每台Windows PC數目,來計算出可能造成的損失,所以微軟公司才必須付出約15億美元的天價。   但是3月的這項裁定,卻阻止阿爾卡特公司趁勝追擊。在知識經濟的時代中,專利訴訟的結果甚至可能影響一家公司的興亡,相信沒有多少家公司可以輕易付出15億美元的賠償,如何確保不侵犯他人的智慧財產是很重要的課題。此外,爭訟的雙方都是業界的重量級廠商,不論結果如何,後續的發展都值得大家關注。

TOP