日本自動駕駛損害賠償責任研究會報告

  為釐清自駕車事故發生時,該如何適用日本《汽車賠償法》相關規定,國土交通省於2016年11月設置「自動駕駛損害賠償責任研究會」,檢討︰(1)自動駕駛是否適用《汽車賠償法》上運用供用者概念?(2)汽車製造商在自動駕駛事故損害中應負何種責任?(3)因資料謬誤、通訊不良、被駭等原因導致事故發生時應如何處理?(4)利用自動駕駛系統時發生之自損事故,是否屬於《汽車賠償法》保護範圍等議題,並於2018年3月公布研究報告。針對上述各點,研究會認為目前仍宜維持現行法上「運行供用者」責任,由具有支配行駛地位及行駛利益者負損害賠償責任,故自駕車製造商或因系統被駭導致失去以及支配行駛之地位及行駛利益者,不負運行供用者責任。此外,研究報告亦指出,從《汽車賠償法》立法意旨在於保護和汽車行駛無關之被害者,以及迅速使被害者得到救濟觀之,自動駕駛系統下之自損事故,應仍為《汽車賠償法》保護範圍所及。

本文為「經濟部產業技術司科技專案成果」

※ 日本自動駕駛損害賠償責任研究會報告, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?no=55&tp=1&d=8049 (最後瀏覽日:2024/07/27)
引註此篇文章
你可能還會想看
新加坡律政部向國會提交著作權法新法草案

  新加坡律政部(Ministry of Law)於2021年7月6日向國會提出新的《著作權法》(Copyright Bill),以廢止和取代現行法令(Copyright Act)。新法修正了舊法關於創作、散布和使用方式的規定,讓法令更與時俱進以完善新加坡的著作權保護。此外,新法簡化法條用語,使其更容易理解。   新法的特點有: 1.為創作者引入新的權利和救濟措施,以確保著作權能夠繼續鼓勵創作並激發創造力。例如: (1) 使用者應取得創作者或表演者的許可,始可公開地利用或在網路散布創作者或表演者的資料。此規定係賦予創作者或表演者的身分識別權,有助於個人創作者和表演者建立起自己的聲譽。 (2) 除合約另有規定,受託製作攝影、肖像、版畫、錄音和影片的著作權歸屬於創作者,此規定迥異於目前乃委託者擁有著作權。新法的規定,使創作者有更好的條件與委託者談判,並可將其作品商業化。 2.對著作權人之權利制定「允許使用」(permitted uses)的例外,擴大著作的使用權,以利著作造福社會並且支持創新。例如: (1) 倘係合法取得著作(如未規避付費牆paywall),則可將該著作用於資料計算分析(computational data analysis),如情感分析、文本和資料探勘(text and data mining),或訓練機器學習,而無需向每個著作權人取得許可,新規定對研究和創新將有助益。 (2) 教師和學生如果確認資料來源為合法時,可以在教育活動中(如居家學習)使用免費的網路資料。惟知悉來源有侵犯著作權時,則應停止使用。 3.此外,現行法令針對販賣或提供盜版視訊盒(set-top box)的業者,未清楚規定是否應負責,新的《著作權法》則明文著作人得追究販售、宣傳或散布違法且侵權設備或服務而牟利的業者。   新法若經國會通過,預計於2021年11月可實施該法大部分條款。

德國資料保護會議通過「哈姆巴爾宣言」,針對人工智慧之運用提出七大個資保護要求

  德國聯邦及各邦獨立資料保護監督機關(unabhängige Datenschutzaufsichtsbehörden)共同於2019年4月3日,召開第97屆資料保護會議通過哈姆巴爾宣言(Hambacher Erklärung,以下簡稱「Hambacher宣言」)。該宣言指出人工智慧雖然為人類帶來福祉,但同時對法律秩序內自由及民主體制造成巨大的威脅,特別是人工智慧系統可以透過自主學習不斷蒐集、處理與利用大量個人資料,並且透過自動化的演算系統,干預個人的權利與自由。   諸如人工智慧系統被運用於判讀應徵者履歷,其篩選結果給予女性較不利的評價時,則暴露出人工智慧處理大量資料時所產生的性別歧視,且該歧視結果無法藉由修正資料予以去除,否則將無法呈現原始資料之真實性。由於保護人民基本權利屬於國家之重要任務,國家有義務使人工智慧的發展與應用,符合民主法治國之制度框架。Hambacher宣言認為透過人工智慧系統運用個人資料時,應符合歐盟一般資料保護規則(The General Data Protection Regulation,以下簡稱GDPR)第5條個人資料蒐集、處理與利用之原則,並基於該原則針對人工智慧提出以下七點個資保護之要求: (1)人工智慧不應使個人成為客體:依據德國基本法第1條第1項人性尊嚴之保障,資料主體得不受自動化利用後所做成,具有法律效果或類似重大不利影響之決策拘束。 (2)人工智慧應符合目的限制原則:透過人工智慧系統蒐集、處理與利用個人資料時,即使後續擴張利用亦應與原始目的具有一致性。 (3)人工智慧運用處理須透明、易於理解及具有可解釋性:人工智慧在蒐集、處理與利用個人資料時,其過程應保持透明且決策結果易於理解及可解釋,以利於追溯及識別決策流程與結果。 (4)人工智慧應避免產生歧視結果:人工智慧應避免蒐集資料不足或錯誤資料等原因,而產生具有歧視性之決策結果,控管者或處理者使用人工智慧前,應評估對人的權利或自由之風險並控管之。 (5)應遵循資料最少蒐集原則:人工智慧系統通常會蒐集大量資料,蒐集或處理個人資料應於必要範圍內為之,且不得逾越特定目的之必要範圍,並應檢查個人資料是否完全匿名化。 (6)人工智慧須設置問責機關進行監督:依據GDPR第12條、第32條及第35條規定,人工智慧系統內的控管者或處理者應識別風險、溝通責任及採取必要防範措施,以確保蒐集、處理與利用個人資料之安全性。 (7)人工智慧應採取適當技術與組織上的措施管理之:為了符合GDPR第24條及第25條規定,聯邦資料保護監督機關應確認,控管者或處理者採用適當的現有技術及組織措施予以保障個人資料。   綜上所述,Hambacher宣言內容旨在要求,人工智慧在蒐集、處理及利用個人資料時,除遵守歐盟一般資料保護規則之規範外,亦應遵守上述提出之七點原則,以避免其運用結果干預資料主體之基本權利。

歐盟宣布欲在2019年時達成U-space的管理系統建置以創造無人機服務市場

  歐盟執委會(European Commission)的移動與運輸專員(European Commissioner for Mobility and Transport )Violeta Bulc在2016年11月23日於華沙發表歐盟目前到2019年的無人機發展計畫───U-space管理系統,該計畫希望能使無人機融入歐盟公民日常生活中的一部分。   U-Space為都會區上的空間(Urban-Space),也代表「你的空間」(Your space),範圍為150公尺以下涉及日常生活的空域空間。其在經濟目標上,期望藉由具體的政策,包含全自動化的導航與空中交管系統的建立,可以使一般人可以公平且容易的使用無人機,讓無人機應用在未來的日常生活成為普遍的應用活動,藉以促進整個歐盟無人機產業的發展。因此,進一步在法規管理上,需要在歐盟地區確立有關無人機之註冊、辨識以及衛星輔助設備之要求的全面一體化(Harmonized)系統,以確保該系統下的無人機操作均符合安全和保安的標準且可以達到隱私與環境保護的訴求。   目前看來,U-Space是推動無人機應用的管理系統,法規方面需要歐洲航空安全總署(European Aviation Safety Agency, EASA)於2016年8月22日公布之的初步無人機法規草案(EASA ‘Prototype’ Commission Regulation on Unmanned Aircraft Operations)支持,像是全自動化的導航系統需要的衛星輔助系統(Geo-fencing)就在EASA草案中提及。   而根據歐盟同一天的新聞稿,為達成U-Space之建置有三個面向須努力: 1.新創技術專案之展示:根據U-Space制度涵蓋之項目為運作基礎的展示專案應該評估特定技術的可行性,以讓相關產品服務早日投入應用,具體專案計畫將在2017年上半年推出。 2.產業密切合作:必須在產業相信歐盟執委會的決心以及願意投資無人機科技的前提下,執委會發展相關基礎設施才有意義。 3.設立新的法規標準:即就前述提及之EASA初步無人機法規草案徵詢各界之意見,預計蒐集各界相關意見後,並經由歐盟執委會、歐盟理事會(Council of the European Union)以及歐洲議會(the European Parliament)的三方會議後,在近期內出現更為具體的草案,議題將包含安全、資安、環境以及隱私等。

美國情報體系發布「情報體系運用人工智慧倫理架構」

  美國國家情報體系(United States Intelligence Community)係於1981年依據行政命令第12333號(Executive Order 12333)所建立,其任務為蒐集、分析與提供外國情報與反情報資訊美國國家領導人,服務對象包含美國總統、執法單位以及軍事單位。其於2020年6月提出「情報體系人工智慧倫理架構」(Artificial Intelligence Ethics Framework for the Intelligence Community),為人工智慧系統與訓練資料、測試資料之採購、設計、研發、使用、保護、消費與管理提出指引,並指出人工智慧之利用須遵從以下事項: 一、於經過潛在風險評估後,以適當且符合目的之方法利用; 二、人工智慧之使用應尊重個人權利與自由,且資料取得應合法且符合相關政策與法規之要求; 三、應於利用程序內結合人類判斷與建立問責機制,以因應AI產品之風險並確保其決策之適當性。 四、於不破壞其功能與實用性之前提下,盡可能確認、統計以及降低潛在之歧視問題。 五、AI進行測試時應同時考量其未來利用上可預見之風險。 六、持續維持AI模型之迭代(Iteration)、版本與改動之審查。 七、AI之建立目的、限制與設計之輸出項目,應文件化。 八、盡可能使用可解釋與可理解之方式,讓使用者、審查者與公眾理解為何AI會產出相關決策。 九、持續不定期檢測AI,以確保其符合當初建置之目的。 十、確認AI於產品循環中各階段之負責人,包含其維護相關紀錄之責任。

TOP