美國國家公路交通安全管理局(National Highway Traffic Safety Administration, NHTSA)2021年6月29日 「自駕車與配備等級2駕駛輔助系統車輛之意外事件回報命令(Standing General Order 2021-01:Incident Reporting for Automated Driving Systems and Level 2 Advanced Driver Assistance Systems)」,課予系統製造商與營運商意外事件回報義務,重點如下:
(1)適用範圍:全美境內公共道路上發生之車輛碰撞事件,事發前30秒至事件結束期間內曾經啟用等級2駕駛輔助系統或自動駕駛系統。
(2)意外事件定義:事件中任何一方有人員死亡或送醫治療、車輛必須拖吊、安全氣囊引爆或事件涉及弱勢用路人(vulnerable road user)。
(3)回報期限:須於知悉事件後隔日立即回報,知悉後10日傳送更新資料,如後續仍有發現新事證,應於每月15號傳送更新。自駕車發生碰撞,即使無人傷亡、無車輛拖吊或安全氣囊引爆,仍需於次月15號傳送事件回報。
(4)回報方式及項目:需至NHTSA指定網站註冊帳號,線上填寫制式通報表格。項目包含車籍資料、事件時間、地點、天候、路況、傷亡及財損情形等等。
NHTSA收到的回報資料,原則上會在將個人資料去識別化後對大眾公開,惟若系統製造上或營運商主張部分資訊為商業機密,可另行向NHTSA之諮詢辦公室通報審核。如逾期未報或隱匿資訊,可處每日最高22,992美元罰金,累計最高罰金為114,954,525美元。
本文為「經濟部產業技術司科技專案成果」
日本總務省下設之實現車聯網社會研究會(Connected Car 社会の実現に向けた研究会,下稱車聯網研究會),於2017年4月19日第4次會議中提出當前日本車聯網面對之相關課題及策略目標。至目前為止日本智慧型運輸系統(Intelligent Transportation System)各自已發展出道路交通資訊通信系統(Vehicle Information and Communication System,簡稱VICS)、電子收費系統(Electronic Toll Collection System,簡稱ETC)、雷達防追撞(レーダー)等不同通訊技術,自動駕駛則發展至初期階段。日本當前發展中面臨其企業國際競爭力確保與強化、持續友善環境之可能性、高齡化及勞動生產力人口減少等問題。希望透過國家開發之系統及國際服務方式,利用交通資訊通信系統實現最佳的交通狀態,在人口稀少之地區利用無人駕駛系統,使駕駛不足之問題得以解決,對當地之購物及交通上可以加以協助。車聯網研究會設定之4大目標為: 零交通事故之社會 確保人之行動自由 便利、快速、安心之生活環境 生活方式的變化 透過利用車與車間通信等技術,降低事故之發生,普及車聯網等資通訊系統,車中行動模式之變革,並透過異業結合創造新的服務模式,達成安全、安心、便利之智慧聯網生活4大目標。
梵諦岡與IBM、微軟聯合呼籲對臉部辨識等侵入性技術進行監管2020年2月28日梵諦岡教宗與兩大科技巨頭IBM及微軟聯合簽署「羅馬呼籲AI倫理道德」文件,支持制定人工智慧(AI)發展倫理與道德規範,並特別呼籲應針對臉部辨識等侵入性技術進行監管。在聯合文件上特別提及臉部識別技術潛在之濫用風險,例如警察會使用臉部辨識系統調查犯罪行為、《財富》500強公司使用AI審查求職者,這兩個例子均具有潛在且高度之風險,使用不正確或是具有偏見之AI判斷均可能會造成傷害。誠如方濟各在致辭中說:「人工智慧記錄個人資料,並使用於商業或政治目的,而且通常是在個人不知情之情況下,這種不對稱,將使少數人了解我們的一切,但我們卻對他們一無所知,這將使批判性思維和對自由的自覺變得遲鈍,不平等現象急遽擴大,知識和財富在少數人手中累積,將對民主社會構成重大風險。」 此次會議希望在國家與國際層面上共同努力促進AI道德規範,並根據以下原則來發展和使用人工智慧。第一,良好的創新:人工智慧系統必須是可理解得,並且在包容性方面必須考慮到所有人的需求,以便每個人都能受益。第二,責任:設計和實施人工智慧者必須承擔責任和保持透明度。第三,公正性:避免根據偏見進行創造或採取行動,從而維護人類平等和尊嚴。第四,可靠性:人工智慧系統必須能夠可靠的運行。第五,安全和隱私:人工智慧系統必須安全運行並尊重用戶的隱私。 目前尚不清楚其他技術公司是否會簽署該文件,以及簽署人將如何實施,但教宗與兩大科技巨頭史無前例的合作,為人工智慧未來發展方向提供遠見卓識,能更加深入的去思考AI的道德意涵以及它將如何與人類更好的合作、互動,互利共生,相輔相成。
品牌永續發展之關鍵-從商標維權使用角度觀之 歐盟發布新人工智慧規範,以風險程度判斷防止科技濫用歐盟執委會於2021年4月21日提出「人工智慧規則」(AI regulation)草案,成為第一個結合人工智慧法律架構及「歐盟人工智慧協調計畫」(Coordinated Plan on AI)的法律規範。規範主要係延續其2020年提出的「人工智慧白皮書」(White Paper on Artificial Intelligence)及「歐盟資料策略」(European Data Strategy),達到為避免人工智慧科技對人民基本權產生侵害,而提出此保護規範。 「人工智慧規則」也依原白皮書中所設的風險程度判斷法(risk-based approach)為標準,將科技運用依風險程度區分為:不可被接受風險(Unacceptable risk)、高風險(High-risk)、有限風險(Limited risk)及最小風險(Minimal risk)。 「不可被接受的風險」中全面禁止科技運用在任何違反歐盟價值及基本人權,或對歐盟人民有造成明顯隱私風險侵害上。如政府對人民進行「社會評分」制度或鼓勵兒童為危險行為的語音系統玩具等都屬於其範疇。 在「高風險」運用上,除了作為安全設備的系統及附件中所提出型態外,另將所有的「遠端生物辨識系統」(remote biometric identification systems)列入其中。規定原則上禁止執法機構於公眾場合使用相關的生物辨識系統,例外僅在有目的必要性時,才得使用,像尋找失蹤兒童、防止恐怖攻擊等。 而在為資料蒐集行為時,除對蒐集、分析行為有告知義務外,也應告知系統資料的準確性、安全性等,要求高度透明化(Transparency obligations)。不只是前述的不可被接受風險及高風險適用外,有限風險運用中的人工智慧聊天系統也需要在實際和系統互動前有充足的告知行為,以確保資料主體對資料蒐集及利用之情事有充足的認知。 在此新人工智慧規範中仍有許多部份需要加強與討論,但仍期望在2022年能發展到生效階段,以對人工智慧科技的應用多一層保障。