無人駕駛汽車、電腦駕駛汽車或輪式移動機器人,皆屬自動化載具的一種,具有傳統汽車的運輸能力。而作為自動化載具,自動駕駛汽車不需要人為操作即能感測其環境及導航。目前無人車仍未全面商用化,大多數均為原型機及展示系統,部份可靠技術才下放至商用車型,但有關於自駕車逐漸成為現實,已經引起了很多有關於道德與法律上的討論。
無人駕駛車輛若能夠變得商用化,將可能對整體社會造成破壞性創新的重大影響。然而,在商品化之前的實際道路測試是自動駕駛車輛開發過程非常重要的一環,是否允許自動駕駛車輛實際上路測試為各地交通主管機關之職責。因此,為了保障公共安全與推廣創新,為美國加州機動車輛管理局(Department of Motor vehicles ,下稱加州DMV)便自2015年12月公布無人駕駛車輛規範草案後,歷經2016年9月的修正,於2017年3月10日正式公布無人駕駛車輛管理規範。
美國加州申請自動駕駛車輛上路測試規定係依據加州汽車法規 (California Vehicle Code)38750 中之條款 3.7所訂定,依照加州DMV規畫,在社區內和高速公路上進行測試的自動駕駛車,仍需與傳統汽車一樣,具有方向盤與煞車踏板,而且駕駛座上亦需有人隨時待命應付緊急情況發生。此外,無人駕駛車輛尚必須有人進行遠距監控,並且能在緊急情況發生時安全停靠路邊。
截至2017年3月8日,已有27家公司獲得加州DMV許可,在道路上測試無人駕駛車輛,且這些車輛迄今只造成少數事故。加州DMV公布無人駕駛車輛管理規範後,還將於2017年4月24日舉行公聽會持續蒐集意見,研擬規範修改內容,以符合實際需求。
人駕駛車輛是汽車產業未來發展的趨勢之一,我國於不久的將來亦可能面臨有無人駕駛車輛在國內進行實際道路測試的需求。然而,我國地狹人稠,交通狀況複雜,且國人守法觀念尚有加強空間,確也增添無人駕駛車輛在國內道路測試的挑戰性,以及主管機關於受理測試申請之困難度。因此,加州DMV所公布之無人駕駛車輛管理規範之後續發展,值得吾人持續關注。
近年來,巨量資料(Big Data)狂潮來襲,各產業競相採用此種新型態模式,將充斥各領域之資料量,加以深度分析及集合、比對,篩選具價值性之各項資料。以美國為例,於2011年2月份正式啟動SunShot計畫,期透過聯邦政府的資源,加強推動不同領域之巨量資料分析,有利各領域之政府資源重整運用,以期使推動計畫更經濟效率且具競爭力。並且,美國政府更於2013年1月30日,宣布將挹資900萬元資助7項科專計畫,補助對象分別為: (1) SRI International; (2) 麻省理工學院(MIT); (3)北卡羅萊納大學 (Charlotte校區); (4) Sandia 國家實驗室;(5) 國家再生能源實驗室;(6) 耶魯大學;(7) 德州大學奧斯汀分校,加強各領域推動及整合。 此項「巨量資料」參與計畫之研究團隊將與公私營金融機構(financial institutions)、事業單位(utilities)及州層級之行政機關(agencies)展開合作(partnership),運用統計和電腦工具(statistical and computational tools),解決產業面之難題(challenges);同時,其將運用發展出之模型(Models),測試分散全美不同地區領航計畫(pilot projects)創新研發之影響和規模。計畫中,美國政府亦將以200萬元的預算,分析數十年來的科學報告、專利、成本、生產等資料,期能拼湊出相關產業之全貌,加速發掘科技突破之方法並有效降低成本。以德州(Texas)為例,奧斯汀分校(UT Austin)研究團隊乃與六個不同事業單位(utilities)進行合作,研析經營所蒐集之資料(datasets),以有效了解消費者的需求,提升太陽能未來安裝和聯結(installation and interconnection)之效率。 時值全球鼓勵產業轉型及資源整合,作為世界先進國家的美國,善用聯邦政府和高等學術研究機構之資源,進行整體產業之資料分析,殊值我國借鏡參考。
愛爾蘭資料保護委員會發布《控制者資料安全指引》,提供資料控制者關於個人資料安全措施之依循指引愛爾蘭資料保護委員會(Ireland's Data Protection Commission)於今(2020)年2月公布控制者資料安全指引(Guidance for Controllers on Data Security),愛爾蘭資料保護委員會表示本指引亦適用於資料處理者。指引內針對17個面向說明控制者於資料處理時應考量之安全措施,分別為:(1)資料蒐集與留存政策(Data Collection and Retention Policies);(2)存取控制(Access Controls);(3)螢幕保護程式(Automatic Screen Savers);(4)加密(Encryption);(5)防毒軟體(Anti-Virus Software);(6)防火牆(Firewalls)(7)程式修補更新(Software Patching);(8)遠端存取(Remote Access);(9)無線網路(Wireless Networks);(10)可攜式設備(Portable Devices);(11)檔案日誌及軌跡紀錄(Logs and Audit Trails);(12)備份系統(Back-Up Systems);(13)事故應變計畫(Incident Response Plans);(14)設備汰除(Disposal of Equipment);(15)實體安全(Physical Security);(16)人為因素(The Human Factor);(17)認證(Certification)。 此外,愛爾蘭資料保護委員會還強調,歐盟一般資料保護規則(General Data Protection Regulation, GDPR)第25條與第32條有關資料控制者之義務,可透過「從設計與預設機制著手資料保護(Data protection by design and by default)」,與適當的技術及組織措施等方式,並考量現有技術、執行成本、處理之本質、範圍、脈絡及目的與對當事人權利及自由之風險可能性與嚴重性等因素,以確保其安全措施符合相應資料風險之安全等級。 最後,愛爾蘭資料保護委員會表示資料控制者更應確保其組織內員工瞭解該等安全措施並確實遵守,資料控制者應於制定其資料安全政策時考量到本指引所列各項目,以履行其保護資料安全之義務。
美國科羅拉多州通過《人工智慧消費者保護法》2024年5月17日,科羅拉多州州長簽署了《人工智慧消費者保護法》(Consumer Protections for Artificial Intelligence Act,Colorado AI Act,下簡稱本法),其內容將增訂於《科羅拉多州修訂法規》(Colorado Revised Statutes,簡稱CRS)第6篇第17部分,是美國第一部廣泛對AI規範的法律,將於2026年2月1日生效。 本法旨在解決「高風險人工智慧系統」的演算法歧視(Algorithmic Discrimination)的問題 ,避免消費者權益因為演算法之偏見而受到歧視。是以,本法將高風險AI系統(High-risk Artificial Intelligence System)定義為「部署後作出關鍵決策(Consequential Decision)或在關鍵決策中起到重要作用的任何AI系統」。 而後,本法藉由要求AI系統開發者(Developers)與部署者(Deployers)遵守「透明度原則」與「禁止歧視原則」,來保護消費者免受演算法歧視。規定如下: (一)系統透明度: 1.開發者應向部署者或其他開發者提供該系統訓練所使用的資料、系統限制、預期用途、測試演算法歧視之文件以及其他風險評估文件。 2.部署者應向消費者揭露高風險人工智慧系統的預期用途,也應在高風險人工智慧系統做出決策之前向消費者提供聲明,聲明內容應該包含部署者之聯絡方式、該系統的基本介紹、部署者如何管理該系統可預見之風險等資訊。 (二)禁止歧視: 1.開發者應實施降低演算法歧視之措施,並應協助部署者理解高風險人工智慧系統。此外,開發者也應該持續測試與分析高風險人工智慧系統可能產生之演算法歧視風險。若開發者有意修改該系統,應將更新後的系統資訊更新於開發者網站,並須同步提供給部署者。 2.部署者應該實施風險管理計畫,該風險管理計畫應包含部署者用於識別、紀錄降低演算法歧視風險之措施與負責人員,且風險管理計畫應定期更新。在制定風險管理計畫時,必須參考美國商務部國家標準暨技術研究院(National Institute of Standards and Technology, NIST)的《人工智慧風險管理框架》(AI Risk Management Framework, AI RMF 2.0)與ISO/IEC 42001等風險管理文件。 美國普遍認為科羅拉多州的《人工智慧消費者保護法》為目前針對人工智慧系統最全面之監管法規,可作為其他州有關人工智慧法規的立法參考,美國各州立法情況與作法值得持續關注。