2024年5月17日,科羅拉多州州長簽署了《人工智慧消費者保護法》(Consumer Protections for Artificial Intelligence Act,Colorado AI Act,下簡稱本法),其內容將增訂於《科羅拉多州修訂法規》(Colorado Revised Statutes,簡稱CRS)第6篇第17部分,是美國第一部廣泛對AI規範的法律,將於2026年2月1日生效。
本法旨在解決「高風險人工智慧系統」的演算法歧視(Algorithmic Discrimination)的問題 ,避免消費者權益因為演算法之偏見而受到歧視。是以,本法將高風險AI系統(High-risk Artificial Intelligence System)定義為「部署後作出關鍵決策(Consequential Decision)或在關鍵決策中起到重要作用的任何AI系統」。
而後,本法藉由要求AI系統開發者(Developers)與部署者(Deployers)遵守「透明度原則」與「禁止歧視原則」,來保護消費者免受演算法歧視。規定如下:
(一)系統透明度:
1.開發者應向部署者或其他開發者提供該系統訓練所使用的資料、系統限制、預期用途、測試演算法歧視之文件以及其他風險評估文件。
2.部署者應向消費者揭露高風險人工智慧系統的預期用途,也應在高風險人工智慧系統做出決策之前向消費者提供聲明,聲明內容應該包含部署者之聯絡方式、該系統的基本介紹、部署者如何管理該系統可預見之風險等資訊。
(二)禁止歧視:
1.開發者應實施降低演算法歧視之措施,並應協助部署者理解高風險人工智慧系統。此外,開發者也應該持續測試與分析高風險人工智慧系統可能產生之演算法歧視風險。若開發者有意修改該系統,應將更新後的系統資訊更新於開發者網站,並須同步提供給部署者。
2.部署者應該實施風險管理計畫,該風險管理計畫應包含部署者用於識別、紀錄降低演算法歧視風險之措施與負責人員,且風險管理計畫應定期更新。在制定風險管理計畫時,必須參考美國商務部國家標準暨技術研究院(National Institute of Standards and Technology, NIST)的《人工智慧風險管理框架》(AI Risk Management Framework, AI RMF 2.0)與ISO/IEC 42001等風險管理文件。
美國普遍認為科羅拉多州的《人工智慧消費者保護法》為目前針對人工智慧系統最全面之監管法規,可作為其他州有關人工智慧法規的立法參考,美國各州立法情況與作法值得持續關注。
日本總務省為透過推動社會全體數位化,實現SDGs及Society 5.0目標,自2018年12月起召開「數位變革時代之ICT全球化戰略懇談會」(デジタル変革時代のICTグローバル戦略懇談会)檢討具體對策,並於2019年5月31日公布「ICT全球化戰略」(ICTグローバル戦略)。「ICT全球化戰略」基於社會全體數位化、推廣Society 5.0,以及透過提昇產業構造和勞動環境效率,創造具備豐富多彩價值之社會等理念,提出(1)透過數位化達成SDGs戰略︰公私部門合作推動社會全體之數位化,解決日本及世界社會問題;(2)資料流通戰略︰以確保個人資料之可控性為前提,推動制定國際規範及進行法制環境整備;(3)AI/IoT加值運用戰略︰提出以人類為中心之AI原則,檢討AI時代之資料重要性,推動AI人才培育;(4)網路安全戰略︰因應IoT機器和服務發展,確保網路安全性;(5)ICT海外展開戰略︰因應世界數位市場發展趨勢,檢討如何推動日本企業於海外發展;(6)開放創新戰略︰從利用次世代溝通技術提高生活品質、實現由資料所驅動之社會、建構支援未來之高度化網路等方向出發,推動相關研發計畫等6大戰略。
美國加州公共事業委員會提出自動駕駛車輛試點計畫加州公共事業委員會(California Public Utilities Commission, CPUC)提出自駕車試點計畫,允許在未有配置人類駕駛之情況下測試自駕車,此次計畫包含兩個試點項目,將於5月被五人委員會審核,並決定是否批准。 第一個試點項目允許參與廠商之自駕車上路測試,並須配置經培訓的人類駕駛於自駕車內,以應付隨時的突發狀況;第二個試點項目則允許無人駕駛之自駕車上路測試,惟在無人類駕駛隨車之情況,必須符合加州機動車輛管理局(Department of Motor Vehicles, DMV)之規定,如遠端監控車輛狀態及操作,以保障乘客安全。 參與廠商必須定期向CPUC及DMV繳交營運報告,包含測試期間車輛碰撞(collision)及解除自動駕駛(disengagement)次數。 此次試點計畫已開放廠商申請,科技大廠及叫車服務公司如Google、Tesla、Uber以及Lyft等目前亦已正進行自駕車之設計與測試。若此提案通過,CPUC將進一步規劃自駕車載客服務之相關辦法,使自駕車測試之法制更臻完善。
OECD發布「促進人工智慧風險管理互通性的通用指引」研究報告經濟合作發展組織(Organisation for Economic Co-operation and Development,下稱OECD)於2023年11月公布「促進AI風險管理互通性的通用指引」(Common Guideposts To Promote Interoperability In AI Risk Management)研究報告(下稱「報告」),為2023年2月「高階AI風險管理互通框架」(High-Level AI Risk Management Interoperability Framework,下稱「互通框架」)之延伸研究。 報告中主要說明「互通框架」的四個主要步驟,並與國際主要AI風險管理框架和標準的風險管理流程進行比較分析。首先,「互通框架」的四個步驟分別為: 1. 「定義」AI風險管理範圍、環境脈絡與標準; 2. 「評估」風險的可能性與危害程度; 3. 「處理」風險,以停止、減輕或預防傷害; 4.「治理」風險管理流程,包括透過持續的監督、審查、記錄、溝通與諮詢、各參與者的角色和責任分配、建立問責制等作法,打造組織內部的風險管理文化。 其次,本報告指出,目前國際主要AI風險管理框架大致上與OECD「互通框架」的四個主要步驟一致,然因涵蓋範圍有別,框架間難免存在差異,最大差異在於「治理」功能融入框架結構的設計、其細項功能、以及術語等方面,惟此些差異並不影響各框架與OECD「互通框架」的一致性。 未來OECD也將基於上述研究,建立AI風險管理的線上互動工具,用以協助各界比較各種AI風險管理框架,並瀏覽多種風險管理的落實方法、工具和實踐方式。OECD的努力或許能促進全球AI治理的一致性,進而減輕企業的合規負擔,其後續發展值得持續追蹤觀察。
歐盟發布《歐洲資料治理規則》草案歐盟執委會於2020年11月25日公布「歐洲資料治理規則」(Proposal for a Regulation on European data governance (Data Governance Act))草案。本立法草案係延續同年2月發布「歐洲資料戰略」(European data strategy)所提出之立法規劃,針對該戰略所揭示的資料治理政策願景,於制度面予以明文化。而本草案亦為該戰略發布後,首次提出的具體性措施。其制定的主要目的,在於透過強化資料中介機構(data intermediaries)的公信力、以及優化歐盟整體的資料共享機制,來提升資料的可取得性(availability)。 依草案條文內容,其主要立法面向如下: (1)界定本法的立法目的,在於規範歐盟內部再利用公部門所持有之特定類型資料的條件,確立資料共享服務的通報與監督框架,並針對基於利他(altruistic)目的蒐集處理資料之實體(entities),建構自願註冊的制度;另一方面則進行本法的名詞定義。 (2)公部門資料再利用機制:整體性規範由公部門所持有、但涉及商業機密、智慧財產權、個資等之資料再利用的一致性標準。其以保護既有的營業秘密、個資、智財權等為前提,確立該些資料再利用的標準作法(如原則以非專屬形式再利用、可收取合理費用)。有意再利用上述資料的公部門,應於技術面保護其隱私與機密性。 (3)針對資料共享服務供應商的通報機制:要求提供資料共享服務的供應商,於正式對外提供其服務前,應先向各成員國的權責機關通報其業務,藉以增加外界對共享個資與非個資之資料機制的信賴度,同時降低資料共享的交易成本。同時,資料共享服務供應商於資料交換應保持中立,不能為其他目的使用資料;其共享服務應以開放及協作的方式進行,並優化自然人或法人查閱與控制其資料的環境,藉以強化個資自主權。 (4)資料利他主義(data altruism)的明文化:定義非營利、具普遍性共同目標之組織,得向歐盟註冊成為資料利他主義組織。透過此認證制度,增加組織公信力,以推動個人或公司出於公共利益,自願提供資料。同時,授權歐盟執委會可制定通用之歐洲資料利他主義同意書(European data altruism consent form),減少個別收集資料使用同意書之成本。 (5)成員國資料共享權責機關之職責:其應公正、透明、一致、及時履行其職責,監督與實施資料共享服務供應商與資料利他主義組織的通報與註冊機制。例如,其有權要求資料共享服務供應商提交必要訊息,以確保其作為是否符合本法要求。同時,權責機關成員不得為資料共享服務的供應商。 (6)歐洲資料創新委員會(European Data Innovation Board):此為一專家小組之設置要求,負責協助成員國權責機關之作法,遵循資料治理法所訂標準。