2024年3月27日,美國商務部國家電信和資訊管理局(National Telecommunications and Information Administration, NTIA)發布「人工智慧問責政策報告」(AI Accountability Policy Report),該報告呼籲對人工智慧系統進行獨立評估(Independent Evaluations)或是第三方評測,期待藉此提高人工智慧系統的透明度。
人工智慧問責政策報告就如何對人工智慧系統進行第三方評測提出八項建議作法,分別如下:
1.人工智慧稽核指引:聯邦政府應為稽核人員制定適合的人工智慧稽核指引,該指引須包含評估標準與合適的稽核員證書。
2.改善資訊揭露:人工智慧系統雖然已經應用在許多領域,但其運作模式尚缺乏透明度。NTIA認為未來可以透過類似營養標籤(Nutrition Label)的方式,使人工智慧模型的架構、訓練資料、限制與偏差等重要資訊更加透明。
3.責任標準(Liability Standards):聯邦政府應盡快訂定相關責任歸屬標準,以解決現行制度下,人工智慧系統造成損害的法律責任問題。
4.增加第三方評測所需資源:聯邦政府應投入必要的資源,以滿足國家對人工智慧系統獨立評估的需求。相關必要資源如:
(1)資助美國人工智慧安全研究所(U.S. Artificial Intelligence Safety Institute);
(2)嚴格評估所需的運算資源與雲端基礎設施(Cloud Infrastructure);
(3)提供獎金和研究資源,以鼓勵參與紅隊測試的個人或團隊;
(4)培養第三方評測機構的專家人才。
5.開發及使用驗證工具:NTIA呼籲聯邦機關開發及使用可靠的評測工具,以評估人工智慧系統之使用情況,例如透明度工具(Transparency Tools)、認驗證工具(Verification and Validation Tools)等。
6.獨立評估:NTIA建議聯邦機關應針對高風險的人工智慧類別進行第三方評測與監管,特別是可能侵害權利或安全的模型,應在其發布或應用前進行評測。
7.提升聯邦機關風險管控能力:NTIA建議各機關應記錄人工智慧的不良事件、建立人工智慧系統稽核的登記冊,並根據需求提供評測、認證與文件紀錄。
8.契約:透過採購契約要求政府之供應商、承包商採用符合標準的人工智慧治理方式與實踐。
NTIA將持續與利害關係各方合作,以建立人工智慧風險的問責機制,並確保該問責報告之建議得以落實。
中華人民共和國第12屆全國人民代表大會常務委員會第18次會議於2015年12月27日通過並公布《中華人民共和國反恐怖主義法》(以下簡稱反恐法),並自2016年1月1日開始施行。反恐法第18條與第19條要求電信業務經營者與互聯網服務提供者,應當為公安機關、國家安全機關依法進行防範、調查恐怖活動「提供技術接口和解密等技術支持和協助」,並應當依照法律與行政法規規定,「落實網絡安全、信息內容監督制度和安全技術防範措施,防止含有恐怖主義、極端主義內容的信息傳播;發現含有恐怖主義、極端主義內容的信息的,應當立即停止傳輸,保存相關記錄,刪除相關信息,並向公安機關或者有關部門報告。」倘有違反以上規定且情節嚴重者,反恐法第84條授權由主管部門對該公私處50萬人民幣以上罰款,並對該公司直接負責之主管人員與其他直接責任人員處10萬元人民幣以上50萬人民幣以下罰款,並可由公安機關對該等人員處5日以上15日以下之拘留。 我國刻正進行資通安全管理法之制定,以為範圍更廣之資訊基本法的作用法。資通安全管理法當中考量納入與關鍵基礎建設相關之民間產業,使之成為資安通報之一環,政府需要民間企業配合時也將於法有據。於恐怖攻擊事件頻傳之今日,倘我國需要就此等事件要求電信業者或服務提供者進行通報時,相關國際立法例及其實踐,即值參酌。
違反荷蘭資料保護法,Google恐遭罰1500萬歐元Google為了提供客製化的廣告服務,利用搜尋引擎、Youtube、Gmail及其他服務,在事前未告知並取得使用者同意的情況下,蒐集人們的資料(包括搜尋紀錄、電子郵件、第三方網站軌跡資料、位置資訊及影片觀看紀錄等)。歐洲各國隱私監管機構對此表示憂心,認為Google恐將以前所未有的規模,掌握使用者的一舉一動,紛紛投入調查工作,並相繼認為Google確實已經違反其內國法。 荷蘭資料保護局(Data Protection Authority, DPA)主席Jacob Kohnstamm於2014年12月15日表示,使用者有權知悉他們在某一平台輸入的資料,其他平台也可以利用它們,並要求Google在合併不同服務所取得的個人資料前,應以跳出不同視窗等方式供使用者點選,俾以取得其明示同意(unambiguous consent),僅只透過一般隱私條款,並不足以提供當事人清楚且一致的資訊(clear and consistent imformation)。 DPA希望Google不要再考驗他們的耐心,並揚言對Google處以1500萬歐元罰鍰,除非它在2015年2月底前完成改善。但面對DPA的最後通牒,Google僅回應,他們已經大幅修正了隱私權政策,很遺憾DPA仍作出這樣的決定,但他們將儘快與歐洲各國隱私監管機構就後續修訂方案進行討論。
著名商標之淡化保護 v.s. 嘲諷性使用著名商標之言論自由保障-從美國商標法及判決評析 美國紐約州通過《政府自動化決策監督法》規範州政府使用自動化決策系統紐約州州長於2024年12月21日簽署《政府自動化決策監督法》(Legislative Oversight of Automated Decision-making in Government Act, LOADinG Act),用以規範紐約州政府使用人工智慧自動決策系統的方式以及相關義務,成為美國第一個通過這類法律的州。 該法所定義之「自動化決策系統」係指任何使用演算法、計算模型或人工智慧技術,或其組合的軟體,用於自動化、支援或取代人類決策;這類系統亦包括應用預定義規則或機器學習演算法進行資料分析,並在自動產生結論、建議、結果、假設、預測。 針對政府使用自動化決策系統之情形,《政府自動化決策監督法》有三大重點:人類監督、影響評估以及資訊揭露。 一、人類監督 州政府在提供社會福利資源或其他可能實質影響人民權益與法定權利的業務時,除非是在「有意義的人工審查」下進行操作,否則不得使用自動化決策系統。同時,此法也強調,州政府亦應確保其員工現有權利不會受到自動化決策系統的影響,例如不得因此受到解雇、調職或減薪等。 前述有意義的人工審查,係指對自動化決策流程進行審查、監督及控制的工作人員,必須是受過訓練、對該系統有一定之了解且擁有權力干預、變更系統最終決策的人。 二、影響評估 州政府如欲使用自動化決策系統,應進行影響評估且每兩年應至少重新評估一次;系統在進行重大更新前,也應重新進行影響評估。若評估發現系統產生歧視性或有偏見的結果,機關必須停止使用該系統及其生成的資訊。 影響評估的項目除了性能、演算法及訓練資料外,亦應進行準確性、公平性、偏差歧視、以及個人資料安全等相關測試。 三、資訊揭露 影響評估需在系統實施前至少30天提交給州長與州議會,並在相關機關的網站上公布;僅機關在特殊情況下(例如涉及公共安全考量),州政府可針對報告揭露之資訊進行必要的刪改,但必須說明做出此決定的原因。此外,州政府亦需於本法通過後向州議會提交報告,說明包括系統描述、供應商資訊、使用開始日期、用途、人類決策的支持或取代情況、已進行的影響評估摘要等。 本法強調對人工智慧技術的審慎應用,特別關注其對勞工權益的影響。該法明確規定,禁止在無人類監督的情況下,使用自動化系統進行失業救濟或育兒補助等福利的審核決策,並保障州政府員工不因人工智慧的實施而減少工作時間或職責。此類規定在現行立法中較為罕見,顯示出立法者對勞工權益的高度重視。該法的實施效果及影響,值得未來持續保持關注。