1980年09月發布的「隱私保護及個人資料之國傳輸指導指引」,當中的8大原則對個人資料保護的法制產生深遠的影響,但隨技術發展,資料傳遞所產生的風險遠較於1980年代來得複雜。2013年所發布的內容,風險管理及為全球資料流通的互動性為兩大主軸,因此,在指引中納入新的概念,包含1.國家隱私策略:有效的隱私法制是不可或缺的,但在今日國家應該將隱私保護放在更高的戰略位置、2.隱私管理程序:(以個人資料)為核心服務的機制應系統化的保護隱私、3.資料安全漏洞通知:涵蓋有權者及各別個體的通知。
在指引第一章附件的第三部份-責任的履行,增加資料控制者(data controller),應有管理程序以符合上述的原則,該管理程序需包含資料風險的評估、內部監控、通知主管機關等要求;第五個部份-國家實施則新增加隱私主管機關的設立、考量不同角色(如:資料控制者)所應遵循的行為、考量其它的配套措施,如技術、教育訓練等。
在OECD的成員國,如:日本,已開始向該國國內說明2013年版的指引,但亦有部分會員國,如:加拿大,由於指引涵蓋公部門及私部門,加拿大亦討論如何與該國的資訊近用法(Access to Information Act) 及隱私權法 (Privacy Act)建構一個完善的適用模式。指引對於未來國際資料傳輸及管理程序的建置,必然產生結構性的影響,值得持續關注。
2024年3月27日,美國商務部國家電信和資訊管理局(National Telecommunications and Information Administration, NTIA)發布「人工智慧問責政策報告」(AI Accountability Policy Report),該報告呼籲對人工智慧系統進行獨立評估(Independent Evaluations)或是第三方評測,期待藉此提高人工智慧系統的透明度。 人工智慧問責政策報告就如何對人工智慧系統進行第三方評測提出八項建議作法,分別如下: 1.人工智慧稽核指引:聯邦政府應為稽核人員制定適合的人工智慧稽核指引,該指引須包含評估標準與合適的稽核員證書。 2.改善資訊揭露:人工智慧系統雖然已經應用在許多領域,但其運作模式尚缺乏透明度。NTIA認為未來可以透過類似營養標籤(Nutrition Label)的方式,使人工智慧模型的架構、訓練資料、限制與偏差等重要資訊更加透明。 3.責任標準(Liability Standards):聯邦政府應盡快訂定相關責任歸屬標準,以解決現行制度下,人工智慧系統造成損害的法律責任問題。 4.增加第三方評測所需資源:聯邦政府應投入必要的資源,以滿足國家對人工智慧系統獨立評估的需求。相關必要資源如: (1)資助美國人工智慧安全研究所(U.S. Artificial Intelligence Safety Institute); (2)嚴格評估所需的運算資源與雲端基礎設施(Cloud Infrastructure); (3)提供獎金和研究資源,以鼓勵參與紅隊測試的個人或團隊; (4)培養第三方評測機構的專家人才。 5.開發及使用驗證工具:NTIA呼籲聯邦機關開發及使用可靠的評測工具,以評估人工智慧系統之使用情況,例如透明度工具(Transparency Tools)、認驗證工具(Verification and Validation Tools)等。 6.獨立評估:NTIA建議聯邦機關應針對高風險的人工智慧類別進行第三方評測與監管,特別是可能侵害權利或安全的模型,應在其發布或應用前進行評測。 7.提升聯邦機關風險管控能力:NTIA建議各機關應記錄人工智慧的不良事件、建立人工智慧系統稽核的登記冊,並根據需求提供評測、認證與文件紀錄。 8.契約:透過採購契約要求政府之供應商、承包商採用符合標準的人工智慧治理方式與實踐。 NTIA將持續與利害關係各方合作,以建立人工智慧風險的問責機制,並確保該問責報告之建議得以落實。
英國先進材料研發之促進輔助法制政策介紹