2019年4月9日,歐盟議會發布《可信賴人工智慧倫理準則》(Ethics Guidelines for Trustworthy AI)。此次內容大致延續歐盟人工智慧高階專家小組(High-level Expert Group on Artificial Intelligence)於2018年12月18日發布的《可信賴人工智慧倫理準則草案》(Draft Ethics Guidelines for Trustworthy Artificial Intelligence)之內容,要求人工智慧須遵守行善(do good)、不作惡(do no harm)、保護人類(preserve human Agency)、公平(be fair)與公開透明(operate transparency)等倫理原則;並在4月9日發布的正式內容中更加具體描述可信賴的人工智慧的具體要件,共計七面向概述如下:
韓國未來創造科學部於2015年8月31日發表「2016活化振興與應用情報通信產業之實施計畫」,以因應現代技術的進步及市場現況,並正式宣佈推出「K-ICT戰略」,於計畫目標中具體呈現連結韓國ICT產業,促進相關發展。 為加速推動相關政策,未來創造科學部所推出「K-ICT戰略」,主要係規劃四大推動領域及策略,分述如下: (一) 九大產業育成:5G;智慧裝置;IoT;雲端;Big Data;情報安全;UHD(超高清);軟體產業;數位內容產業。此領域預計規劃投資規模為5957億韓元。 (二) 十大領域(將ICT擴大應用於一般產業):醫療、金融、教育、交通、都市建設、智慧家庭、文化觀光、能源、農漁畜產業以及傳統產業。此領域預計規劃投資規模為5751億韓元。 (三) ICT基礎建設:為具體化超連結社會,建設基礎裝置;ICT革新據點建設;OPEN DATA開放與促進活用;情報文化的組成。此領域預計規劃投資規模為863億韓元。 (四) 改善產業體質與加強國際出口:未來創意人才養成;創業環境的建立與海外出口支援;R&D革新、智財權保護體制的確立;國際合作與標準化。此領域預計規劃投資規模為6755億韓元。 綜上所述,韓國未來創造科學部為促進推動「K-ICT戰略」,將投資1兆9千億韓元,投入ICT重點發展產業,並積極落實「2016活化振興與應用情報通信產業之實施計畫」之推動目標。
美國FTC警告科技公司,不應迫於外國勢力而削弱對消費者之隱私與資料安全保障美國聯邦貿易委員會(Federal Trade Commission)主席Andrew N. Ferguson於2025年8月21日發信給13家科技公司,其中包含Alphabet、Amazon、Apple、Microsoft、Meta、X等國際知名科技公司,警告他們有義務保護美國消費者隱私與資料安全,若在外國政府施壓下審查美國公民的資料,將有違反《聯邦貿易委員會法》(Federal Trade Commission Act, FTC Act)之虞。 信中指出,科技公司可能為遵循外國法規或迫於外國政府壓力,削弱對美國公民的隱私及資料安全保護。如歐盟《數位服務法》(Digital Services Act)、英國《網路安全法》(Online Safety Act)期望科技公司審查用戶言論內容;而英國《調查權力法》(Investigatory Powers Act)則為滿足英國政府取得用戶儲存資料之目的,要求科技公司削弱原本對用戶採行之點對點加密措施。Ferguson主席更表示:「外國勢力審查及削弱加密措施等行動,將侵害美國公民的自由或使美國公民遭受各種危害,例如受外國政府監視、增加身分盜用與詐騙風險」。 信中亦提及,科技公司在遵守外國法律及相關要求的同時,仍須遵守FTC Act第5條規定,亦即禁止企業在市場中進行不公平或欺騙性行為的規定。同時也表示,過去20年來,FTC已對未能履行消費者資料安全或隱私承諾之公司提起數十起訴訟,並將持續要求蒐集、使用、分享或傳輸消費者個人資料的公司,應採取合理的安全措施,藉此確保消費者權益。
個人資料保護脈絡下的「綑綁式同意」 美國商務部國家電信和資訊管理局呼籲透過第三方評測提高AI系統透明度2024年3月27日,美國商務部國家電信和資訊管理局(National Telecommunications and Information Administration, NTIA)發布「人工智慧問責政策報告」(AI Accountability Policy Report),該報告呼籲對人工智慧系統進行獨立評估(Independent Evaluations)或是第三方評測,期待藉此提高人工智慧系統的透明度。 人工智慧問責政策報告就如何對人工智慧系統進行第三方評測提出八項建議作法,分別如下: 1.人工智慧稽核指引:聯邦政府應為稽核人員制定適合的人工智慧稽核指引,該指引須包含評估標準與合適的稽核員證書。 2.改善資訊揭露:人工智慧系統雖然已經應用在許多領域,但其運作模式尚缺乏透明度。NTIA認為未來可以透過類似營養標籤(Nutrition Label)的方式,使人工智慧模型的架構、訓練資料、限制與偏差等重要資訊更加透明。 3.責任標準(Liability Standards):聯邦政府應盡快訂定相關責任歸屬標準,以解決現行制度下,人工智慧系統造成損害的法律責任問題。 4.增加第三方評測所需資源:聯邦政府應投入必要的資源,以滿足國家對人工智慧系統獨立評估的需求。相關必要資源如: (1)資助美國人工智慧安全研究所(U.S. Artificial Intelligence Safety Institute); (2)嚴格評估所需的運算資源與雲端基礎設施(Cloud Infrastructure); (3)提供獎金和研究資源,以鼓勵參與紅隊測試的個人或團隊; (4)培養第三方評測機構的專家人才。 5.開發及使用驗證工具:NTIA呼籲聯邦機關開發及使用可靠的評測工具,以評估人工智慧系統之使用情況,例如透明度工具(Transparency Tools)、認驗證工具(Verification and Validation Tools)等。 6.獨立評估:NTIA建議聯邦機關應針對高風險的人工智慧類別進行第三方評測與監管,特別是可能侵害權利或安全的模型,應在其發布或應用前進行評測。 7.提升聯邦機關風險管控能力:NTIA建議各機關應記錄人工智慧的不良事件、建立人工智慧系統稽核的登記冊,並根據需求提供評測、認證與文件紀錄。 8.契約:透過採購契約要求政府之供應商、承包商採用符合標準的人工智慧治理方式與實踐。 NTIA將持續與利害關係各方合作,以建立人工智慧風險的問責機制,並確保該問責報告之建議得以落實。