英國於2016年11月底通過「調查權力法案」(Investigatory Powers Act 2016),該法案的部分內容已於同年12月30日生效,主要係將目前執法機關和情資單位之通信及相關資料蒐集的權力整併,並訂定了通信監察書(Interception Warrants)授權及監督之方式,以及要求業者保留網路連結記錄以供執法機構識別網路使用者。法案共分為九個章節,分別為:
1.一般隱私保護
2.合法監聽通信
3.取得通信資料之授權
4.通信資料之保留
5.設備干擾
6.大量授權
7.大量個人資料之授權
8.監督措施
9.其他及一般規定
調查權力法案通過後,使英國政府得以合法的監控人民許多行為,包括蒐集、查看民眾的網絡瀏覽記錄、通訊資料、通聯紀錄及相關個人資料等,而監控範圍不再限於個體,並擴大至全體民眾。此外,必要時警方及安全部門亦得破解或遠端遙控人民之電腦或手機。法案並要求通信服務提供商(Communication Service Providers, CSPs)將民眾之網路使用紀錄相關資料保存至少12個月,而近50個不同之機關都能夠查看該些資料,如警察局、國防部、司法局、金融行為監管局,甚至與國家安全較無關連的食品標準局及勞動和退休金部等部門,均有查看之權限。
法案目前生效的部分包括政府蒐集和保留民眾資料之權力,以及得強迫握有民眾資料的科技公司或相關單位,將所掌握關於民眾的資料交給情報機構。
英國政府認為,在面臨現今高度安全威脅之情況下,網路已成為恐怖份子用來犯罪的新工具,故有必要讓執法與情資單位擁有維護人民安全的權力,確保政府具備對抗該挑戰的能力,使情資單位得以阻止新型態之犯罪並追訴參與犯罪之相關人員。
然而,該法案已遭數萬人民連署反對,要求廢除該法案,因人民於網路上進行的各樣活動,均將遭受國家的監視,而負責機關也將面臨負荷龐大的資訊處理量,且一般人民之個人資訊亦將暴露在巨大的風險下。
目前法案部分內容尚未生效,如網路連線紀錄(Internet Connection Records)的蒐集,因相關安全機制尚未建立完成。但可想而知,該法案所造成的爭議,已成為英國民眾所關注之焦點,而未來全面生效後,英國政府該如何面對這些反對的衝擊,則可繼續觀察。
歐洲議會民眾權益委員會( the European Parliament's civil liberties committee)於2005年11月25日以33票對8票通過新的指令草案,要求電話與網路的通聯紀錄(但不包含內容紀錄)均需被保留6個月到12個月。目前此草案已送交部長理事會(Council of Ministers)審議中。 為避免保留之通聯紀錄遭到濫用,民眾權益委員會要求僅法官可以調閱通聯紀錄,且僅限於調查重大犯罪(例如恐怖份子或是組織犯罪)時始可調閱。但創作及媒體企業協會( the Creative and Meida Business Alliance, CMBA)則希望歐盟能放寬通聯紀錄調閱之限制,允許進行所有犯罪之調查時,特別是在查緝盜版犯罪之情形,能調閱通聯紀錄。 對於業者因配合保留通聯紀錄而增加的額外負擔,則可能透過轉嫁給消費者或是透過整府補貼的方式解決。
日本內閣府公布生成式AI初步意見彙整文件,提出風險因應、應用及開發兩大關注重點日本內閣府於2023年5月26日召開第2次「AI戰略會議」(AI戦略会議),並公布「AI相關論點之初步整理」(AIに関する暫定的な論点整理)。鑒於AI對於改善國人生活品質、提高生產力無疑有相當助益,考量生成式AI甫問世,社會大眾對其潛在風險尚心存疑慮,內閣府遂以生成式AI為核心,延續先前已公布之「AI戰略2022」(AI 戦略 2022)、「以人為中心的AI社會原則」(人間中心の AI 社会原則),以「G7廣島峰會」(G7広島サミット)所提出之願景—「符合共同民主價值的值得信賴AI」為目標,提出「風險因應」及「應用與開發」兩大關注重點,供政府有關部門參考之同時,並期待可激起各界對於生成式AI相關議題之關注與討論: 一、風險因應:AI開發者、服務提供者與使用者應自行評估風險並確實遵守法規及相關指引;政府則應針對風險應對框架進行檢討,對於已知的風險,應先以現有的法律制度、指引與機制進行處理,假如現有法制等無法完全因應這些風險,則應參考各國作法盡速對現行制度進行修正。 AI的透明度與可信賴度於風險因應至關重要。若能掌握AI學習使用哪些資料、所學習資料之來源、AI如何產生結果等,就能針對使用目的選擇適合的AI,也較易因應發生之問題,並避免AI產生錯誤結果或在對話中洩漏機密資訊等。對此,本文件呼籲AI開發者及服務提供者依據現行法令和指引主動揭露資訊,政府則應對透明度和可信賴度相關要求進行檢討,並應依普及程度及各國動向對既有的指引進行必要之修正。 二、應用與開發:本文件建議政府部門積極使用生成式AI於業務工作上,找出提升行政效率同時不會洩漏機密之方法,並向民眾宣導AI應用之益處與正確的使用方式,以培養民眾AI相關技能與素養,藉以更進一步建構AI應用與開發之框架,如人才培育、產業環境準備、相關軟硬體開發等。
美國商務部國家電信和資訊管理局呼籲透過第三方評測提高AI系統透明度2024年3月27日,美國商務部國家電信和資訊管理局(National Telecommunications and Information Administration, NTIA)發布「人工智慧問責政策報告」(AI Accountability Policy Report),該報告呼籲對人工智慧系統進行獨立評估(Independent Evaluations)或是第三方評測,期待藉此提高人工智慧系統的透明度。 人工智慧問責政策報告就如何對人工智慧系統進行第三方評測提出八項建議作法,分別如下: 1.人工智慧稽核指引:聯邦政府應為稽核人員制定適合的人工智慧稽核指引,該指引須包含評估標準與合適的稽核員證書。 2.改善資訊揭露:人工智慧系統雖然已經應用在許多領域,但其運作模式尚缺乏透明度。NTIA認為未來可以透過類似營養標籤(Nutrition Label)的方式,使人工智慧模型的架構、訓練資料、限制與偏差等重要資訊更加透明。 3.責任標準(Liability Standards):聯邦政府應盡快訂定相關責任歸屬標準,以解決現行制度下,人工智慧系統造成損害的法律責任問題。 4.增加第三方評測所需資源:聯邦政府應投入必要的資源,以滿足國家對人工智慧系統獨立評估的需求。相關必要資源如: (1)資助美國人工智慧安全研究所(U.S. Artificial Intelligence Safety Institute); (2)嚴格評估所需的運算資源與雲端基礎設施(Cloud Infrastructure); (3)提供獎金和研究資源,以鼓勵參與紅隊測試的個人或團隊; (4)培養第三方評測機構的專家人才。 5.開發及使用驗證工具:NTIA呼籲聯邦機關開發及使用可靠的評測工具,以評估人工智慧系統之使用情況,例如透明度工具(Transparency Tools)、認驗證工具(Verification and Validation Tools)等。 6.獨立評估:NTIA建議聯邦機關應針對高風險的人工智慧類別進行第三方評測與監管,特別是可能侵害權利或安全的模型,應在其發布或應用前進行評測。 7.提升聯邦機關風險管控能力:NTIA建議各機關應記錄人工智慧的不良事件、建立人工智慧系統稽核的登記冊,並根據需求提供評測、認證與文件紀錄。 8.契約:透過採購契約要求政府之供應商、承包商採用符合標準的人工智慧治理方式與實踐。 NTIA將持續與利害關係各方合作,以建立人工智慧風險的問責機制,並確保該問責報告之建議得以落實。
美國聯邦審計署發布先進空中交通議題研究報告,將有利於航空轉型美國聯邦審計署(Government Accountability Office, GAO)於2022年5月9日發布「航空轉型:經利害關係人確認之先進空中交通議題」(Transforming Aviation: Stakeholders Identified Issues to Address for 'Advanced Air Mobility')研究報告。未來,先進空中交通(Advanced Air Mobility, AAM)服務可透過小型或高度自動化(highly-automated)電動垂直起降航空器(eVTOL)翱翔於天際,不僅可提供載人或載物服務、減少交通壅塞,並可應用於救援與醫療運輸等領域。GAO透過訪談36位利害關係人,意識到AAM發展關鍵在於相關法制環境之整備速度。基此,GAO於研究報告中,整理當前各AAM新創業者於開發與落實上面臨之4大問題,分別簡述如下: (1)航空器檢定標準:美國聯邦航空總署(Federal Aviation Administration, FAA)對於航空器之檢定規範,目前尚未涵蓋具備AAM新功能之載具,如電力推進或垂直起降等。 (2)起降場與電力之基礎設施:FAA尚未制定垂直機場降落設施,及航空器電池充電需求之電力基礎設施相關標準。 (3)提高公眾載具安全性接受度:AAM產業須證明此類航空器之安全性、可靠性、低噪音與商用可行性,以支持該產業之發展與成長。 (4)作業人員所需之各種培訓與認證標準:飛行員與維修技術作業人員需接受相關新功能培訓。惟利害關係人指出可能面臨高教育成本、缺乏工作場域多樣性、機會意識(awareness of opportunities)不足,及培訓能力有限等問題。