2024年保護美國人資料免受外國對手侵害法案(Protecting Americans’ Data from Foreign Adversaries Act of 2024, PADFA)於2024年6月生效。該法案為美國國家安全補充法案(H.R. 815, the National Security Supplemental)的一部分。美國總統拜登在2024年4日24日簽署通過國家安全補充法案以及該法案所包含的PADFA,而PADFA將於簽署日後60天發生效力。 PADFA禁止資料經紀人將美國人民的敏感個資(personally identifiable sensitive data)傳輸到指定的外國對手國家,以及由這些國家控制的實體,如公司等。 PADFA所指之資料經紀人(data broker),是指以出售、授權、租賃、交易、轉讓、發布、揭露、提供存取權或其他方式,將個人資料提供給特定實體,並收取對價者。而該法所稱之敏感個資,定義則相當廣泛,從個人日常活動資料如行事曆資訊、電子郵件,到個人醫療、財務資料皆包含在內。 目前PADFA指定之外國對手國家,是引用自美國法典第十編4872(d)(2)條(4872(d)(2)of title 10, United States Code.),包含中華人民共和國、朝鮮民主主義人民共和國、俄羅斯聯邦、伊朗伊斯蘭共和國。而外國對手國家控制的實體則包含以下幾類 : 1.前述國家擁有20%以上所有權的實體。 2.主要營業據點、總部、住所位於前述國家的實體。 3.依前述國家法律建立的實體。 4.受前述國家指導、控制之人。 由於PADFA適用範圍廣泛,未來美中兩國資料傳輸將受更多限制。該法案生效後將由美國的聯邦貿易委員會(Federal Trade Commission)執行,該委員會將有權對違規者進行民事處罰。
基改小麥事件爆發 基改標示議題再上火線基因改造食品的安全性,向來引起全球關注,各界爭議不休。美國農業部在上(5)月29日公開表示,在奧勒岡州(Oregon)的私人農場中發現基因改造小麥,這是否屬於單一個案,還是意味著基改防線已有所瓦解,對於美國基改管理體系具有重大意義。以目前而言,美國尚未核准任何基因改造小麥。 美國是全球最大的小麥供應國,每年有4000萬噸小麥輸入亞洲;其中,日本更是美國最重要的海外市場。在本案爆發之後,日本於第一時間暫停來自美國西北的小麥進口至美國境內,這股緊張氣氛預計將快速漫延至其他亞洲國家。 事實上,在這事件同時,於綠色和平(green peace)及其他NGO團體串聯下,全球200萬民眾走上街頭,抗議美國孟山都(Monsanto)及其研發的基因改造食品,包括美國、加拿大、阿根廷等,估計共有52國、436個城市響應,一齊表達對於基因改造食品的不安感。在基因改造食品的長期爭議下,美國有若干州考慮採取立法管制,特別是要求基因改造作物或產品必須要標示清楚,以保護消費者的權益。最新的進展是,在本(6)月4日,康乃迪克州(Connecticut)議會以134比3,通過基因改革食物法案,要求各項食物必須明確標示是否含有基因改造成分。在這之後,緬因(Maine)州也立即跟進,以141比4通過類似的基改標示法案。而案件爆發地–奧勒岡州,則還沒有進一步消息。
美國商務部國家電信和資訊管理局呼籲透過第三方評測提高AI系統透明度2024年3月27日,美國商務部國家電信和資訊管理局(National Telecommunications and Information Administration, NTIA)發布「人工智慧問責政策報告」(AI Accountability Policy Report),該報告呼籲對人工智慧系統進行獨立評估(Independent Evaluations)或是第三方評測,期待藉此提高人工智慧系統的透明度。 人工智慧問責政策報告就如何對人工智慧系統進行第三方評測提出八項建議作法,分別如下: 1.人工智慧稽核指引:聯邦政府應為稽核人員制定適合的人工智慧稽核指引,該指引須包含評估標準與合適的稽核員證書。 2.改善資訊揭露:人工智慧系統雖然已經應用在許多領域,但其運作模式尚缺乏透明度。NTIA認為未來可以透過類似營養標籤(Nutrition Label)的方式,使人工智慧模型的架構、訓練資料、限制與偏差等重要資訊更加透明。 3.責任標準(Liability Standards):聯邦政府應盡快訂定相關責任歸屬標準,以解決現行制度下,人工智慧系統造成損害的法律責任問題。 4.增加第三方評測所需資源:聯邦政府應投入必要的資源,以滿足國家對人工智慧系統獨立評估的需求。相關必要資源如: (1)資助美國人工智慧安全研究所(U.S. Artificial Intelligence Safety Institute); (2)嚴格評估所需的運算資源與雲端基礎設施(Cloud Infrastructure); (3)提供獎金和研究資源,以鼓勵參與紅隊測試的個人或團隊; (4)培養第三方評測機構的專家人才。 5.開發及使用驗證工具:NTIA呼籲聯邦機關開發及使用可靠的評測工具,以評估人工智慧系統之使用情況,例如透明度工具(Transparency Tools)、認驗證工具(Verification and Validation Tools)等。 6.獨立評估:NTIA建議聯邦機關應針對高風險的人工智慧類別進行第三方評測與監管,特別是可能侵害權利或安全的模型,應在其發布或應用前進行評測。 7.提升聯邦機關風險管控能力:NTIA建議各機關應記錄人工智慧的不良事件、建立人工智慧系統稽核的登記冊,並根據需求提供評測、認證與文件紀錄。 8.契約:透過採購契約要求政府之供應商、承包商採用符合標準的人工智慧治理方式與實踐。 NTIA將持續與利害關係各方合作,以建立人工智慧風險的問責機制,並確保該問責報告之建議得以落實。
歐盟公布人工智慧白皮書歐盟執委會於2020年2月19日發表《人工智慧白皮書》(White Paper On Artificial Intelligence-A European approach to excellence and trust)指出未來將以「監管」與「投資」兩者並重,促進人工智慧之應用並同時解決該項技術帶來之風險。 在投資方面,白皮書提及歐洲需要大幅提高人工智慧研究和創新領域之投資,目標是未來10年中,每年在歐盟吸引超過200億歐元關於人工智慧技術研發和應用資金;並透過頂尖大學和高等教育機構吸引最優秀的教授和科學家,並在人工智慧領域提供世界領先的教育課程。 而在監管方面,白皮書提到將以2019年4月發布之《可信賴之人工智慧倫理準則》所提出之七項關鍵要求為基礎,未來將制定明確之歐洲監管框架。在監管框架下,應包括下列幾個重點:1.有效實施與執行現有歐盟和國家法規,例如現行法規有關責任歸屬之規範可能需要進一步釐清;2.釐清現行歐盟法規之限制,例如現行歐盟產品安全法規原則上不適用於「服務」或是是否涵蓋獨立運作之軟體(stand-alone software)有待釐清;3.應可更改人工智慧系統之功能,人工智慧技術需要頻繁更新軟體,針對此類風險,應制定可針對此類產品在生命週期內修改功能之規範;4.有效分配不同利害關係者間之責任,目前產品責任偏向生產者負責,而未來可能須由非生產者共同分配責任;5.掌握人工智慧帶來的新興風險,並因應風險所帶來之變化。同時,白皮書也提出高風險人工智慧應用程式的判斷標準與監管重點,認為未來應根據風險來進行不同程度之監管。執委會並透過網站向公眾徵求針對《人工智慧白皮書》所提出建議之諮詢意見,截止日期為2020年5月19日。