2024年3月27日,美國商務部國家電信和資訊管理局(National Telecommunications and Information Administration, NTIA)發布「人工智慧問責政策報告」(AI Accountability Policy Report),該報告呼籲對人工智慧系統進行獨立評估(Independent Evaluations)或是第三方評測,期待藉此提高人工智慧系統的透明度。
人工智慧問責政策報告就如何對人工智慧系統進行第三方評測提出八項建議作法,分別如下:
1.人工智慧稽核指引:聯邦政府應為稽核人員制定適合的人工智慧稽核指引,該指引須包含評估標準與合適的稽核員證書。
2.改善資訊揭露:人工智慧系統雖然已經應用在許多領域,但其運作模式尚缺乏透明度。NTIA認為未來可以透過類似營養標籤(Nutrition Label)的方式,使人工智慧模型的架構、訓練資料、限制與偏差等重要資訊更加透明。
3.責任標準(Liability Standards):聯邦政府應盡快訂定相關責任歸屬標準,以解決現行制度下,人工智慧系統造成損害的法律責任問題。
4.增加第三方評測所需資源:聯邦政府應投入必要的資源,以滿足國家對人工智慧系統獨立評估的需求。相關必要資源如:
(1)資助美國人工智慧安全研究所(U.S. Artificial Intelligence Safety Institute);
(2)嚴格評估所需的運算資源與雲端基礎設施(Cloud Infrastructure);
(3)提供獎金和研究資源,以鼓勵參與紅隊測試的個人或團隊;
(4)培養第三方評測機構的專家人才。
5.開發及使用驗證工具:NTIA呼籲聯邦機關開發及使用可靠的評測工具,以評估人工智慧系統之使用情況,例如透明度工具(Transparency Tools)、認驗證工具(Verification and Validation Tools)等。
6.獨立評估:NTIA建議聯邦機關應針對高風險的人工智慧類別進行第三方評測與監管,特別是可能侵害權利或安全的模型,應在其發布或應用前進行評測。
7.提升聯邦機關風險管控能力:NTIA建議各機關應記錄人工智慧的不良事件、建立人工智慧系統稽核的登記冊,並根據需求提供評測、認證與文件紀錄。
8.契約:透過採購契約要求政府之供應商、承包商採用符合標準的人工智慧治理方式與實踐。
NTIA將持續與利害關係各方合作,以建立人工智慧風險的問責機制,並確保該問責報告之建議得以落實。
美國專利商標局(United States Patent And Trademark Office, USPTO)於2024年5月10日提議37 C.F.R §1.321修法草案並徵求公眾意見,旨在針對「非法定重複專利」(Nonstatutory-type double patenting)加強專利權「期末拋棄聲明」(Terminal Disclaimer)之要求,以減輕專利叢林現象。 專利權期末拋棄聲明係為避免專利申請人對於申請中,或已取得專利權之前申請案,利用些微變化再次申請專利,構成非法定重複專利,藉此延長專利期限。故現行規定要求於後案申請時應聲明專利權期限與前申請案同時到期,否則將不核准專利之申請。 USPTO提議於聲明中新增一項要求,亦即申請人應聲明後案申請之專利未藉由期末拋棄聲明直接或間接地綁定無效專利,否則同意所申請之專利無法執行(enforceable)。換言之,與後案申請專利所綁定的前案專利,若已被美國聯邦法院或USPTO判定為不具有專利性、專利無效,或是因技術實行上困難而放棄專利者,則透過專利權期末拋棄聲明綁定之專利將全部無法執行。藉此盼能有效去除產業競爭對手間濫用專利制度而建立龐大專利組合之行為模式,並促進研發創新和公平競爭。 此項修法草案被美國法學界認為是針對「藥品專利」而來,亦即USPTO欲藉此回應美國拜登政府致力打擊藥價之政策,並減輕長期受到關注之藥品專利叢林現象,以促進學名藥進入市場,達到降低藥品價格之目的。
英國發布「人工智慧:機會與未來決策影響」政策報告,並聚焦人工智慧運用及管理英國科學辦公室於2016年11月9日,發布一份政策報告:「人工智慧:機會與未來決策影響(Artificial intelligence: opportunities and implications for the future of decision making)」,介紹人工智慧對於社會及政府的機會和影響,此份政策報告並提出以下各項重要建議: (一)關於人工智慧及應用界定與發展 人工智慧是指由人工製造系統所表現出來的智慧。不僅是將現有的流程自動化,還包含制定目標,並利用電腦程式實現這些目標,常見案例包括線上翻譯、語音辨識、搜尋引擎篩選排序、垃圾郵件過濾、透過用戶回饋改善線上服務、預測交通流量、環境或社會經濟趨勢發展觀察等。 (二)未來對社會及政府利益及衝擊 人工智慧針對提高生產力有巨大的潛力,最明顯的就是幫助企業或個人更有效地運用資源,並簡化大量資料的處理,例如Ocado 及 Amazon這樣的公司正充份利用人工智慧改善倉儲及銷售網路系統,使得客戶可便利快速購得網購商品。 目前,政府也日益增加相關技術的運用,以提高公共服務效率,使資源達到最佳化分配;減少決策者被誤導的可能;使政府決策透明化;確保各部門更了解人民的意見。然政府在利用人工智慧及巨量資料時,應遵守倫理使用指南,並遵守英國資料保護法及歐盟一般資料保護規則等相關法規。 在巨量資料、機器人、自動系統對於勞動市場的衝擊一直都是關注的議題,對於面臨未來工作結構的轉型及相關技術人員的進修及培養,應及早規劃,以適應未來的轉變。 (三)關於相關道德及法律風險管理課題 人工智慧可能潛在相關道德倫理問題。許多專家認為政府應積極管理並降低風險發生可能性,可從以下兩個面向思考: (1)研究機器學習與個人資料運用結合時,對個人自由、隱私和同意等概念的影響。 (2)調適由人工智慧作決策行為時的歸責概念和機制。 有關實際案例之研究,則包括,執法單位在應用預測技術時,應避免以種族、國籍、地址作為標準,並嚴守無罪推定原則,以防止民眾受到歧視或不公平的指控;透過人工智慧可從公開資料推測出某些私人訊息或其親朋好友的消息,此訊息即可能超出原先個人同意披露的內容;原先匿名化及去識別化的訊息,因人工智慧功能加強,導至可能被重新識別,故須定期檢視該保護措施是否足夠。另外,人工智慧的演算偏差可能導致偏見的風險,為了降低這種風險,技術人員應採取對應措施。 針對責任及疏失的判斷,目前尚無太多的實務案例,但為保持對使用人工智慧的信任,仍需有明確的歸責制,可能有必要讓首席執行長或高級主管對人工智慧做出的決策負最終責任。許多專家也建議,部分技術內容須保持透明度,以確定技術使用時是否有盡到相關注意義務。 人工智慧已成為未來發展趨勢之一,對於社會整體層面影響將越來越深,新的技術除了可提升生產力,帶來便利的生活,同樣也會帶來衝擊。為促進相關產業發展及推展新技術的使用,應打造技術發展友善環境,並對於公眾安全進行相關風險評估,如果風險屬於現有監管制度範圍,應評估是否可充分解決風險,或是須要做相對應的調適。另外,在人工智慧融入現實世界同時,相關業者應注意相關產品安全性、隱私權保護和從業人員的倫理教育,以提高大眾對新技術的接受及信賴,並確保對於未來挑戰及轉變已做好萬全準備。
歐盟執委會公佈GMOs法制之評估報告歐盟執行委員會(European Commission)於2011年10月28日公佈兩份針對歐盟基因改造作物(Genetically Modified Organisms, GMOs)之評估報告,這兩份報告係由執委會委託兩個獨立顧問機構所完成,評估時間自2009年至2011年。第一份報告係針對GMOs食品與飼料規範(EU's legislative framework in the field of GM food and feed)之評估報告;第二份報告係針對GMOs耕作規範(legislative framework in the area of GMOs cultivation)之評估報告。此兩份報告之重要性在於,其收集來自官方及民間對於GMOs法制之事實陳述與意見,如健康與環境的保護、國內市場的產物規範等議題,可作為未來改善歐盟GMOs法制的基礎。 評估指出,歐盟的GMOs法制就健康與環境保護之規範並無偏誤;但在效率及透明度上,尚有改善之空間。此外越來越多含有基因改造的農作物輸入歐盟造成健康及環境之威脅,而須進一步改善風險評估之作法以及調整相關法制。 在過去一年中,執委會已採納報告中之部分建議,著手針對現存法制作出微調及改善,包括: 1.在GMOs耕作上需要更多的彈性。 2.低度殘留(Low Level Presence, LLP)的解決方案。 3.收集關於GMOs耕作的社會經濟層面之技術資訊。 4.新作物播種技術之評估。 5.監控活動的加強。 6.針對成員國批准風險評估的指導方針(Guideline)法制化之檢討與改革。 7.對於GMOs重要議題的溝通活動之改善。 除上述之改善工作持續進行,在接下來幾週,執委會將針對農產品輸入許可制度提出改善方案,以建立更嚴謹的許可要求。由這兩份報告的公佈,可以預見未來歐盟將持續完善現存法制,而此兩份評估報告將如何影響歐盟的GMOs規範,值得持續觀察。
物聯網時代的資料保護防線-以歐盟GDPR為中心