2024年3月27日,美國商務部國家電信和資訊管理局(National Telecommunications and Information Administration, NTIA)發布「人工智慧問責政策報告」(AI Accountability Policy Report),該報告呼籲對人工智慧系統進行獨立評估(Independent Evaluations)或是第三方評測,期待藉此提高人工智慧系統的透明度。 人工智慧問責政策報告就如何對人工智慧系統進行第三方評測提出八項建議作法,分別如下: 1.人工智慧稽核指引:聯邦政府應為稽核人員制定適合的人工智慧稽核指引,該指引須包含評估標準與合適的稽核員證書。 2.改善資訊揭露:人工智慧系統雖然已經應用在許多領域,但其運作模式尚缺乏透明度。NTIA認為未來可以透過類似營養標籤(Nutrition Label)的方式,使人工智慧模型的架構、訓練資料、限制與偏差等重要資訊更加透明。 3.責任標準(Liability Standards):聯邦政府應盡快訂定相關責任歸屬標準,以解決現行制度下,人工智慧系統造成損害的法律責任問題。 4.增加第三方評測所需資源:聯邦政府應投入必要的資源,以滿足國家對人工智慧系統獨立評估的需求。相關必要資源如: (1)資助美國人工智慧安全研究所(U.S. Artificial Intelligence Safety Institute); (2)嚴格評估所需的運算資源與雲端基礎設施(Cloud Infrastructure); (3)提供獎金和研究資源,以鼓勵參與紅隊測試的個人或團隊; (4)培養第三方評測機構的專家人才。 5.開發及使用驗證工具:NTIA呼籲聯邦機關開發及使用可靠的評測工具,以評估人工智慧系統之使用情況,例如透明度工具(Transparency Tools)、認驗證工具(Verification and Validation Tools)等。 6.獨立評估:NTIA建議聯邦機關應針對高風險的人工智慧類別進行第三方評測與監管,特別是可能侵害權利或安全的模型,應在其發布或應用前進行評測。 7.提升聯邦機關風險管控能力:NTIA建議各機關應記錄人工智慧的不良事件、建立人工智慧系統稽核的登記冊,並根據需求提供評測、認證與文件紀錄。 8.契約:透過採購契約要求政府之供應商、承包商採用符合標準的人工智慧治理方式與實踐。 NTIA將持續與利害關係各方合作,以建立人工智慧風險的問責機制,並確保該問責報告之建議得以落實。
歐洲理事會提出糧食安全年度策略研究議程以整合歐盟研究能量為因應近年來人口增長、氣候變遷對糧食安全之威脅,歐洲各國皆認為糧食安全( Food Security)議題為亟待解決之議題,應投入資源研究。為此,2012年歐洲理事會(The European Council),始提出FACCE-JPI策略研究議程(The Strategic Research Agenda of the Joint Programming Initiative on Agriculture, Food Security and Climate Change),議程主要係針對歐洲農業、糧食安全和氣候變化進行整合研究。來自21個歐洲國家代表及研究學者,提出該年度糧食安全之重要觀察議題與發展方向,欲透過此議程建立研究資源整合機制,提高歐盟因應糧食生產挑戰之研究、應對能力。 歐洲理事會於去年(2012)12月提出本年度策略研究議程,內容除重申歐盟應整合糧食安全研究能量外,該議程更指出五大核心研究議題,反映歐盟對糧食安全威脅多元化之重視 ,本議程研究重點歸納如下: 1. 氣候變遷與糧食安全永續 2. 環境永續發展與農業精緻化 3. 糧食供需、生物多樣性與生態系統平衡 4. 氣候變遷之因應 5. 減緩氣候異常現象之有效措施 本議程以核心研究為理論基礎,有效整合各會員國研究能量,更針對各別領域提出具體實踐策略,藉以強化基礎溝通平台、建立歐洲知識訊息交換能力,便利後續評估、監測機制的建立。 策略議程取代傳統將糧食安全視為「國家內政」議題,而以「區域整合」層次處理,象徵歐盟糧食安全共識逐漸發展之趨勢。
英國發布「2017年資料保護法」草案,以符合數位時代之需求數位技術改變人們的生活,為使英國人民、企業及組織接受數位時代的變革,並確保英國做好脫離歐盟(European Union)的準備,英國數位文化媒體及運動部(Department for Digital, Culture Media & Sport)修正1998年的資料保護法(Data Protection Act 1998),於2017年9月14日,提交2017資料保護法草案(Data Protection Bill 2017)(以下簡稱:本草案)予上議院審議,以因應數位時代的來臨。 此次本草案修正的方向為: 一般資料處理(§3-26): 一般資料處理係依歐盟的一般資料保護規則(General Data Protection Regulation,簡稱GDPR)為標準,將歐盟GDPR一般資料處理的相關規範之標準制定於此次修正之資料保護法中,並確保健康、社會安全與教育資料等個人資料之安全維護。另對於個人資料的近用與刪除予以規範以強化公共政策,並維護國家安全。 執法程序(§27-79): 拜科技進步所賜,網路世界如遠弗屆,透過網路跨境傳輸、分享、蒐集資料,並非難事,因此,更需要一個強而有力且一致性的個人資料保護規範框架。警方、檢方或司法刑事機關為偵查犯罪行為,而蒐集、處理或利用個人資料,須有明確、正當、合法的執法目的,對於國際間個人資料的交流利用須依明確的程序規範並賦與相當之保護措施,確保英國退出歐盟後,仍可繼續與歐盟各成員國間聯手偵辦重大犯罪案件,以維護國際間之資訊安全。 國家安全(§80-111): 因國家安全事項不在歐盟法(EU Law)規範範圍之列,故GDPR或指令法律(Law Enforcement Directive,LED)之效力不及於各成員國對於國安全之情資蒐集。故英國本次修法參採個人資料保護公約(Convention for the Protection of Individuals with regard to Automatic Processing of Personal Data,又稱現代化公約108(modernised Convention 108))之精神,將情報單位基於維護國家安全之必要蒐集個人資料之規範,明文納入個人資料保護法之適用,以符合國際間的資訊安全規範標準。 資訊委員與執行(§112-168): 資訊委員(Information Commissioner)係指保護資訊權之公共利益、促使公務機關公開資訊與維護個人資料隱私權之獨立政府官員,得主動偵查犯罪,並得通知或教育廣泛的資料管理者,以提高資料保護之標準。繼2010年賦與資訊委員針對金融犯罪之執法權限之後,本草案亦增列意圖還原已去識別化之個人資料、禁止不當揭露個人資料兩種犯罪類型,賦與資訊委員更廣的處理權責。違反資料保護法(如不當揭露個人資料),將處以行政罰責(最高可處1,700萬英鎊/2,000萬歐元罰鍰)。 本草案除建制一個一般資料處理、執法程序及國家安全的資料保護體系外,更加強對於學術研究、金融服務及兒童保護等領域的資料保護,以因應數位時代之變革。
英HFEA同意該國婦女利用PGD技術「訂製嬰兒」現今生殖醫學進步相當快速,透過諸如胚胎殖入前之基因診斷( PGD )、組織配對( tissue match )等新興生物技術,人們將有能力選擇未來孩子的外表、智力、健康甚至性別等,故就現今的科技發展而言,篩選具有某種特徵之嬰兒的技術能力早已具備,反而是相關的倫理、道德及社會共識等等卻是最難的部分,這也是有關「訂製嬰兒」( design babies )之爭議焦點。 近幾年,訂製嬰兒的討論在英國非常熱烈,在英國,人工生殖之進行應依人工生殖與胚胎學法規定,獲得 「人類生殖與胚胎管理局」 ( Human Fertilization and Embryology Authority, HFEA )之許可,至於進行人工生殖之同時,父母親是否得附加進一步的條件以「訂製嬰兒」,則一直有爭議。英國高等法院在 2002 年 12 月 20 日的一項判決中曾認為,國會制訂人工生殖與胚胎學法之目的,乃是在協助不孕婦女能夠生兒育女,至於組織配對的行為,則不在該法授權目的之內,因此 HFEA 無權就此等行為給予准駁。惟 2003 年 4 月 8 日 ,上訴法院推翻了高等法院的判決結果,但也進一步指出,這並不代表未來所有在進行 PGD 的同時加做組織配對之行為都是被允許的,想要施行這項技術之任何人,仍然需於事前取得 HFEA 的許可,新近 HFEA 已放寬管制規範,准許對更多種遺傳性疾病進行篩檢。 英國泰晤士報最近報導,一名英國女子已獲得英國 HFEA 同意 ,讓醫師將其透過體外受精方式培養出來的胚胎,利用基因篩檢技術,選擇出健康之胚胎植入其子宮內,以避免將她所罹患的遺傳性眼癌「視網膜母細胞瘤」基因傳給下一代。 本案婦女雖經 HFEA 同意「訂製嬰兒」,但仍會使「胚胎殖入前之基因診斷」( PGD )程序的爭議加劇,反對人士堅稱,基因篩檢的過程中勢必摧毀部分胚胎,且 為了某些目的而製造胚胎,將使人類被商品化,被訂製之嬰兒在長大成人後,若得知其出生之目的乃是在於治療其它親人,其心裡會對自己產生懷疑,並影響對自己人格的認同與其心理狀態。隨著生物技術發展飛快,許多可能背離社會良俗的行為恐將不斷出現,而法規能否隨之跟上則是生技產業能否興盛與倫理道德可否兼顧之重要關鍵。