英國資訊委員辦公室提出人工智慧(AI)稽核框架

  人工智慧(Artificial Intelligence, AI)的應用,已逐漸滲透到日常生活各領域中。為提升AI運用之效益,減少AI對個人與社會帶來之負面衝擊,英國資訊委員辦公室(Information Commissioner’s Office, ICO)於2019年3月提出「AI稽核框架」(Auditing Framework for Artificial Intelligence),作為確保AI應用合乎規範要求的方法論,並藉機引導公務機關和企業組織,評估與管理AI應用對資料保護之風險,進而建構一個可信賴的AI應用環境。

  AI稽核框架主要由二大面向所構成—「治理與可歸責性」(governance and accountability)以及「AI特定風險領域」(AI-specific risk areas)。「治理與可歸責性」面向,係就公務機關和企業組織,應採取措施以遵循資料保護規範要求的角度切入,提出八項稽核重點,包括:風險偏好(risk appetite)、設計階段納入資料保護及透過預設保護資料(data protection by design and by default)、領導管理與監督(leadership management and oversight)、政策與程序(policies and procedures)、管理與通報架構(management and reporting structures)、文書作業與稽核紀錄(documentation and audit trails)、遵循與確保能力(compliance and assurance capabilities)、教育訓練與意識(training and awareness)。

  「AI特定風險領域」面向,則是ICO特別針對AI,盤點下列八項潛在的資料保護風險,作為風險管理之關注重點:

一、 資料側寫之公平性與透明性(fairness and transparency in profiling);

二、 準確性(accuracy):包含AI開發過程中資料使用之準確性,以及應用AI所衍生資料之準確性;

三、 完全自動化決策模型(fully automated decision making models):涉及人類介入AI決策之程度,歐盟一般資料保護規則(General Data Protection Regulation, GDPR)原則上禁止無人為介入的單純自動化決策;

四、 安全性與網路(security and cyber):包括AI測試、委外處理資料、資料重新識別等風險;

五、 權衡(trade-offs):不同規範原則之間的取捨,如隱私保護與資料準確性;

六、 資料最少化與目的限制(data minimization and purpose limitation);

七、 資料當事人之權利行使(exercise of rights);

八、 對廣泛公共利益和權利之衝擊(impact on broader public interests and rights)。

  ICO將持續就前述AI特定風險領域,進行更深入的分析,並開放公眾討論,未來亦將提供相關技術和組織上之控制措施,供公務機關及企業組織進行稽核實務時之參考。

相關連結
你可能會想參加
※ 英國資訊委員辦公室提出人工智慧(AI)稽核框架, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8249&no=64&tp=1 (最後瀏覽日:2026/03/14)
引註此篇文章
你可能還會想看
OECD啟動全球首創的《開發先進人工智慧系統組織的報告框架》

2025年2月7日,經濟合作暨發展組織(Organization for Economic Cooperation and Development,OECD)正式啟動《開發先進人工智慧系統組織的報告框架》(Reporting Framework for the Hiroshima Process International Code of Conduct for Organizations Developing Advanced AI Systems,簡稱G7AI風險報告框架)。 該框架之目的是具體落實《廣島進程國際行為準則》(Hiroshima Process International Code of Conduct)的11項行動,促進開發先進人工智慧系統(Advanced AI Systems)的組織建立透明度和問責制。該框架為組織提供標準化方法,使其能夠證明自身符合《廣島進程國際行為準則》的行動,並首次讓組織可以提供有關其人工智慧風險管理實踐、風險評估、事件報告等資訊。對於從事先進人工智慧開發的企業與組織而言,該框架將成為未來風險管理、透明度揭露與國際合規的重要依據。 G7 AI風險報告框架設計,對應《廣島進程國際行為準則》的11項行動,提出七個核心關注面向,具體說明組織於AI系統開發、部署與治理過程中應採取之措施: 1. 組織如何進行AI風險識別與評估; 2. 組織如何進行AI風險管理與資訊安全; 3. 組織如何進行先進AI系統的透明度報告; 4. 組織如何將AI風險管理納入治理框架; 5. 組織如何進行內容驗證與來源追溯機制; 6. 組織如何投資、研究AI安全與如何降低AI社會風險; 7. 組織如何促進AI對人類與全球的利益。 為協助G7推動《廣島進程國際行為準則》,OECD建構G7「AI風險報告框架」網路平台,鼓勵開發先進人工智慧的組織與企業於2025年4月15日前提交首份人工智慧風險報告至該平台(https://transparency.oecd.ai/),目前已有包含OpenAI等超過15家國際企業提交報告。OECD亦呼籲企業與組織每年定期更新報告,以提升全球利益相關者之間的透明度與合作。 目前雖屬自願性報告,然考量到國際監理機關對生成式AI及高風險AI 系統透明度、可問責性(Accountability)的日益關注,G7 AI風險報告框架內容可能成為未來立法與監管的參考作法之一。建議企業組織持續觀測國際AI治理政策變化,預做合規準備。

美國參議院重新提出FDA現代化法案3.0,加速新藥開發之動物實驗新替代方法發展

.Pindent{text-indent: 2em;} .Noindent{margin-left: 2em;} .NoPindent{text-indent: 2em; margin-left: 2em;} .No2indent{margin-left: 3em;} .No2Pindent{text-indent: 2em; margin-left: 3em} .No3indent{margin-left: 4em;} .No3Pindent{text-indent: 2em; margin-left: 4em} 美國前任總統拜登於2022年底簽署《FDA現代化法2.0》(FDA Modernization Act 2.0, FDAMA 2.0),修改FDA自1938年以來新藥必須實施動物試驗之要求,將進入人體臨床試驗之前階段試驗改稱為「非臨床試驗(nonclinical test)」並許可採取非動物實驗方法,為美國在藥物安全監管方面的重大改變。 在FDAMA 2.0通過後,FDA仍未啟動修改監管法規以符合該法,為了確保改革能加速進行,2024年2月6日美國兩黨參議員合作提出《FDA現代化法案3.0》(FDAMA 3.0) 草案並於同年12月12日參議院無異議通過,惟眾議院在第118屆國會結束前並未討論該案,參議員於2025年2月第119屆國會重新提出該法案。 FDAMA 3.0重點包括: 1. 一般規定:FDA應於1年內,建立針對藥品的非臨床測試方法資格認定流程(Nonclinical Testing Methods Qualification Process);個人可申請特定用途的非臨床測試方法資格認定。 2. 符合資格之非臨床測試方法:非臨床測試方法必須可替代或減少動物測試;且提高非臨床測試對安全性和有效性的預測性,或縮短藥物(含生物製品)的開發時間。 3. 符合資格認定之應用:獲資格認定之非臨床測試方法,FDA應加速相關藥品申請(包括變更申請)的審核流程;允許申請人於藥品申請中引用相關數據與資訊。 4. 本法生效日起兩年內應每年向國會報告流程運行情形,包括已認定的方法類型、申請數量、審查天數、批准數量,以及該流程減少的動物數量估算等。 目前雖然其他國家尚未有類似立法,但歐美均投入大量研發資源減少動物實驗,且FDA亦於近日提出《減少臨床前安全試驗使用動物實驗之路線圖》,後續應密切關注本法案是否通過及相關產業影響。

開原碼授權 印度要走自己的路

  印度理工學院的 Deepak Phatak 啟動了一項建立 Knowledge Public License (知識公共授權,簡稱 "KPL" )的計畫,這種授權計畫允許程式人員跟他人分享自己的點子,但是同時保留軟體的修改權。它很像柏克萊軟體發行計畫或 MIT 授權計畫。目的是希望為建立一種環境,開發者既可以借助開放原始碼的合作力量,又能保護個人的利益。這項計畫還有助於舒緩開原碼運動和專屬軟體商之間日趨緊張的關係。    Phatak 的授權計畫有著先天的數量優勢。由於委外的興起和繁榮,印度已經成長為一個重要的軟體發展中心。 Phatak 也發起了一項 Ekalavya 計畫,鼓勵大家提出開原碼運動的新概念。

歐盟發布與食品接觸的容器材料安全評估規則

  歐盟食品安全局(European Food Safety Authority, EFSA)於2009年5月29日發布歐盟第450/2009號規則(Regulation EC No. 450/2009),內容為評估與食品接觸的包裝容器之「活性材料」(active material)或「智慧型材料」(intelligence material),其活性與智慧型功能物質之使用安全性。此號規則規定了進行活性或智慧型材料物質的安全評估相關的行政管理,及申請所需提出的科技數據與資訊內容。   歐盟第450/2009號規則是一項落實第1935/2004號規則中,有關食品安全的具體規則。第450/2009號規則要求食品容器中的「活性材料」與「智慧型材料」,必須經過EFSA的安全評估測試。   歐盟於2004年10月通過第1935/2004號規則(Regulation EC No. 1935/2004),首次公佈活性材料與智慧型材料的定義。「活性材料」係指為增加食物保存期限或維持及改善情況,食品容器材料會自動釋放某些物質在食品中以延長期限。「智慧型材料」則指能顯示食物狀況或在包裝上顯示出周圍環境狀態,例如在食品包裝上,結合溫度顯示材料,指出裝運過程中的溫度狀態。   而第450/2009號規則,則是進一步落實規範。在安全評估測試中,EFSA對於申請者提出的容器材料物質,進行風險測試後,將給予申請者得以使用的物質清單。若有食品容器材料的物質經測試後發現,其活性或智慧型功能的物質,與食品容器材料中的其他物質產生交互作用,EFSA可能將限制使用此類物質於食物容器材料中,以確保容器材料之安全性。

TOP