經濟合作與發展組織發布《促進AI可歸責性:在生命週期中治理與管理風險以實現可信賴的AI》

經濟合作與發展組織(Organisation for Economic Co-operation and Development, OECD)於2023年2月23日發布《促進AI可歸責性:在生命週期中治理與管理風險以實現可信賴的AI》(Advancing accountability in AI: Governing and managing risks throughout the lifecycle for trustworthy AI)。本報告整合ISO 31000:2018風險管理框架(risk-management framework)、美國國家標準暨技術研究院(National Institute of Standards and Technology, NIST)人工智慧風險管理框架(Artificial Intelligence Risk Management Framework, AI RMF)與OECD負責任商業行為之盡職調查指南(OECD Due Diligence Guidance for Responsible Business Conduct)等文件,將AI風險管理分為「界定、評估、處理、治理」四個階段:

1.界定:範圍、背景、參與者和風險準則(Define: Scope, context, actors and criteria)。AI風險會因不同使用情境及環境而有差異,第一步應先界定AI系統生命週期中每個階段涉及之範圍、參與者與利害關係人,並就各角色適用適當的風險評估準則。

2.評估:識別並量測AI風險(Assess: Identify and measure AI risks)。透過識別與分析個人、整體及社會層面的問題,評估潛在風險與發生程度,並根據各項基本價值原則及評估標準進行風險量測。

3.處理:預防、減輕或停止AI風險(Treat: Prevent, mitigate, or cease AI risks)。風險處理考慮每個潛在風險的影響,並大致分為與流程相關(Process-related)及技術(Technical)之兩大處理策略。前者要求AI參與者建立系統設計開發之相關管理程序,後者則與系統技術規格相關,處理此類風險可能需重新訓練或重新評估AI模型。

4.治理:監控、紀錄、溝通、諮詢與融入(Govern: Monitor, document, communicate, consult and embed)。透過在組織中導入培養風險管理的文化,並持續監控、審查管理流程、溝通與諮詢,以及保存相關紀錄,以進行治理。治理之重要性在於能為AI風險管理流程進行外在監督,並能夠更廣泛地在不同類型的組織中建立相應機制。

相關連結
※ 經濟合作與發展組織發布《促進AI可歸責性:在生命週期中治理與管理風險以實現可信賴的AI》, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=9000&no=55&tp=1 (最後瀏覽日:2026/01/22)
引註此篇文章
你可能還會想看
英國法院命令ISP業者提供用戶資料

  據統計,英國因為盜版軟體的猖獗,每年損失高達16億英鎊,且有持續上升之趨勢。為遏止網路侵權行為,英國高等法院(the High Court)日前命令該國包含BT、NTL、Telewest等10家ISPs業者,需提供用戶資料以協助權利人進行網路侵權行為案件之調查。   本案源自於反盜版聯盟( Federation Against Software Theft,簡稱Fast)於2005年1月之要求。FAST經過長達一年之調查,鎖定了150個利用P2P軟體非法進行資料分享之個人,為進一步取得渠等之個人資料,Fast於日前請求英國法院,命令各該業者交出相關侵權者之資料。高等法院根據資料保護法(Data Protection Act)之規定,同意Fast之請求,下令ISPs業者必須在兩個禮拜內提供侵權行為人之姓名、地址與其他個人詳細資料,以利Fast會同警察及檢察官進一步調查侵權情形並提起告訴。   目前軟體業者對於網路盜版軟體之處理方式,大多是透過『通知即取下』( Notice and Take-down)程序,要求網站業者協助,將侵權軟體刪除或移除連結,但遭取下之連結,隨時有可能在其他網站上再次被公布,並無法真正解決侵權行為之問題。唯有直接將侵權者繩之以法,始可能達到嚇阻之效果。但權利人卻往往礙於難以取得侵權者之真實姓名與聯絡方式,而無法對侵權者有效提起民刑事訴訟以維護其權利。Fast表示,此次行動只是其策略的第一步,最終希望能達到在發現網路侵權行為發生之當下,便能立即要求ISPs業者提供該侵權行為者之資料。   若侵權行為罪名成立,這些透過 P2P 軟體進行網路侵權行為者將可能被處以 2 年以下有期徒刑或無上限之罰金。

歐洲藥物管理局「臨床試驗資料公開與近用政策」(草案)之定案日期將延後

  歐洲藥物管理局(European Medicine Agency,EMA)於今年六月下旬起至九月底止,開放接受公眾針對該局所擬「臨床試驗資料公開與近用政策」草案(draft policy on publication and access to clinical-trial data)提出回饋意見。所有公眾建言都將由EMA加以檢視,並將成為上述政策草案正式定案前之參考。原本EMA預計在2013年年底即對上述政策草案拍版定案,然而,由於歐洲藥物管理局收到超過一千則來自四面八方、不同立場之公眾回饋意見,為求妥適、深入檢視、分析這些意見,EMA原訂之定案時程將被迫遞延。新的定案時間表最慢將於十二月中上旬公布。   根據上述「臨床試驗資料公開與近用政策」草案之現行版本(亦即提供公眾評論並回饋意見之版本),原則上,EMA所持有之臨床試驗資料,將依其類型之差異而適用不同的公開或近用標準。依照EMA之分類,試驗資料將被區分為(1)「公開後不會導致個資保護疑慮之試驗資料」、(2)「如經公開,可能產生個資保護疑慮之試驗資料」、(3)「內含商業機密資訊之試驗資料」等三大類。上述第三類之「內含商業機密資訊之試驗資料」不會受到此一政策草案之影響,第二類資料將有限制的公開與提供近用,至於第一類資料,則將公開於EMA網站上供公眾下載。

美國司法部提出更嚴格的著作權法草案

  美國司法部於 11月10日提出更嚴格的著作權法草案,凡是未經著作所有權人許可,而拷貝音樂、電影者,可能面臨坐牢的命運。   這項草案由美國司法部長 Alberto Gonzales在一個反盜版的高峰會議中所提出的構想。草案內容擴大對智慧財產權的保護範疇,其中涵蓋試圖非法拷貝音樂、電影、軟體,或是其他具著作權物品的未遂行為。並且,草案賦予調查人員可以扣押因販賣盜版而購置的財產,例如做為未來拷貝用的空白CD。另外,也討論到違反著作權者,將強迫對著作所有權人進行賠償,累犯者也必須面臨較嚴厲的刑責。   Alberto Gonzales在記者會中提及: “這項法律的制訂,反映出布希政府及司法部一貫的承諾,也就是我們會竭盡所能的對抗盜版問題”   唱片業團體對此法案表示高度讚揚。然而,公益團體 Public Knowledge卻指出,司法部亦需考慮其他能夠保護消費者合理使用權的方法。   近年,國會強化著作權法幫助媒體公司對抗其作品遭受氾濫的非法拷貝。並且,執法者已逐漸鎖定在電影撥放幾小時後,就將其置於網路上的拷貝集團。   美國最高法院在六月以 9-0的裁定,讓娛樂業者能對盜版行為予以痛擊。裁定中指出,假若檔案交易(file-trading)公司涉及引誘使用者違反著作權法時,檔案交易公司亦需負責。

美國科羅拉多州通過《人工智慧消費者保護法》

2024年5月17日,科羅拉多州州長簽署了《人工智慧消費者保護法》(Consumer Protections for Artificial Intelligence Act,Colorado AI Act,下簡稱本法),其內容將增訂於《科羅拉多州修訂法規》(Colorado Revised Statutes,簡稱CRS)第6篇第17部分,是美國第一部廣泛對AI規範的法律,將於2026年2月1日生效。 本法旨在解決「高風險人工智慧系統」的演算法歧視(Algorithmic Discrimination)的問題 ,避免消費者權益因為演算法之偏見而受到歧視。是以,本法將高風險AI系統(High-risk Artificial Intelligence System)定義為「部署後作出關鍵決策(Consequential Decision)或在關鍵決策中起到重要作用的任何AI系統」。 而後,本法藉由要求AI系統開發者(Developers)與部署者(Deployers)遵守「透明度原則」與「禁止歧視原則」,來保護消費者免受演算法歧視。規定如下: (一)系統透明度: 1.開發者應向部署者或其他開發者提供該系統訓練所使用的資料、系統限制、預期用途、測試演算法歧視之文件以及其他風險評估文件。 2.部署者應向消費者揭露高風險人工智慧系統的預期用途,也應在高風險人工智慧系統做出決策之前向消費者提供聲明,聲明內容應該包含部署者之聯絡方式、該系統的基本介紹、部署者如何管理該系統可預見之風險等資訊。 (二)禁止歧視: 1.開發者應實施降低演算法歧視之措施,並應協助部署者理解高風險人工智慧系統。此外,開發者也應該持續測試與分析高風險人工智慧系統可能產生之演算法歧視風險。若開發者有意修改該系統,應將更新後的系統資訊更新於開發者網站,並須同步提供給部署者。 2.部署者應該實施風險管理計畫,該風險管理計畫應包含部署者用於識別、紀錄降低演算法歧視風險之措施與負責人員,且風險管理計畫應定期更新。在制定風險管理計畫時,必須參考美國商務部國家標準暨技術研究院(National Institute of Standards and Technology, NIST)的《人工智慧風險管理框架》(AI Risk Management Framework, AI RMF 2.0)與ISO/IEC 42001等風險管理文件。 美國普遍認為科羅拉多州的《人工智慧消費者保護法》為目前針對人工智慧系統最全面之監管法規,可作為其他州有關人工智慧法規的立法參考,美國各州立法情況與作法值得持續關注。

TOP