經濟合作與發展組織發布《促進AI可歸責性:在生命週期中治理與管理風險以實現可信賴的AI》

經濟合作與發展組織(Organisation for Economic Co-operation and Development, OECD)於2023年2月23日發布《促進AI可歸責性:在生命週期中治理與管理風險以實現可信賴的AI》(Advancing accountability in AI: Governing and managing risks throughout the lifecycle for trustworthy AI)。本報告整合ISO 31000:2018風險管理框架(risk-management framework)、美國國家標準暨技術研究院(National Institute of Standards and Technology, NIST)人工智慧風險管理框架(Artificial Intelligence Risk Management Framework, AI RMF)與OECD負責任商業行為之盡職調查指南(OECD Due Diligence Guidance for Responsible Business Conduct)等文件,將AI風險管理分為「界定、評估、處理、治理」四個階段:

1.界定:範圍、背景、參與者和風險準則(Define: Scope, context, actors and criteria)。AI風險會因不同使用情境及環境而有差異,第一步應先界定AI系統生命週期中每個階段涉及之範圍、參與者與利害關係人,並就各角色適用適當的風險評估準則。

2.評估:識別並量測AI風險(Assess: Identify and measure AI risks)。透過識別與分析個人、整體及社會層面的問題,評估潛在風險與發生程度,並根據各項基本價值原則及評估標準進行風險量測。

3.處理:預防、減輕或停止AI風險(Treat: Prevent, mitigate, or cease AI risks)。風險處理考慮每個潛在風險的影響,並大致分為與流程相關(Process-related)及技術(Technical)之兩大處理策略。前者要求AI參與者建立系統設計開發之相關管理程序,後者則與系統技術規格相關,處理此類風險可能需重新訓練或重新評估AI模型。

4.治理:監控、紀錄、溝通、諮詢與融入(Govern: Monitor, document, communicate, consult and embed)。透過在組織中導入培養風險管理的文化,並持續監控、審查管理流程、溝通與諮詢,以及保存相關紀錄,以進行治理。治理之重要性在於能為AI風險管理流程進行外在監督,並能夠更廣泛地在不同類型的組織中建立相應機制。

相關連結
※ 經濟合作與發展組織發布《促進AI可歸責性:在生命週期中治理與管理風險以實現可信賴的AI》, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=9000&no=57&tp=1 (最後瀏覽日:2026/02/24)
引註此篇文章
你可能還會想看
關於EMI唱片公司控告MP3tunes公司及其公司創辦人Michael Robertson侵犯其智財權一案之最新發展

  關於EMI代表其他共14家唱片公司及隸屬旗下之出版業者於2007年11月控告MP3tunes公司及其公司創辦人及執行長Michael Robertson侵犯其智慧財產權一案,美國紐約南區聯邦法院(U.S. District Court for the Southern District of New York)法官近日做出裁定,駁回EMI針對Michael Robertson個人提出的控告,只受理EMI所提出的MP3tunes公司侵害其音樂著作權之主張。   聯邦法院法官William Pauley認為因紐約不是Michael Robertson的主要住所且無足夠證據顯示Michael Robertson於紐約進行經常性的商業活動且因此賺取大量的收益。因此,紐約法院對Michael Robertson個人不具有司法管轄權。另一方面,法官認為MP3tunes公司所提供的網上服務並非純為被動式的,MP3tunes公司提供軟體讓客戶上傳、下載、藉由網上管理其所擁有的歌曲,此種服務為互動式的且有些更精進的服務需付費。法官因此認為MP3tunes公司於紐約進行商業活動,紐約法院因此具有管轄權。   Michael Robertson於此判決後表示鬆了口氣,但承認其公司MP3tunes面對EMI的侵權控訴仍有一段長遠的路要走。Michael Robertson認為此案件之判定將決定日後客戶是否可將他們的歌曲存放在商業性的網站上就如同他們現在將文件、照片與其他個人資訊存放在網站上一樣。

英國公告「2014年資料保存和調查法」,落實「歐盟基本權利憲章」精神

  英國政府於2014年7月17日公告施行「2014年資料保存和調查法」(Data Retention and Investigation Powers Act 2014)(下稱新法)。新法係為因應歐盟法院2014年4月8日判決,由於全面資料保存不合比例地干預隱私權和「歐盟基本權利憲章」(EU Charter of Fundamental Rights)對個人資料的保護,歐盟2006/24/EC資料保存指令(Data Retention Directive 2006/24/EC)應予廢棄。該指令要求歐盟各國電話及網際網路公司搜集使用者電話及電子郵件通聯紀錄,包括時間、地點及受話人或收件人,並儲存至多兩年。   新法規範重點摘要如下: 1.相關通訊資料保存: (1)通訊相關資料保存權力受到管制保障: 新法除規範資料蒐集與保存制度,並規定英國政府得要求國內外電話及網際網路業者搜集其客戶通訊資訊,最長可保存12個月。 (2)於第二節補充前一節用語定義。 2.調查權: (1)新法授權政府得基於國家安全和預防或偵查重大犯罪而監聽取得國內外通訊相關資訊。 (2)修正「2000年調查權規範」(Regulation of Investigatory Powers Act of 2000)第一編之域外規範。 (3)擴大「電信服務」定義,納入提供接取、促進使用、促進傳播通訊之創建、管理、儲存或透過相類似系統之傳播者。 (4)通訊監聽委員(the Interception of Communications Commissioner)每半年提出報告。 (5)調查權力及規範之複審。 3.開始、持續期間、範圍和簡稱:新法落日條款之規範,2016年12月31日將失其效力。

我國專利法修正中設計專利與設計產業現況之調和

韓國發布人工智慧基本法

韓國政府為支持人工智慧發展與建立人工智慧信任基礎,提升國家競爭力,韓國科學技術情報通訊部(과학기술정보통신부)於2025年1月21日公布《人工智慧發展與建立信任基本法》(인공지능 발전과 신뢰 기반 조성 등에 관한 기본법안,下稱AI基本法),將於2026年1月22日起生效。韓國《AI基本法》為繼歐盟《人工智慧法》(EU Artificial Intelligence Act)之後第二部關注人工智慧的國家級立法,並針對高影響人工智慧(고영향 인공지능)及生成式人工智慧進行規範,促進創新及降低人工智慧風險,將搭配進一步的立法與政策以支持人工智慧產業。 《AI基本法》有以下三個政策方向: 1. 人工智慧基本計畫:由科學技術情報通訊部制定並每三年檢討「人工智慧基本計畫」,經「國家人工智慧委員會」審議後實施,決定產業發展政策、培育人才、健全社會制度等事項。本法並設置人工智慧政策中心及人工智慧安全研究所,提供科學技術情報通訊部所需的研究與分析。 2. 扶持產業發展:以扶持中小企業及新創企業為發展方向,促進產業標準化的基本政策,爭取國際合作及海外發展。 3. 人工智慧倫理與安全性:政府公布人工智慧倫理原則,由相關機構及業者自主成立人工智慧倫理委員會,在政府發布的指引下建立貼近實務面的倫理指引。本法明確要求人工智慧產業必須負擔透明性及安全性義務,政府也推動認驗證制度,以確保人工智慧的可靠性。 韓國《AI基本法》將人工智慧發展方向及社會政策結合,明確要求政府制定人工智慧發展計畫並定期檢討,施行具體措施與設置必要組織,確立政府在人工智慧領域的角色,然產業界對於政府監管力度之意見有所分歧,為《AI基本法》後續相關政策及指引推動種下不確定性,值得持續追蹤相關動態作為我國人工智慧發展策略之參考。

TOP