經濟合作與發展組織發布《促進AI可歸責性:在生命週期中治理與管理風險以實現可信賴的AI》

經濟合作與發展組織(Organisation for Economic Co-operation and Development, OECD)於2023年2月23日發布《促進AI可歸責性:在生命週期中治理與管理風險以實現可信賴的AI》(Advancing accountability in AI: Governing and managing risks throughout the lifecycle for trustworthy AI)。本報告整合ISO 31000:2018風險管理框架(risk-management framework)、美國國家標準暨技術研究院(National Institute of Standards and Technology, NIST)人工智慧風險管理框架(Artificial Intelligence Risk Management Framework, AI RMF)與OECD負責任商業行為之盡職調查指南(OECD Due Diligence Guidance for Responsible Business Conduct)等文件,將AI風險管理分為「界定、評估、處理、治理」四個階段:

1.界定:範圍、背景、參與者和風險準則(Define: Scope, context, actors and criteria)。AI風險會因不同使用情境及環境而有差異,第一步應先界定AI系統生命週期中每個階段涉及之範圍、參與者與利害關係人,並就各角色適用適當的風險評估準則。

2.評估:識別並量測AI風險(Assess: Identify and measure AI risks)。透過識別與分析個人、整體及社會層面的問題,評估潛在風險與發生程度,並根據各項基本價值原則及評估標準進行風險量測。

3.處理:預防、減輕或停止AI風險(Treat: Prevent, mitigate, or cease AI risks)。風險處理考慮每個潛在風險的影響,並大致分為與流程相關(Process-related)及技術(Technical)之兩大處理策略。前者要求AI參與者建立系統設計開發之相關管理程序,後者則與系統技術規格相關,處理此類風險可能需重新訓練或重新評估AI模型。

4.治理:監控、紀錄、溝通、諮詢與融入(Govern: Monitor, document, communicate, consult and embed)。透過在組織中導入培養風險管理的文化,並持續監控、審查管理流程、溝通與諮詢,以及保存相關紀錄,以進行治理。治理之重要性在於能為AI風險管理流程進行外在監督,並能夠更廣泛地在不同類型的組織中建立相應機制。

相關連結
你可能會想參加
※ 經濟合作與發展組織發布《促進AI可歸責性:在生命週期中治理與管理風險以實現可信賴的AI》, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=9000&no=55&tp=1 (最後瀏覽日:2025/04/05)
引註此篇文章
你可能還會想看
歐盟有條件批准Meta對Kustomer的併購案

  歐盟執委會於2022年1月27日宣布批准Meta(原Facebook)對Kustomer的併購案。Kustomer公司本身為向企業銷售客戶關係管理(customer relation management, CRM)整合軟體之公司,故本項併購可能影響Meta對消費者資訊的掌握能力,進而提升廣告市場影響力。因之,歐盟執委會基於自去(2021)年8月起深入調查本併購案有無影響公平競爭的結果,作成批准本併購案之決定,但要求Meta應遵守其提出的條件。   依據歐盟執委會的調查結果,主要擔憂本併購案可能阻礙CRM整合軟體之供給市場、以及CRM整合軟體售後客戶服務之供給市場的公平競爭。同時,調查中亦確認到Meta限制Kustomer公司的潛在競爭對手、以及新參與上述市場的業者近用Meta的訊息傳遞路徑應用程式介面(message channel API)。上述潛在競爭對手與業者和Kustomer公司相同,以中小企業為其主要銷售客群。而Meta採取此種經營方式,則可能會劇烈減少CRM整合軟體供給市場、以及CRM整合軟體售後客戶服務供給市場的競爭,導致相關軟體產品或服務的價格上揚,並伴隨品質與創新能量的下降,更可能將之轉嫁予消費者。   對上述調查結果所提出違反公平競爭秩序的疑慮,Meta則提案追加以下約款,作為條件以圖本併購案能夠獲准:(1)Meta保證於10年內,將其訊息傳遞路徑應用程式介面以無償、非歧視的方式,公開予存在競爭關係之客戶服務CRM整合軟體供應商、與新參與市場的業者取用;(2)Kustomer公司之客戶所使用Messenger、Instagram之私人通訊服務,以及WhatsApp之功能未來有進行改良或更新時,Kustomer公司之競爭對手與新進業者同樣得使用該些更新的功能。歐盟執委會最終認為Meta若踐行上述約款,將能消除其違反公平競爭秩序的疑慮,而以Meta履行該些約款為條件批准本併購案。

美國國土安全部保護物聯網策略原則簡介

何謂「專利蟑螂」( Patent Troll)呢?其之主要特徵及對專利制度以及專利市場之影響為何?

  「專利蟑螂」( Patent Troll)由個人或是中小型組織/團體以購買專利的方式來獲得專利權,並藉由專利權排他性特徵,以訴訟方式來控告侵害其專利權的成功商品製造者。   「專利蟑螂」主要特徵有三;(1)主要係藉由專利取得的方式,向潛在或可能的專利侵權者收取費用;(2)此類NPE並不進行任何研發活動,其亦不就其所擁有的專利來從事商品化活動或發展新型技術;(30此類NPE投機性地等待商品製造者在投入不可回復之鉅額投資後,始對該商品製造者行使專利侵權主張。   然而,一般對於NPE對專利制度以及專利市場之影響,會以Patent Troll之行為模式作為觀察起點,例如,有論者認為專利蟑螂所從事購買與再行出售專利的行為,可以增進專利交易市場的效率化。同時,該行為不僅讓弱勢的專利創作者享有因其創作所產生的財務收益外,其亦發揮了同於仲介者(dealers)或是市場創造者(market-makers)功能的專利金融性市場 。亦有論者認為,專利蟑螂的行為已經帶來經濟上的危害(economic harm),因其慣於同時向不同公司索取適度的(moderate)專利授權費用。而為了避免陷入風險極高且耗費甚鉅的專利侵權訴訟,被索取專利授權費用之公司皆傾向給付專利蟑螂一定額度的專利授權金,以免除陷入不確定專利訴訟的泥皁。同時,專利蟑螂亦傾向選擇目標公司(target companies)最脆弱的時點,例如:新產品的發表、宣傳費用的投入等,再對其提出專利侵權訴訟,使其被迫必須遵循專利蟑螂的要求來擺脫可能陷入專利侵權訴訟的羈絆。

德國資料保護會議通過「哈姆巴爾宣言」,針對人工智慧之運用提出七大個資保護要求

  德國聯邦及各邦獨立資料保護監督機關(unabhängige Datenschutzaufsichtsbehörden)共同於2019年4月3日,召開第97屆資料保護會議通過哈姆巴爾宣言(Hambacher Erklärung,以下簡稱「Hambacher宣言」)。該宣言指出人工智慧雖然為人類帶來福祉,但同時對法律秩序內自由及民主體制造成巨大的威脅,特別是人工智慧系統可以透過自主學習不斷蒐集、處理與利用大量個人資料,並且透過自動化的演算系統,干預個人的權利與自由。   諸如人工智慧系統被運用於判讀應徵者履歷,其篩選結果給予女性較不利的評價時,則暴露出人工智慧處理大量資料時所產生的性別歧視,且該歧視結果無法藉由修正資料予以去除,否則將無法呈現原始資料之真實性。由於保護人民基本權利屬於國家之重要任務,國家有義務使人工智慧的發展與應用,符合民主法治國之制度框架。Hambacher宣言認為透過人工智慧系統運用個人資料時,應符合歐盟一般資料保護規則(The General Data Protection Regulation,以下簡稱GDPR)第5條個人資料蒐集、處理與利用之原則,並基於該原則針對人工智慧提出以下七點個資保護之要求: (1)人工智慧不應使個人成為客體:依據德國基本法第1條第1項人性尊嚴之保障,資料主體得不受自動化利用後所做成,具有法律效果或類似重大不利影響之決策拘束。 (2)人工智慧應符合目的限制原則:透過人工智慧系統蒐集、處理與利用個人資料時,即使後續擴張利用亦應與原始目的具有一致性。 (3)人工智慧運用處理須透明、易於理解及具有可解釋性:人工智慧在蒐集、處理與利用個人資料時,其過程應保持透明且決策結果易於理解及可解釋,以利於追溯及識別決策流程與結果。 (4)人工智慧應避免產生歧視結果:人工智慧應避免蒐集資料不足或錯誤資料等原因,而產生具有歧視性之決策結果,控管者或處理者使用人工智慧前,應評估對人的權利或自由之風險並控管之。 (5)應遵循資料最少蒐集原則:人工智慧系統通常會蒐集大量資料,蒐集或處理個人資料應於必要範圍內為之,且不得逾越特定目的之必要範圍,並應檢查個人資料是否完全匿名化。 (6)人工智慧須設置問責機關進行監督:依據GDPR第12條、第32條及第35條規定,人工智慧系統內的控管者或處理者應識別風險、溝通責任及採取必要防範措施,以確保蒐集、處理與利用個人資料之安全性。 (7)人工智慧應採取適當技術與組織上的措施管理之:為了符合GDPR第24條及第25條規定,聯邦資料保護監督機關應確認,控管者或處理者採用適當的現有技術及組織措施予以保障個人資料。   綜上所述,Hambacher宣言內容旨在要求,人工智慧在蒐集、處理及利用個人資料時,除遵守歐盟一般資料保護規則之規範外,亦應遵守上述提出之七點原則,以避免其運用結果干預資料主體之基本權利。

TOP