2024年3月27日,美國商務部國家電信和資訊管理局(National Telecommunications and Information Administration, NTIA)發布「人工智慧問責政策報告」(AI Accountability Policy Report),該報告呼籲對人工智慧系統進行獨立評估(Independent Evaluations)或是第三方評測,期待藉此提高人工智慧系統的透明度。
人工智慧問責政策報告就如何對人工智慧系統進行第三方評測提出八項建議作法,分別如下:
1.人工智慧稽核指引:聯邦政府應為稽核人員制定適合的人工智慧稽核指引,該指引須包含評估標準與合適的稽核員證書。
2.改善資訊揭露:人工智慧系統雖然已經應用在許多領域,但其運作模式尚缺乏透明度。NTIA認為未來可以透過類似營養標籤(Nutrition Label)的方式,使人工智慧模型的架構、訓練資料、限制與偏差等重要資訊更加透明。
3.責任標準(Liability Standards):聯邦政府應盡快訂定相關責任歸屬標準,以解決現行制度下,人工智慧系統造成損害的法律責任問題。
4.增加第三方評測所需資源:聯邦政府應投入必要的資源,以滿足國家對人工智慧系統獨立評估的需求。相關必要資源如:
(1)資助美國人工智慧安全研究所(U.S. Artificial Intelligence Safety Institute);
(2)嚴格評估所需的運算資源與雲端基礎設施(Cloud Infrastructure);
(3)提供獎金和研究資源,以鼓勵參與紅隊測試的個人或團隊;
(4)培養第三方評測機構的專家人才。
5.開發及使用驗證工具:NTIA呼籲聯邦機關開發及使用可靠的評測工具,以評估人工智慧系統之使用情況,例如透明度工具(Transparency Tools)、認驗證工具(Verification and Validation Tools)等。
6.獨立評估:NTIA建議聯邦機關應針對高風險的人工智慧類別進行第三方評測與監管,特別是可能侵害權利或安全的模型,應在其發布或應用前進行評測。
7.提升聯邦機關風險管控能力:NTIA建議各機關應記錄人工智慧的不良事件、建立人工智慧系統稽核的登記冊,並根據需求提供評測、認證與文件紀錄。
8.契約:透過採購契約要求政府之供應商、承包商採用符合標準的人工智慧治理方式與實踐。
NTIA將持續與利害關係各方合作,以建立人工智慧風險的問責機制,並確保該問責報告之建議得以落實。
南韓個資保護委員會(Personal Information Protection Commission, PIPC)於2024年7月18日發布《人工智慧(AI)開發與服務處理公開個人資料指引》(인공지능(AI) 개발·서비스를 위한 공개된 개인정보 처리 안내서)(以下簡稱指引)。該指引針對AI開發與服務處理的公開個人資料(下稱個資)制定了新的處理標準,以確保這些資料在法律上合規,且在使用過程中有效保護用戶隱私。 在AI開發及服務的過程中,會使用大量從網路上收集的公開資料,這些公開資料可能包含地址、唯一識別資訊(unique identifiable information, UII)、信用卡號等個資。這些公開的個資是指任意人可藉由網路抓取技術自公開來源合法存取的個資,內容不限於個資主體自行公開的資料,還包括法律規定公開的個資、出版物和廣播媒體中包含的個資等。由於公開資料眾多,在現實中很難在處理這些公開個資以進行AI訓練之前,取得每個個資主體的單獨同意及授權,同時,南韓對於處理這些公開個資的現行法律基礎並不明確。 為解決上述問題,PIPC制定了該指引,確認了蒐集及利用公開個資的法律基礎,並為AI開發者和服務提供者提供適用的安全措施,進而最小化隱私問題及消除法律不確定性。此外,在指引的制定過程中,PIPC更參考歐盟、美國和其他主要國家的做法,期以建立在全球趨勢下可國際互通的標準。 指引的核心內容主要可分為三大部分,第一部分:應用正當利益概念;第二部分:建議的安全措施及保障個資主體權利的方法;及第三部分:促進開發AI產品或服務的企業,在開發及使用AI技術時,注意可信任性。 針對第一部分,指引中指出,只有在符合個人資料保護法(Personal Information Protection Act, PIPA)的目的(第1條)、原則(第3條)及個資主體權利(第4條)規定範圍內,並滿足正當利益條款(第15條)的合法基礎下,才允許蒐集和使用公開個資,並且需滿足以下三個要求:1.目的正當性:確保資料處理者有正當的理由處理個資,例如開發AI模型以支持醫療診斷或進行信用評級等。2.資料處理的必要性:確保所蒐集和利用的公開資料是必要且適當的。3.相關利益評估:確保資料處理者的正當利益明顯超越個資主體的權利,並採取措施保障個資主體的權利不被侵犯。 而第二部分則可區分為技術防護措施、管理和組織防護措施及尊重個資主體權利規定,其中,技術防護措施包括:檢查訓練資料來源、預防個資洩露(例如刪除或去識別化)、安全存儲及管理個資等;管理和組織防護措施包括:制定蒐集和使用訓練資料的標準,進行隱私衝擊影響評估(PIA),運營AI隱私紅隊等;尊重個資主體權利規定包括:將公開資料蒐集情形及主要來源納入隱私政策,保障個資主體的權利。 最後,在第三部分中,指引建議AI企業組建專門的AI隱私團隊,並培養隱私長(Chief Privacy Officers, CPOs)來評估指引中的要求。此外,指引亦呼籲企業定期監控技術重大變化及資料外洩風險,並制定及實施補救措施。 該指引後續將根據PIPA法規修訂、AI技術發展及國際規範動向持續更新,並透過事前適當性審查制、監管沙盒等途徑與AI企業持續溝通,並密切關注技術進步及市場情況,進而推動PIPA的現代化。
落實綠色供應鏈 台灣廠商尚待加強歐盟推動的有毒物質禁制令( Restriction of Hazardous Substances, RoHS )自今( 2006 )年 7 月後開始啟動,國內多家 IT 廠商如主機板、液晶螢幕等業者均表示產品符合 RoHS 規範,政府提供的資料也指出,台灣大約八成的供應商和製造商符合 RoHS 規範,但是依照綠色環保產品行銷業者的觀察,實際數據遠低於此,應該只有五成不到。 所謂的 RoHS ,係明列自 2006 年 7 月後,製程、設備及材料處理研發禁止使用 6 種有毒物質,如鉛、汞、鎘等,內含六項管制物質的產品將不可在市面流通,屆時輸歐的電子、電機產品皆必須符合該標準。如果一旦抽驗發現有毒物質,產品即可能遭受召回、高額罰款或者長期法律訴訟。 廠商所謂的「符合」還有很多可議的空間,主要原因有兩種:首先製造商在取得供應商提供的原物料時,也許前者的確不含有毒物質,但是在製程、運送過程中,原物料仍有被污染的可能性,例如有鉛和無鉛產品共用一條生產線。然而製造商但憑供應商提供的品質文件就聲稱終端產品符合了 RoHS 規範。 其次,即使是供應商表示原物料符合 RoHS 規範,也還有待商榷,因為這必須判定供應商的原物料送審時,是以混測還是均質檢測。所謂的混測就是把包含兩三種不同原料的產品一併送測,這時候即使單一原料含有有毒物質,但在和其他物質含量平均後就無法檢測出來。均質檢測則就是每個原料都單獨出來檢驗。由於後者的成本高出許多,因此國內供應商多以混測方式送審,使得檢測結果可信度並非絕對。 RoHS 對將大量產品輸出歐洲市場的台灣 IT 產業影響深遠,根據經濟部技術處所提供的資料,據估計將有近 3.5 萬家廠商、高達新台幣 2,446 億元的產值將受到衝擊。基於此原因,經濟部技術處於去( 2005 )年七月啟動「寰淨計畫( G 計畫)」,結合系統廠商、檢測驗證機構、資訊服務業者等單位,以系統廠商帶動下游供應商的方式,加速國內電腦廠商推出符合環保規範的產品。儘管政府推動甚殷,國內供應商的確在前年開始準備,不過要確實符合 RoHS 之規範精神,而非僅是形式上符合,仍有待政府與業者共同努力。
歐盟法院對於羅氏和諾華藥廠涉及聯合銷售Lucentis壟斷市場行為,作成先訴裁定歐盟法院(Court of Justice of the EU ,CJEU) 於2018年1月23日就Hoffman-La Roche and Others v Autorità Garante della Concorrenzae del Mercato案(Case C-179/16)作出先訴裁定(preliminary ruling)。本案涉及歐盟競爭法和藥品監管體系之間的相互影響。 案例事實為:羅氏藥廠的Avastin,原先為抗癌許可藥物,被臨床發現可用作治療老年性黃斑部病變(AMD),但並未經正式核准用於治療AMD,屬於仿單標示外藥物(off-label drugs)。而Lucentis係諾華藥廠一款獲得正式授權核准,作為治療 AMD的眼內注射藥物。 其中,諾華持有羅氏超過33%的股份,Avastin雖與Lucentis作用機理相似,但Lucentis價格卻相對昂貴,銷售方式由羅氏與諾華合作,諾華可從持股中間接獲得利潤。 兩家藥廠為了影響、降低Avastin的需求量及阻礙其分銷,雙方協議,對外聲稱兩種藥物含有不同活性成分,散布Avastin仿單標示外使用之安全性和有效性存在疑義的不實資訊。 2014年時,義大利競爭法主管機關(Autori tà Garante della Concorrenza e del Mercato, AGCM)認為羅氏和諾華兩大藥廠涉嫌藥品市場壟斷,違反歐盟運作條約(Treaty on the Functioning of the European Union, TFEU)第101(1)條,因而裁罰兩家藥廠。 羅氏和諾華不服裁罰,向義大利Lazio地方行政法院(Regional Administrative Court, Lazio)提起訴訟尋求救濟,遭到駁回;羅氏和諾華繼而向義大利國務委員會(Council of State)提出上訴,義大利國務委員會將此案提交歐盟法院,針對歐盟競爭法的解釋進行先訴裁定。 最後,歐盟法院認為兩藥廠之行為構成藥品市場的限制競爭,違反歐盟運作條約第101條之規定。 法院判決結果認為: 當上市許可藥物(marketing authorization, MA)和仿單標示外藥物皆適用治療同一疾病,只要它們具可替代性和兼容性,並且符合製造和銷售的規定,原則上屬於同一個相關市場。只要滿足其他要件,上市許可藥物並不當然決定相關產品市場的範圍。 非競爭者之間的許可協議可能符合歐盟競爭規則:歐盟法院闡述,這種傳播誤導性資訊的「安排」,目的並非限制任何一方對許可協議的商業自主權,而是為了影響監管機構和醫生等第三方選擇使用Avastin的行為。因此,散播不利於Avastin仿單標示外使用的資訊,此一共同協議,不能被認為是許可協議的附屬部分,係實施協議所必需的。其符合歐盟競爭規則的範圍,作為許可協議中的單獨協議。 雙方協議散布安全誤導性的不實資訊,針對此兩種相互競爭的醫藥產品,可能構成對競爭規則的嚴重違反:諾華與羅氏公司,在科學證據不確定的情形下,聯合對外向歐洲藥品管理局(European Medicines Agency, EMA)、醫療專業人員和公眾宣稱有關使用該仿單標示外藥物將造成不良副作用的誤導性資訊,以減少其對其他產品施加的競爭壓力,構成對「競爭對手」(by object)的限制。尤其令人憂慮的是,企業可能會透過散播資訊來減少藥品本身的競爭壓力,從而誇大使用其他產品將導致不良反應的可能性。
OECD發布「促進人工智慧風險管理互通性的通用指引」研究報告經濟合作發展組織(Organisation for Economic Co-operation and Development,下稱OECD)於2023年11月公布「促進AI風險管理互通性的通用指引」(Common Guideposts To Promote Interoperability In AI Risk Management)研究報告(下稱「報告」),為2023年2月「高階AI風險管理互通框架」(High-Level AI Risk Management Interoperability Framework,下稱「互通框架」)之延伸研究。 報告中主要說明「互通框架」的四個主要步驟,並與國際主要AI風險管理框架和標準的風險管理流程進行比較分析。首先,「互通框架」的四個步驟分別為: 1. 「定義」AI風險管理範圍、環境脈絡與標準; 2. 「評估」風險的可能性與危害程度; 3. 「處理」風險,以停止、減輕或預防傷害; 4.「治理」風險管理流程,包括透過持續的監督、審查、記錄、溝通與諮詢、各參與者的角色和責任分配、建立問責制等作法,打造組織內部的風險管理文化。 其次,本報告指出,目前國際主要AI風險管理框架大致上與OECD「互通框架」的四個主要步驟一致,然因涵蓋範圍有別,框架間難免存在差異,最大差異在於「治理」功能融入框架結構的設計、其細項功能、以及術語等方面,惟此些差異並不影響各框架與OECD「互通框架」的一致性。 未來OECD也將基於上述研究,建立AI風險管理的線上互動工具,用以協助各界比較各種AI風險管理框架,並瀏覽多種風險管理的落實方法、工具和實踐方式。OECD的努力或許能促進全球AI治理的一致性,進而減輕企業的合規負擔,其後續發展值得持續追蹤觀察。