法國國家資訊自由委員會(CNIL)於2023年10月16日至11月16日進行「人工智慧操作指引」(AI how-to sheets)(下稱本指引)公眾諮詢,並宣布將於2024年初提出正式版本。本指引主要說明AI系統資料集建立與利用符合歐盟一般資料保護規則(GDPR)之作法,以期在支持人工智慧專業人士創新之外,同時能兼顧民眾權利。
人工智慧操作指引主要內容整理如下:
1.指引涵蓋範圍:本指引限於AI開發階段(development phase),不包含應用階段(deployment phase)。開發階段進一步可分為三階段,包括AI系統設計、資料蒐集與資料庫建立,以及AI系統學習與訓練。
2.法律適用:當資料處理過程中包含個人資料時,人工智慧系統的開發與設計都必須確定其適用的法律規範為何。
3.定義利用目的:CNIL強調蒐集及處理個資時應該遵守「明確」、「合法」、「易懂」之原則,由於資料應該是基於特定且合法的目的而蒐集的,因此不得以與最初目的不相符的方式進一步處理資料。故明確界定人工智慧系統之目的為何,方能決定GDPR與其他原則之適用。
4.系統提供者的身分:可能會是GDPR中的為資料控管者(data controller)、共同控管者(joint controller)以及資料處理者(data processor)。
5.確保資料處理之合法性:建立AI系統的組織使用的資料集若包含個人資料,必須確保資料分析與處理操作符合GDPR規定。
6.必要時進行資料保護影響評估(DIPA)。
7.在系統設計時將資料保護納入考慮:包含建立系統主要目標、技術架構、識別資料來源與嚴格篩選使用…等等。
8.資料蒐集與管理時皆須考慮資料保護:具體作法包含資料蒐集須符合GDPR、糾正錯誤、解決缺失值、整合個資保護措施、監控所蒐集之資料、蒐集之目的,以及設定明確的資料保留期限,實施適當的技術和組織措施以確保資料安全等。
對於AI相關產業從事人員來說,更新AI相關規範知識非常重要,CNIL的人工智慧操作指引將可協助增強AI產業對於個資處理複雜法律問題的理解。
德國聯邦藥品暨醫療器材管理署(Bundesinstitut für Arzneimittel und Medizinprodukte, BfArM)於2022年3月18日發布3.1版《數位健康應用程式指引》(Digitale Gesundheitsanwendungen(DiGA) Leitfaden),主要針對3.0版未詳盡之「系統數據分析」(Systematische Datenauswertung)部分作補充說明(參考資料四,頁152以下)。 德國於2019年12月即透過《數位化創新醫療服務法》(Digitale-Versorgung-Gesetz, DVG)修訂《社會法典》第五編(Sozialgesetzbuch Fünftes Buch, SGB V)關於法定健康保險之規定,賦予數位療法(Digital Therapeutics, DTx)納保給付的法律基礎,BfArM並透過《數位健康應用程式管理辦法》(Digitale Gesundheitsanwendungen-Verordnung – DiGAV)建構處方數位療法(Prescription Digital Therapeutics, PDT)的管理架構並發布DiGA指引,使數位療法得以快速被納入法定健康保險給付範圍。 開發商之數位健康應用程式取得歐盟醫療器材規則(Medical device regulation, MDR)CE Mark I & IIa級認證之後,得向BfArM提交申請,若該應用程式「符合法規要求」(Anforderungen),並具有「積極醫療效果」(Positive Versorgunseffekte),則該應用程式最快可以在三個月取得永久許可,通過許可將被列入DiGA目錄(DiGA-Verzeichnis)當中;而若僅「符合法規要求」則會被暫時收錄,需在十二個月內補上「積極醫療效果」的證據或報告,以取得永久許可,否則會從DiGA目錄中刪除。DiGA目錄中的應用程式(包含臨時許可)會納入單一支付標準(Einheitlicher Bewertungsmaßstab, EBM),法定健康保險將依該標準表列之金額給付給製造商。 目前DiGA目錄上共有36款應用程式,當中13款取得永久許可、19款取得臨時許可、另有4款被刪除;三分之一的應用程式係用於治療焦慮或憂鬱等精神疾病,其他尚包括治療耳鳴或肥胖症等疾病。病患近用DiGA目錄中之應用程式的途徑有二:透過醫師開立處方,或是依照醫師診斷之病症自行在DiGA目錄中查找對應的應用程式後提交處方申請。法定健康保險將會依照該應用程式被使用之次數,對照EBM所列之價額後,給付費用予開發商。 本文同步刊載於stli生醫未來式網站(https://www.biotechlaw.org.tw)
歐盟聯合研究中心公布智慧電網計畫及智慧電表部署的成本效益分析指導原則智慧電網是歐洲未來低碳能源政策的核心議題,但要更新整個電力系統所費不貲,根據國際能源署(International Energy Agency, IEA)研究指出,從2007年至2030年,若要從生產、輸電到配電全部更新,需要花費1.5兆歐元(EUR 1.5 trillion),故基於投資的考量,有必要依據電網示範計畫所獲得的實際數據,來評估智慧電網發展的成本效益。因此,歐盟聯合研究中心(Joint Research Centre, JRC)分析了歐洲過去及現在正在進行的智慧電網示範計畫的成果,提出全面性的成本效益分析(cost-benefit analysis, CBA)評估架構,並選定葡萄牙InovGrid計畫作為參考實例以調整相關內容,於2012年初公布「智慧電網計畫的成本效益分析指導原則(Guidelines for conduction a cost-benefit analysis of Smart Grid projects,以下簡稱「智慧電網CBA指導原則」)」。 這是第一次具體的將CBA使用在智慧電網的實際案例評估之上,「智慧電網CBA指導原則」是為協助使用者分析不同地區的考量因素,以瞭解利益與成本,並分析關鍵要素,包括計畫的規模大小(例如每年接受服務的消費者、能源消費等)、工程特色(例如所採用的技術、主要設備的功能性)、電網當地特色、利益關係者(哪些人的成本及利益應納入考慮)、計畫的明確目的及預期對社會經濟的衝擊,以瞭解像分散式能源整合的可能性、電價及租稅的衝擊、環境成本等。「智慧電網CBA指導原則」是在提供建議,依據電力研究機構(Electric Power Research Institute, EPRI)的研究框架,逐步地提供了評估架構,作為分析考量時的核對清單。由於納入了地區性因素的考量,因此分析的結果最終將取決於各計畫的開發者及相關決策者的專業判斷。 此外,JRC亦公布「智慧電表部署的成本效益分析指導原則(Guidelines for conduction a cost-benefit analysis of Smart Metering Deployment,以下簡稱「智慧電表CBA指導原則」)」。「智慧電表CBA指導原則」之內容主要提供會員國在評估智慧電表的部署時,有一套分析的標準。如同「智慧電網CBA指導原則」一般,「智慧電表CBA指導原則」亦考量計畫規模、工程特色、電網當地特色、利益關係者、計畫的明確目的及預期對社會經濟的衝擊等因素,但非針對不同地區提供細節性的指示,因此仍須仰賴各計畫的開發者及相關決策者的專業判斷,以評估智慧電表部署的可行性。
世界經濟論壇發布《人工智慧公平性和包容性藍圖》白皮書世界經濟論壇(World Economic Forum, WEF)於2022年6月29日發布《人工智慧公平性和包容性藍圖》白皮書(A Blueprint for Equity and Inclusion in Artificial Intelligence),說明在AI開發生命週期和治理生態系統中,應該如何改善公平性和強化包容性。根據全球未來人類AI理事會(Global Future Council on Artificial Intelligence for Humanity)指出,目前AI生命週期應分為兩個部分,一是管理AI使用,二是設計、開發、部署AI以滿足利益相關者需求。 包容性AI不僅是考量技術發展中之公平性與包容性,而是需整體考量並建立包容的AI生態系統,包括(1)包容性AI基礎設施(例如運算能力、資料儲存、網路),鼓勵更多技術或非技術的人員有能力參與到AI相關工作中;(2)建立AI素養、教育及意識,例如從小開始開啟AI相關課程,讓孩子從小即可以從父母的工作、家庭、學校,甚至玩具中學習AI系統對資料和隱私的影響並進行思考,盡可能讓使其互動的人都了解AI之基礎知識,並能夠認識其可能帶來的風險與機會;(3)公平的工作環境,未來各行各業需要越來越多多元化人才,企業需拓寬與AI相關之職位,例如讓非傳統背景人員接受交叉培訓、公私協力建立夥伴關係、提高員工職場歸屬感。 在設計包容性方面,必須考慮不同利益相關者之需求,並從設計者、開發者、監督機關等不同角度觀察。本報告將包容性AI開發及治理整個生命週期分為6個不同階段,期望在生命週期中的每個階段皆考量公平性與包容性: 1.了解問題並確定AI解決方案:釐清為何需要部署AI,並設定希望改善的目標變量(target variable),並透過制定包容性社會參與框架或行為準則,盡可能實現包容性社會參與(特別是代表性不足或受保護的族群)。 2.包容性模型設計:設計時需考慮社會和受影響的利益相關者,並多方考量各種設計決策及運用在不同情況時之公平性、健全性、全面性、可解釋性、準確性及透明度等。 3.包容性資料蒐集:透過設計健全的治理及隱私,確定更具包容性的資料蒐集路徑,以確保所建立之模型能適用到整體社會。 4.公平和包容的模型開發及測試:除多元化開發團隊及資料代表性,組織也應引進不同利益相關者進行迭代開發與測試,並招募測試組進行測試與部署,以確保測試人群能夠代表整體人類。且模型可能隨著時間發展而有變化,需以多元化指標評估與調整。 5.公平地部署受信任的AI系統,並監控社會影響:部署AI系統後仍應持續監控,並持續評估可能出現新的利益相關者或使用者,以降低因環境變化而可能產生的危害。 6.不斷循環發展的生命週期:不應以傳統重複循環過程看待AI生命週期,而是以流動、展開及演變的態度,隨時評估及調整,以因應新的挑戰及需求,透過定期紀錄及審查,隨時重塑包容性AI生態系統。 綜上,本報告以包容性AI生態系統及生命週期概念,期望透過基礎設施、教育與培訓、公平的工作環境等,以因應未來無所不在的AI社會與生活,建立公司、政府、教育機構可以遵循的方向。
歐盟發佈「降低高速電子通訊網路建置成本」草案