歐盟議會發布《可信賴人工智慧倫理準則》

  2019年4月9日,歐盟議會發布《可信賴人工智慧倫理準則》(Ethics Guidelines for Trustworthy AI)。此次內容大致延續歐盟人工智慧高階專家小組(High-level Expert Group on Artificial Intelligence)於2018年12月18日發布的《可信賴人工智慧倫理準則草案》(Draft Ethics Guidelines for Trustworthy Artificial Intelligence)之內容,要求人工智慧須遵守行善(do good)、不作惡(do no harm)、保護人類(preserve human Agency)、公平(be fair)與公開透明(operate transparency)等倫理原則;並在4月9日發布的正式內容中更加具體描述可信賴的人工智慧的具體要件,共計七面向概述如下:

  1. 人類自主性和監控(Human agency and oversight):AI係為強化人類能力而存在,使人類使用者能夠做出更明智的決策並培養自身的基礎能力。同時,AI應有相關監控機制以確保AI系統不會侵害人類自主性或是引發其他負面效果。本準則建議,監控機制應可透過人機混合(一種整合人工智慧與人類協作的系統,例如human-in-the-loop, human-on-the-loop, and human-in-command)的操作方法來實現。
  2. 技術穩健性和安全性(Technical Robustness and safety):為防止損害擴張與確保損害最小化,AI系統除需具備準確性、可靠性和可重複性等技術特質,同時也需在出現問題前訂定完善的備援計劃。
  3. 隱私和資料治理(Privacy and data governance):除了確保充分尊重隱私和資料保護之外,還必須確保適當的資料治理機制,同時考慮到資料的品質和完整性,並確保合法近用資料為可行。
  4. 透明度(Transparency):資料、系統和AI的商業模型應該是透明的。可追溯性機制(Traceability mechanisms)有助於實現這一目標。此外,應以利害關係人能夠理解的方式解釋AI系統的邏輯及運作模式。人類參與者和使用者需要意識到他們正在與AI系統進行互動,並且必須了解AI系統的功能和限制。
  5. 保持多樣性、不歧視和公平(Diversity, non-discrimination and fairness):AI不公平的偏見可能會加劇對弱勢群體的偏見和歧視,導致邊緣化現象更為嚴重。為避免此種情況,AI系統應該設計為所有人皆可以近用,達成使用者多樣性的目標。
  6. 社會和環境福祉(Societal and environmental well-being):AI應該使包含我們的後代在內的所有人類受益。因此AI必須兼顧永續發展、環境友善,並能提供正向的社會影響。 
  7. 問責制(Accountability):應建立機制以妥當處理AI所導致的結果的責任歸屬,演算法的可審計性(Auditability)為關鍵。此外,應確保補救措施為無障礙設計。

相關附件
※ 歐盟議會發布《可信賴人工智慧倫理準則》, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8248&no=57&tp=1 (最後瀏覽日:2025/12/12)
引註此篇文章
你可能還會想看
日本公布「資料與競爭政策檢討會報告書」並探討資料收集利用違反《獨占禁止法》行為

  近年來,受到物聯網和人工智慧技術高度發展影響,大數據的重要性逐漸提昇。為避免資料不當收集和資料被不當佔據等可能妨礙競爭之行為,以利業者透過資料收集、累積和分析等方式,創造出新的產業價值,日本公平交易委員會於競爭政策研究中心設置「資料與競爭政策檢討會」,自2017年1月至6月間舉辦數次檢討會,並於2017年6月6日公布《資料與競爭政策檢討會報告書》。該書一共5章,內容為第1章檢討背景,第2章回顧資料環境變化與利用現狀,第3章檢討現今競爭政策及《獨占禁止法》,第4章資料收集、利用相關行為,以及第5章企業結合審查等與資料利用相關之事項。    報告書指出,業者不當收集資料和不當佔據資料等行為,均有適用《獨占禁止法》之可能。前者係指具有優勢地位的業者,利用關係要求有業務往來的企業提供資料等行為,如原本只需要性別和年齡資訊,卻額外要求對方提供住所、電話等訊息;後者則係指業者利用不正當方法與顧客聯繫,排除其他競爭者等行為,如排他性交易、拒絕交易、差別待遇等。

美國政府管考辦公室提出醫療產業資訊化政策評價報告

  美國之政府管考辦公室( Government Accountability Office )針對聯邦政府推動醫療產業導入資訊應用之相關措施及作為,九月初向參議院政府再造委員會( Committee on Government Reform, House of Representatives )下轄之聯邦人事暨組織次委員會( the Subcommittee on Federal Workforce and Agency Organization )提出報告,綜合回顧 2004 以來之各項政策宣示及執行規劃,指出目前猶有未足之處以及今後適宜更加留意之方向。   簡言之,醫療產業導入資訊應用,可望帶來降低營運成本,提升經營效率,防免發生過誤,維護病患安全等諸多實益,已為各界所共認。另由於聯邦政府介入醫療產業之程度與影響層面既深且廣,不僅本諸規制角度主管產業,更推動諸多施政,投入大量資金,提供老人、傷殘、兒童、低收入戶、原住民、退伍軍人、退休公職人員等不同社會族群各式相關服務,從而責成聯邦政府領銜推動醫療產業導入資訊應用,藉此提升醫療之品質及效率,應屬妥適。   自 2004 年提出行動綱領以降,聯邦政府即已陸續接櫫各項目標及其實施策略,並區分病歷資料格式、傳輸互通標準、網路基礎架構、隱私安全議題、公衛服務整合等面向分別開展,獲致相當成效。惟據管考辦公室之分析,既有之政策措施及各項作為,似乏詳盡之細部規劃及具體之實踐要項可資遵循,亦無妥善之績效評比指標以利參考。由是觀之,迄今之努力及其成果固值稱許,然就 2014 年普遍採用電子病歷並且得以交流互通之願景而言,還有很多需要努力的地方。

英國通過《2018自動與電動車法》

  英國於2018年7月通過自動與電動車法(Automated and Electric Vehicles Act 2018),對自動與電動車輛之定義、保險議題以及電動車充電基礎設施進行規範。   針對自駕車之保險議題,該法採取「單一保險人模式」(Single Insurer Model),無論是駕駛人自行駕駛或自動駕駛,駕駛人均應購買自駕車保險,讓所有用路人對於可能之安全事故均有保險可涵蓋並追溯責任。本法其他重要規定如下; 本法未直接賦予自駕車(Automated vehicle)明確定義,管理方式係由主管機關自行認定並建立清單。本法僅要求清單內之車輛應設計或調整為至少於某些特定狀況能安全行駛之自動駕駛模式。 已納保之自駕車行駛時所造成之損害,將由車輛之承保公司負擔損害賠償責任。 未納保之自駕車若發生事故,則車主應負擔損害賠償責任。 若由保險人負損害賠償責任,則受害人將可依現行法規提出損害賠償請求。保險人則可依普通法與產品責任相關規定,向應對事故負責之單位或個人提出損害賠償請求。   於電動車充電基礎設施之部分,該法之目的則是確保公共充電站適用於所有市面上之電動車輛,並就費用、付費方式以及相關安全標準進行規範,以增進消費者之信任。該法第20條並授權主管機關訂定相關授權辦法,以達上述目標。

英國政府公布物聯網設備安全設計報告,提出製造商應遵循之設計準則草案

  英國數位、文化、媒體暨體育部於2018年3月8日公布「安全設計(Secure by Design)」報告,此報告目的在於使IoT設備製造商於製程中即採取具有安全性之設計,以確保用戶之資訊安全。   此報告中包含了一份經英國國家網路安全中心(National Cyber Security Centre, NCSC)、製造商及零售商共同討論後,提出之可供製造商遵循之行為準則(Code of Practice)草案。   此行為準則中指出,除設備製造商之外,其他包含IoT服務提供者、行動電話軟體開發者與零售商等也是重要的利益相關人。   其中提出了13項行為準則:1. 不應設定預設密碼(default password);2. 應實施漏洞揭露政策;3. 持續更新軟體;4. 確保機密與具有安全敏感性的資訊受到保護;5. 確保通訊之安全;6. 最小化可能受到攻擊的區域;7. 確保軟體的可信性;8. 確保個資受到妥善保障;9. 確保系統對於停電事故具有可回復性;10. 監督自動傳輸之數據;11. 使用戶以簡易的方式刪除個人資訊;12. 使設備可被容易的安裝與維護;13. 應驗證輸入之數據。   此草案將接受公眾意見,並於未來進一步檢視是否應立相關法律。

TOP