歐盟議會發布《可信賴人工智慧倫理準則》

  2019年4月9日,歐盟議會發布《可信賴人工智慧倫理準則》(Ethics Guidelines for Trustworthy AI)。此次內容大致延續歐盟人工智慧高階專家小組(High-level Expert Group on Artificial Intelligence)於2018年12月18日發布的《可信賴人工智慧倫理準則草案》(Draft Ethics Guidelines for Trustworthy Artificial Intelligence)之內容,要求人工智慧須遵守行善(do good)、不作惡(do no harm)、保護人類(preserve human Agency)、公平(be fair)與公開透明(operate transparency)等倫理原則;並在4月9日發布的正式內容中更加具體描述可信賴的人工智慧的具體要件,共計七面向概述如下:

  1. 人類自主性和監控(Human agency and oversight):AI係為強化人類能力而存在,使人類使用者能夠做出更明智的決策並培養自身的基礎能力。同時,AI應有相關監控機制以確保AI系統不會侵害人類自主性或是引發其他負面效果。本準則建議,監控機制應可透過人機混合(一種整合人工智慧與人類協作的系統,例如human-in-the-loop, human-on-the-loop, and human-in-command)的操作方法來實現。
  2. 技術穩健性和安全性(Technical Robustness and safety):為防止損害擴張與確保損害最小化,AI系統除需具備準確性、可靠性和可重複性等技術特質,同時也需在出現問題前訂定完善的備援計劃。
  3. 隱私和資料治理(Privacy and data governance):除了確保充分尊重隱私和資料保護之外,還必須確保適當的資料治理機制,同時考慮到資料的品質和完整性,並確保合法近用資料為可行。
  4. 透明度(Transparency):資料、系統和AI的商業模型應該是透明的。可追溯性機制(Traceability mechanisms)有助於實現這一目標。此外,應以利害關係人能夠理解的方式解釋AI系統的邏輯及運作模式。人類參與者和使用者需要意識到他們正在與AI系統進行互動,並且必須了解AI系統的功能和限制。
  5. 保持多樣性、不歧視和公平(Diversity, non-discrimination and fairness):AI不公平的偏見可能會加劇對弱勢群體的偏見和歧視,導致邊緣化現象更為嚴重。為避免此種情況,AI系統應該設計為所有人皆可以近用,達成使用者多樣性的目標。
  6. 社會和環境福祉(Societal and environmental well-being):AI應該使包含我們的後代在內的所有人類受益。因此AI必須兼顧永續發展、環境友善,並能提供正向的社會影響。 
  7. 問責制(Accountability):應建立機制以妥當處理AI所導致的結果的責任歸屬,演算法的可審計性(Auditability)為關鍵。此外,應確保補救措施為無障礙設計。

相關附件
※ 歐盟議會發布《可信賴人工智慧倫理準則》, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8248&no=57&tp=1 (最後瀏覽日:2025/12/02)
引註此篇文章
你可能還會想看
從「梅花烙」與「宮鎖連城」著作權侵權糾紛案看劇本實質近似之判斷方式

英國資訊委員辦公室(ICO)針對COVID-19接觸史追蹤應用程式框架,發布意見報告

  英國資訊委員辦公室(Information Commissioner’s Office, ICO)於2020年4月17日,依據英國資料保護法(Data Protection Act 2018)第115條第3項第b款之授權,針對2020年4月10日Apple和Google因應COVID-19疫情發表之「接觸史追蹤應用程式框架」(Contacting Tracing Framework, CTF),發布意見報告。報告認為,由於CTF具備以下三大特性:(1)不會在裝置間交換個人資料,如帳戶資訊或使用者名稱;(2)配對過程僅在裝置本身進行,並不會有如應用程式伺服器之第三方介入;(3)不需要地理位置資訊就能順利運作,因此符合英國資料保護法第57條有關「透過設計並作為預設以保護個人資料」(Data protection by design and default)之規定。   縱然CTF符合英國資料保護法之規定,英國資訊委員辦公室仍於報告中指出:「未來軟體開發商若於接觸史追蹤應用程式中使用CTF技術,該應用程式於處理使用者之個人資料時,仍應隨時符合英國資料保護法關於透過設計並作為預設以保護個人資料之規定。」COVID-19疫情席捲全球,如何於「掌握感染者接觸史以預防疫情擴散」與「保障個人資料及隱私」間取得平衡,實為各國政府需考量之重要議題。我國人工智慧實驗室於2020年4月開發之「社交距離App」,便是使用類似Apple和Google之CTF技術。此份英國資訊委員辦公室意見報告,等於針對社交距離App是否侵害隱私權益,提供相當解答與指引。

歐盟第七期研發綱要計畫定案,有條件支持幹細胞研究

  歐盟日前正在加緊腳步為第七期研發綱要計畫( R&D Framework 2007-2013 )之規劃定案,與此同時,歐盟研發經費究竟應該如何挹注也成為討論焦點。歐洲議會產業研究暨能源委員會( Industry, Research and Energy (ITRE) Committee )最近通過第七期研發綱要計畫的預算,預算額度雖然從原本規劃的 72 億歐元減至約 54.5 億歐元左右,但相較於第七期研發綱要計畫,該經費仍成長許多。   此外 ITRE 也決定,基於倫理考量,以下的科技研究領域將無法獲得歐盟補助:複製人、人類基因體的遺傳性改變( heritable modifications of the human genome )、為取得幹細胞進行研究而複製人類胚胎。與此同時, ITRE 也重申,歐盟經費可以用於補助人類幹細胞的研究,只要幹細胞的來源不是經由複製人類胚胎兒取得,但研究者必須切實遵守會員國之相關科技政策及法令規定,研究之進行並應依法予以嚴格審核。   ITRE 前述決定目前已提交歐洲議會討論,預計在六月底前歐洲議會即可就此表決。儘管歐盟希望未來在第七期的研發綱要計畫期間內,對幹細胞研究仍延續其目前所採的政策 -- 資助一部份的幹細胞研究但禁止使用複製的幹細胞進行研究(目前歐盟會員國中,僅英國、瑞典、比利時三會員國允許複製胚胎幹細胞),惟由於幹細胞研究議題甚為敏感,且 2004 年 5 月 1 日 新加入的東歐會員國,其大多數在歐洲議會的代表都是天主教徒,故而有關幹細胞研究的議題,恐怕仍有一場激辯。

美國政府管考辦公室提出醫療產業資訊化政策評價報告

  美國之政府管考辦公室( Government Accountability Office )針對聯邦政府推動醫療產業導入資訊應用之相關措施及作為,九月初向參議院政府再造委員會( Committee on Government Reform, House of Representatives )下轄之聯邦人事暨組織次委員會( the Subcommittee on Federal Workforce and Agency Organization )提出報告,綜合回顧 2004 以來之各項政策宣示及執行規劃,指出目前猶有未足之處以及今後適宜更加留意之方向。   簡言之,醫療產業導入資訊應用,可望帶來降低營運成本,提升經營效率,防免發生過誤,維護病患安全等諸多實益,已為各界所共認。另由於聯邦政府介入醫療產業之程度與影響層面既深且廣,不僅本諸規制角度主管產業,更推動諸多施政,投入大量資金,提供老人、傷殘、兒童、低收入戶、原住民、退伍軍人、退休公職人員等不同社會族群各式相關服務,從而責成聯邦政府領銜推動醫療產業導入資訊應用,藉此提升醫療之品質及效率,應屬妥適。   自 2004 年提出行動綱領以降,聯邦政府即已陸續接櫫各項目標及其實施策略,並區分病歷資料格式、傳輸互通標準、網路基礎架構、隱私安全議題、公衛服務整合等面向分別開展,獲致相當成效。惟據管考辦公室之分析,既有之政策措施及各項作為,似乏詳盡之細部規劃及具體之實踐要項可資遵循,亦無妥善之績效評比指標以利參考。由是觀之,迄今之努力及其成果固值稱許,然就 2014 年普遍採用電子病歷並且得以交流互通之願景而言,還有很多需要努力的地方。

TOP