歐盟議會發布《可信賴人工智慧倫理準則》

  2019年4月9日,歐盟議會發布《可信賴人工智慧倫理準則》(Ethics Guidelines for Trustworthy AI)。此次內容大致延續歐盟人工智慧高階專家小組(High-level Expert Group on Artificial Intelligence)於2018年12月18日發布的《可信賴人工智慧倫理準則草案》(Draft Ethics Guidelines for Trustworthy Artificial Intelligence)之內容,要求人工智慧須遵守行善(do good)、不作惡(do no harm)、保護人類(preserve human Agency)、公平(be fair)與公開透明(operate transparency)等倫理原則;並在4月9日發布的正式內容中更加具體描述可信賴的人工智慧的具體要件,共計七面向概述如下:

  1. 人類自主性和監控(Human agency and oversight):AI係為強化人類能力而存在,使人類使用者能夠做出更明智的決策並培養自身的基礎能力。同時,AI應有相關監控機制以確保AI系統不會侵害人類自主性或是引發其他負面效果。本準則建議,監控機制應可透過人機混合(一種整合人工智慧與人類協作的系統,例如human-in-the-loop, human-on-the-loop, and human-in-command)的操作方法來實現。
  2. 技術穩健性和安全性(Technical Robustness and safety):為防止損害擴張與確保損害最小化,AI系統除需具備準確性、可靠性和可重複性等技術特質,同時也需在出現問題前訂定完善的備援計劃。
  3. 隱私和資料治理(Privacy and data governance):除了確保充分尊重隱私和資料保護之外,還必須確保適當的資料治理機制,同時考慮到資料的品質和完整性,並確保合法近用資料為可行。
  4. 透明度(Transparency):資料、系統和AI的商業模型應該是透明的。可追溯性機制(Traceability mechanisms)有助於實現這一目標。此外,應以利害關係人能夠理解的方式解釋AI系統的邏輯及運作模式。人類參與者和使用者需要意識到他們正在與AI系統進行互動,並且必須了解AI系統的功能和限制。
  5. 保持多樣性、不歧視和公平(Diversity, non-discrimination and fairness):AI不公平的偏見可能會加劇對弱勢群體的偏見和歧視,導致邊緣化現象更為嚴重。為避免此種情況,AI系統應該設計為所有人皆可以近用,達成使用者多樣性的目標。
  6. 社會和環境福祉(Societal and environmental well-being):AI應該使包含我們的後代在內的所有人類受益。因此AI必須兼顧永續發展、環境友善,並能提供正向的社會影響。 
  7. 問責制(Accountability):應建立機制以妥當處理AI所導致的結果的責任歸屬,演算法的可審計性(Auditability)為關鍵。此外,應確保補救措施為無障礙設計。

相關附件
※ 歐盟議會發布《可信賴人工智慧倫理準則》, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8248&no=67&tp=1 (最後瀏覽日:2025/11/24)
引註此篇文章
你可能還會想看
美國白宮呼籲採取行動,打擊利用AI生成影像進行之性虐待行為

美國白宮於2024年5月23日公開呼籲採取行動以打擊利用AI生成性影像,及未經當事人同意傳播真實影像的性虐待行為。此次呼籲源自白宮「解決線上騷擾與虐待問題工作小組」(Task Force to Address Online Harassment and Abuse)相關行動、總統第14110號行政命令-「安全、可靠且可信任之AI開發及利用」(Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence),以及尖端AI公司自願管理AI風險之承諾(Voluntary AI Commitments)。 白宮指出,迄今為止生成式AI已淪為性虐待的主要工具,同時,涉及未經同意散布或威脅散布私人性影像,亦將對受害者造成嚴重的心理傷害。白宮呼籲相關利害關係人透過自願性承諾,預防與減輕性虐待影像之影響,如: (1)阻止性虐待影像獲利: 對於從事性虐待影像業務的網站或應用程式,支付平臺與金融機構可限制或拒絕對其提供支付服務。 (2)停止創建深偽性虐待影像 : 對於可透過AI生成性影像之網路服務或應用程式,雲端服務供應商與應用程式商店得減少此類網路服務或應用程式運作。此外,應用程式商店可要求應用程式開發人員採取措施,防止使用者製作非經當事人同意的AI生成性影像。 (3)防止散播性虐待影像: 應用程式與作業系統開發人員可啟用技術保護措施,以保護數位裝置上儲存之內容,防止未經當事人同意分享其影像。 (4)支援並參與為受害者提供有效補救措施之服務: 平臺與利害關係人可選擇與相關組織合作,使性虐待影像受害者可輕鬆且安全地從線上平臺中刪除未經同意之內容。此外,白宮亦呼籲國會修訂於2022年重新授權之「婦女暴力防制法」(Violence Against Women Act Reauthorization),延續並加強原有法律保護效力,同時為AI生成之性虐待影像的受害者提供關鍵援助資源。

英國綠色投資銀行即將上路

  英國財政大臣(Chancellor of the Exchequer)George Osborne日前於今(2011)年3月23日發表財政報告時宣佈,英國綠色投資銀行(UK Green Investment Bank, GIB)預計於2012年開始正式對外營業,且其開放對象為各相關產業。而未來英國GIB之營業項目,主要將針對具有高度風險,或是市場成本回收需要長時間等待之相關低碳企劃案進行經費補助,同時亦進一步制定二氧化碳排放價格。   早在2009年2月時,英國三大非營利組織團體E3G、Friends of the Earth、以及Climate Change Capital即共同發表一份聯合聲明提議成立綠色投資銀行,以鼓勵發展低碳經濟。然而,該份提議報告乃至2010年3月才正式獲得政府相關人士的重視,因其意識到綠色投資銀行之成立,也許能符合當前英國對於基礎設施與能源發展之需求。不過,對於綠色投資銀行是否成立之辯論,乃持續到今年3月才正式拍板定案,根據上述之政府財政報告,英國政府計劃於該投資銀行成立後,投注3億英鎊經費投資相關低碳企劃案之推行,並預計於2015年時,另外由私部門投注15億英磅補助相關企劃案,而其經費補助對象層面將以相關產品市場(market)為主。   英國能源與氣候變遷部(Department of Energy and Climate Change)國務卿(Secretary of State)Chris Huhne表示,綠色投資銀行成立後,在結合來自各方之穩定資金下,必能藉由投資綠色能源研發之方式,創造一個穩定且平衡的經濟成長。同時,相關政府單位亦期盼,未來綠色投資銀行除了能提供政府相關領域之經費分配,與研發技術之建議外,亦能以創造具商業價值之產品,達到分散私人投資風險之目的。

菲律賓推動基改稻米 窒礙難行

  根據國際間重要農糧組織ISAAA(International Service for the Acquisition of Agri-Biotech Applications)所公布的2004年統計報告,全球基改作物栽種面積已達八千一百萬公頃,在2003年僅有六千七百萬公頃,成長幅度高達20%,尤其是在開發中國家。菲律賓是亞洲第一個支持商業化生產基因改造食物的國家,從2000年起即開始商業交易基因改造作物。由於其所研發之轉殖”IR-72”稻米品種栽培並不普遍,也未被消費者、農夫及麵粉業者廣泛地接受,因此不合適商業化生產,雖然菲律賓嘗試其他較受歡迎的品種來進行基改轉殖,但迄今尚未成功。   基於基因稻米對於環境安全和人體健康所帶來的影響是無法預知的,綠色和平組織抗議菲律賓政府加速推動生技農作物的計畫。菲律賓所面臨的挑戰不單僅是綠色和平的抗議,另一個因素因為氣候的不穩定而影響了稻米的產量,今年生產量僅148萬噸,距離目標?151萬噸,因此仍需仰賴進口稻米來彌補這不足的差距。   菲律賓稻米研究中心執行長Leo Sebastian認為,基改稻米並不是解決稻米供應不足的唯一方式,引介栽種高生產量的稻米品種或者改善灌溉系統等都是可行的方式。

美國國防部「人工智慧國防運用倫理準則」

  美國國防部(Department of Defense)於2020年2月採納由美國國防創新委員會(Defense Innovation Board, DIB)所提出之「人工智慧國防運用倫理準則(AI Principles: Recommendations on the Ethical Use of Artificial Intelligence by the Department of Defense)」,以衡平倫理與人工智慧於國防帶來之增益。   美國國防創新委員會為美國聯邦政府下之獨立委員會,設置目的在於依美國新創科技,提供意見予美國國防部,與美國國防部並無隸屬關係。有鑑於人工智慧之運用範疇日益增廣,美國國防創新委員會遂提出旨揭「人工智慧國防運用倫理準則」,以因應人工智慧於國防之應用所產生之問題。   倫理準則適用於「戰爭或非戰爭用途之人工智慧之設計以及應用」,對於「人工智慧」之定義,倫理準認為人工智慧並無精確之範疇,只要「對於資訊有所處理並旨在達到所賦予任務之資訊系統」,皆為本準則下之人工智慧。倫理準則指出,「人工智慧」與美國國防部3000.09指令下之「自動化武器系統(Autonomous Weapon System)」之定義不同,但有可能重疊,而所謂「自動化武器系統」為「一經人類選擇啟動,即可在無人類監督之情形下,自動針對目標進行鎖定或進行攻擊之自動化武器系統」。   美國國防創新委員會表示,該準則旨在切合美國既有憲法、法律、國際公約之傳統標準下,融入現代化對於人工智慧之要求,如國際公約中之戰爭法(Law of War)即為本準則之傳統標準之一,舉例而言,如人工智慧被裝置於武器中,其設計及應用應符合最小傷亡原則、避免傷及無辜原則等。   除此之外,準則亦包含以下現代化對於人工智慧之要求:(1)人類對於人工智慧系統之設計、應用以及使用應善盡判斷以及注意義務,且人類應該對於人工智慧系統因瑕疵所帶來之傷害負擔最終責任;(2)對於目標之選擇或分類,應維持公平性,且不得有歧視性;(3)對於人工智慧之設計、應用以及使用,應有明確之工程標準以及資料保存程序,此一工程標準以及資料保存程序應為一般具有專業知識之工程人員可據以理解、分析、追蹤問題所在並加以改善;(4)「戰爭或非戰爭用途之人工智慧」應有明確之應用領域,且完善之檢測、維修,應適用於該人工智慧之全部生命週期。

TOP