歐盟議會發布《可信賴人工智慧倫理準則》

  2019年4月9日,歐盟議會發布《可信賴人工智慧倫理準則》(Ethics Guidelines for Trustworthy AI)。此次內容大致延續歐盟人工智慧高階專家小組(High-level Expert Group on Artificial Intelligence)於2018年12月18日發布的《可信賴人工智慧倫理準則草案》(Draft Ethics Guidelines for Trustworthy Artificial Intelligence)之內容,要求人工智慧須遵守行善(do good)、不作惡(do no harm)、保護人類(preserve human Agency)、公平(be fair)與公開透明(operate transparency)等倫理原則;並在4月9日發布的正式內容中更加具體描述可信賴的人工智慧的具體要件,共計七面向概述如下:

  1. 人類自主性和監控(Human agency and oversight):AI係為強化人類能力而存在,使人類使用者能夠做出更明智的決策並培養自身的基礎能力。同時,AI應有相關監控機制以確保AI系統不會侵害人類自主性或是引發其他負面效果。本準則建議,監控機制應可透過人機混合(一種整合人工智慧與人類協作的系統,例如human-in-the-loop, human-on-the-loop, and human-in-command)的操作方法來實現。
  2. 技術穩健性和安全性(Technical Robustness and safety):為防止損害擴張與確保損害最小化,AI系統除需具備準確性、可靠性和可重複性等技術特質,同時也需在出現問題前訂定完善的備援計劃。
  3. 隱私和資料治理(Privacy and data governance):除了確保充分尊重隱私和資料保護之外,還必須確保適當的資料治理機制,同時考慮到資料的品質和完整性,並確保合法近用資料為可行。
  4. 透明度(Transparency):資料、系統和AI的商業模型應該是透明的。可追溯性機制(Traceability mechanisms)有助於實現這一目標。此外,應以利害關係人能夠理解的方式解釋AI系統的邏輯及運作模式。人類參與者和使用者需要意識到他們正在與AI系統進行互動,並且必須了解AI系統的功能和限制。
  5. 保持多樣性、不歧視和公平(Diversity, non-discrimination and fairness):AI不公平的偏見可能會加劇對弱勢群體的偏見和歧視,導致邊緣化現象更為嚴重。為避免此種情況,AI系統應該設計為所有人皆可以近用,達成使用者多樣性的目標。
  6. 社會和環境福祉(Societal and environmental well-being):AI應該使包含我們的後代在內的所有人類受益。因此AI必須兼顧永續發展、環境友善,並能提供正向的社會影響。 
  7. 問責制(Accountability):應建立機制以妥當處理AI所導致的結果的責任歸屬,演算法的可審計性(Auditability)為關鍵。此外,應確保補救措施為無障礙設計。

相關附件
※ 歐盟議會發布《可信賴人工智慧倫理準則》, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8248&no=57&tp=1 (最後瀏覽日:2026/03/06)
引註此篇文章
你可能還會想看
化學奈米 將改善人類生活

  為勾勒人類未來生活型態,英國將在新堡( New Castle )投入約新台幣 150 億元建立一科學城,預定五年內整合化學、奈米、微機電及醫療技術整合。這座科學城是一座整合科學及產業技術的場所,由業界及政府共同支持,科學城內將成立三大研究機構,分別進行幹細胞研究、老年人健康、分子工程,及環境能源的改善。   英國皇家工程院院士雷蒙奧立佛( Raymond Oliver F.R.Eng )是這座科學城的主要規劃人,他指出,人類生活在下一個 20 年將出現四項結構性的現象:一是人口老化,二是個人化產品的普及,三是智慧型生活空間的出現,四是再生能源出現。面對這四大現象的普及,化工業者可以找到兩個發展方向,一是利用化學來提高醫療生活品質;二是利用化學來創造更自然的智慧型生活空間。   以醫療生活品質而言,化學可以進一步和幹細胞研究結合,並透過奈米技術發展出奈米級醫療電子產品,包括影像攝影取代藥物的人體臨床實驗,或是透過紅外線體外照射,讓硫化鎘等化學藥物能在體內直接殺死癌細胞 ; 在奈米材料方面,雷蒙指出,已有廠商研究出適合老人駕駛的汽車,這類汽車從空調、氣味,到生理資訊的偵測,都能配合老人較易疲勞的體質去設計。

美國「能源效率改革法案」簡介

歐盟提出人工智慧法律調和規則草案

  歐盟執委會(European Commission)於2021年4月21日提出「人工智慧法律調和規則草案」(Proposal for a Regulation Laying Down Harmonised Rules on Artificial Intelligence (Artificial Intelligence Act) and Amending Certain Union Legislative Acts)(簡稱AI規則草案),旨在平衡「AI運用所帶來的優勢」與「AI對個人或社會所帶來的潛在負面衝擊」,促使會員國在發展及運用AI時,能採取協調一致的態度及方法,共同維護歐洲公民基本權利與歐盟價值。   歐盟自2019年起即倡議發展「值得信賴的AI」(Trustworthy AI)。AI規則草案之提出,除了落實執委會2019年至2024年之政策願景外,亦呼應2020年歐洲議會(European Parliament)之建議—針對AI應用之機會與利益採取立法行動,並確保合乎倫理原則。惟鑒於歐盟在環境、健康、公共事務、金融、交通、農業等領域對AI應用之高度需求,以及企業仰賴AI技術提升競爭優勢等因素,執委會係以「風險為基礎」之概念取向(risk-based approach)制定AI規則草案,避免對新技術發展造成不必要的限制或阻礙。   本規則草案將AI系統,依其「對歐盟基本權利或價值所創造的風險程度」,分為下列三種類型,並施以不同程度的監理方式: 一、不可接受之風險:原則上禁止使用此類型AI系統或使其進入歐盟市場。例如:利用潛意識技術操控個人、在公共場合利用「即時遠端生物辨識系統」進行執法、公務機關普遍對個人進行社會評分等。 二、高風險:於附錄中列出所謂高風險AI系統,要求高風險AI系統之提供者遵循風險管理、資料治理、文件紀錄保存、透明性與資訊揭露、人為監督、健全性、準確性與資安等要求;且AI系統進入歐盟市場前,需進行符合性評估(conformity assessment),進入市場後,則需持續監控。 三、非不可接受之風險亦非高風險:鼓勵AI系統提供者或使用者,自願建立行為準則(codes of conduct)。   AI規則草案亦鼓勵會員國建立AI監理沙盒(regulatory sandbox)機制,且以中小企業、新創公司為優先對象,使創新AI系統進入市場之前,能於可控環境中依明確計畫進行開發、測試與驗證。

科睿唯安 (Clarivate)公布2021年商標生態系統研究報告: 全球視野下的商標價值、保護及技術優化

  著名英國科學研究分析公司科睿唯安 (Clarivate)於2021年2月18日公布《2021年商標生態系統報告》,此報告由科睿唯安委託Vitreous World 於2020年底時分別對英國、美國、德國、義大利、法國、中國大陸以及日本等七個國家共300位專業顧問進行線上訪問,了解商標專業人士對於各國商標價值、商標保護以及技術優化之相關見解為何。此份報告之主要發現如下: 全球商標侵權狀況持續上升中:相較於2017年共有74%受訪者提及曾遇到商標侵權案件、2018年為81%、2019年則有85%。本次調查時竟有高達89%受訪者表示常經手商標侵權案件,且逾半數者表示,其企業在遭遇商標侵權後更改了品牌名稱,此類狀況於日本特別嚴重。 高階主管態度影響企業獲利機會:89%受訪者表示,企業高階主管人員對於智財問題無意識或不予關注時,組織往往無法利用商標或其他智財權利以適時抓緊商機、進入新市場或建立新合作關係。其中亦有五分之一受訪者提到,其企業董事會相關成員完全不參與企業智財議題討論。 社群媒體名稱成為許多商標侵權管道的起源:此次共有50%受訪者表示,社群媒體名稱成為首要的商標侵權源頭;但中國大陸受訪者有73%表示,網域名稱仍為商標侵權常見管道。   今全球產業趨勢已進入知識創新時代,企業欲保持競爭力需善用智財權以維持內部能量,且為防免智財侵權威脅並把握新市場藍海,須由企業全體成員齊心關注努力,而不僅是商標部門人員的責任,管理階層更應了解企業智財狀況,適時更新智財管理與布局策略,增強市場地位。

TOP