歐盟執委會提出「具可信度之人工智慧倫理指引」

  歐盟執委會人工智慧高級專家小組(High-Level Expert Group on Artificial Intelligence)於2019年4月8日公布「具可信度之人工智慧倫理指引」(Ethics Guidelines For Trustworthy AI)。該指引首先指出,具可信度之人工智慧需具備三個關鍵特徵:(1)合法(Lawful):應遵守所有適用於人工智慧之法規;(2)合乎倫理(Ethical):確保人工智慧符合倫理原則與價值;(3)健全(Robust):自技術與社會層面觀之,避免人工智慧於無意間造成傷害。

  該指引並進一步指出人工智慧應遵守以下四項倫理原則:

(1) 尊重人類之自主權(Respect for Human Autonomy):歐盟之核心價值在於尊重人類之自由與自主,與人工智慧系統互動之個人,仍應享有充分且有效之自我決定空間。因此,人工智慧之運用,不應脅迫、欺騙或操縱人類,人工智慧應被設計為輔助與增強人類之社會文化技能與認知。

(2) 避免傷害(Prevention of Harm):人工智慧不應對人類造成不利之影響,亦不應加劇既有的衝突或傷害。人工智慧之系統運行環境應具備安全性,技術上則應健全,且確保不會被惡意濫用。此外,弱勢族群應於人工智慧運用中受到更多關注,並被視為服務對象。

(3) 公平(Fairness):人工智慧系統之開發、布建與利用,必須具備公平性。除了透過實質承諾與規範,進行平等與公正之利益與成本分配外,亦須透過救濟程序確保個人或特定族群不受到歧視與偏見之侵害,並可對人工智慧之自動化決策結果提出質疑,且獲得有效之補救。

(4) 可解釋性(Explicability):人工智慧應盡量避免黑箱(Black Box)決策,其系統處理程序須公開透明,並盡可能使相關決策結果具備可解釋性,分析特定訊息可能導致之決策結果,此外亦需具備可溯性且可接受審核。

本文為「經濟部產業技術司科技專案成果」

※ 歐盟執委會提出「具可信度之人工智慧倫理指引」, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8236&no=0&tp=1 (最後瀏覽日:2026/05/10)
引註此篇文章
你可能還會想看
澳洲發布國家身分韌性戰略

所謂「身分」(Identity)是「特徵」(characteristics)或「屬性」(attributes)的組合,可讓個人在特定環境中與其他人區分開來,以證明自己的身分,例如出生日期和地點、臉部圖像等。澳洲政府有鑑於數位經濟的快速成長,線上身分驗證比實體身分驗證更為頻繁,促使犯罪人竊取和濫用身分資訊與資格證明(credentials),使得越來越多人面臨網路犯罪和詐欺的風險,澳洲在2021年時更因為身分竊盜事件橫行,造成超過18億美元的經濟損失。 為此,澳洲資料和數位部長會議(Data and Digital Ministers Meeting, DDMM)於2023年6月23日發布「國家身分韌性戰略」(National Strategy for Identity Resilience),以取代2012年國家身分安全戰略(National Identity Security Strategy),宣示澳洲政府加強身分基礎設施和對身分竊盜的韌性與復原力,推動澳洲各州、領地(territory)和聯邦(Commonwealth)採用全國一致的身分韌性方法,使得個人身分難以被竊取,縱然不幸遭竊取,受害人亦能夠輕易自身分犯罪中恢復身分。 該戰略由十項原則組成,包含:(1)無縫接軌的聯邦、州和領地數位身分系統;(2)具包容性的身分辨識機制;(3)個人與公私部門都有各自角色;(4)制定國家實體與數位資格證明標準;(5)建立生物辨識和經同意的身分驗證;(6)便利個人跨機構更新身分資訊;(7)更少的資料蒐集與保存;(8)明確的資料分享協議;(9)資格證明的一致撤銷和重新簽發;(10)明確的問責與責任。搭配短、中、長期的實施規畫,循序漸進地加強與一制化澳洲跨司法管轄區的身分安全管理機制。

美國法院將考慮命Google提交相關資料

  美國布希政府為捍衛1998兒童線上保護法(1998 Child Online Protection Act),要求法院命Google提交有關民眾使用該公司之搜尋引擎所輸入之關鍵字資料,以證明透過搜尋引擎,兒童使用電腦連結到色情網站並非不易。但是,Google主張此將會危及其使用者個人的隱私以及其營業秘密。   一名負責審理此案的法官於日前表示,其將會考量政府蒐集此等資料的需求以及Google之使用者的隱私保護議題,且其可能會允許司法部 (Justice Department) 可以接近使用 (access) 一部分由Google所建立的網站連結目錄,但並不是Google使用者所輸入的關鍵字資料。

美國情報體系發布「情報體系運用人工智慧倫理架構」

  美國國家情報體系(United States Intelligence Community)係於1981年依據行政命令第12333號(Executive Order 12333)所建立,其任務為蒐集、分析與提供外國情報與反情報資訊美國國家領導人,服務對象包含美國總統、執法單位以及軍事單位。其於2020年6月提出「情報體系人工智慧倫理架構」(Artificial Intelligence Ethics Framework for the Intelligence Community),為人工智慧系統與訓練資料、測試資料之採購、設計、研發、使用、保護、消費與管理提出指引,並指出人工智慧之利用須遵從以下事項: 一、於經過潛在風險評估後,以適當且符合目的之方法利用; 二、人工智慧之使用應尊重個人權利與自由,且資料取得應合法且符合相關政策與法規之要求; 三、應於利用程序內結合人類判斷與建立問責機制,以因應AI產品之風險並確保其決策之適當性。 四、於不破壞其功能與實用性之前提下,盡可能確認、統計以及降低潛在之歧視問題。 五、AI進行測試時應同時考量其未來利用上可預見之風險。 六、持續維持AI模型之迭代(Iteration)、版本與改動之審查。 七、AI之建立目的、限制與設計之輸出項目,應文件化。 八、盡可能使用可解釋與可理解之方式,讓使用者、審查者與公眾理解為何AI會產出相關決策。 九、持續不定期檢測AI,以確保其符合當初建置之目的。 十、確認AI於產品循環中各階段之負責人,包含其維護相關紀錄之責任。

美國交通部發布國家道路安全戰略,建立五大核心目標期待實現道路零死亡願景

  美國交通部(U.S. Department of Transportation)於2022年1月27日發布「國家道路安全戰略」(National Roadway Safety Strategy, NRSS),向道路零死亡的長期目標邁出第一步。NRSS採取「安全系統方法」(Safe System approach)作為解決道路安全問題的指導性框架,其內容涵蓋行為干預(behavioral interventions)、道路應對措施(roadway countermeasures)、法律與政策之執行、車輛安全特性與性能,及緊急醫療照護等層面。不同於傳統安全方法,安全系統方法承認人為錯誤與人性脆弱的事實,基於道路死亡應可預防之原則,利用可提前準備的主動工具(Proactive Tools)預先識別並解決交通系統中的問題,並且建立一套能有效解決或降低風險的備援系統(redundant system),以確保某一環節發生故障時,其餘部份仍可正常運作。   NRSS將以五大核心目標為主軸,規劃全面性的安全措施,以實現道路零死亡願景。上述五大核心目標包括: (1)更安全的人們(safer people):鼓勵用路人採取安全、負責之行為,避免酒駕或毒駕等危險行為。 (2)更安全的道路(safer roads):設計可減少人為錯誤之道路環境,提高脆弱用路人安全移動之可能性。 (3)更安全的車輛(safer vehicles):透過改進既有技術與設備,並擴大對有效防止碰撞及使影響最小化的車輛技術與功能之使用,提高車輛安全性並降低碰撞頻率,例如:透過先進駕駛輔助系統(Advanced Driver. Assistance Systems, ADAS)預防或減輕碰撞的影響;或是利用偏離車道警示系統對車輛進行監控與紀錄,如檢測到車輛偏離車道,則立即向駕駛發出警報。此外應建立公共資訊資料庫,以便提供資訊幫助車輛安全行駛。 (4)更安全的速度(safer speeds):透過結合環境的道路設計、教育與推廣活動,以及活用自動測速器、依路段環境進行速限等方式,有效控制車輛行駛速度。 (5)事故後照護(post-crash care):透過完善緊急醫療照護提高事故存活率,並落實交通事故管理,避免事故再次發生。

TOP