歐盟執委會提出「具可信度之人工智慧倫理指引」

  歐盟執委會人工智慧高級專家小組(High-Level Expert Group on Artificial Intelligence)於2019年4月8日公布「具可信度之人工智慧倫理指引」(Ethics Guidelines For Trustworthy AI)。該指引首先指出,具可信度之人工智慧需具備三個關鍵特徵:(1)合法(Lawful):應遵守所有適用於人工智慧之法規;(2)合乎倫理(Ethical):確保人工智慧符合倫理原則與價值;(3)健全(Robust):自技術與社會層面觀之,避免人工智慧於無意間造成傷害。

  該指引並進一步指出人工智慧應遵守以下四項倫理原則:

(1) 尊重人類之自主權(Respect for Human Autonomy):歐盟之核心價值在於尊重人類之自由與自主,與人工智慧系統互動之個人,仍應享有充分且有效之自我決定空間。因此,人工智慧之運用,不應脅迫、欺騙或操縱人類,人工智慧應被設計為輔助與增強人類之社會文化技能與認知。

(2) 避免傷害(Prevention of Harm):人工智慧不應對人類造成不利之影響,亦不應加劇既有的衝突或傷害。人工智慧之系統運行環境應具備安全性,技術上則應健全,且確保不會被惡意濫用。此外,弱勢族群應於人工智慧運用中受到更多關注,並被視為服務對象。

(3) 公平(Fairness):人工智慧系統之開發、布建與利用,必須具備公平性。除了透過實質承諾與規範,進行平等與公正之利益與成本分配外,亦須透過救濟程序確保個人或特定族群不受到歧視與偏見之侵害,並可對人工智慧之自動化決策結果提出質疑,且獲得有效之補救。

(4) 可解釋性(Explicability):人工智慧應盡量避免黑箱(Black Box)決策,其系統處理程序須公開透明,並盡可能使相關決策結果具備可解釋性,分析特定訊息可能導致之決策結果,此外亦需具備可溯性且可接受審核。

本文為「經濟部產業技術司科技專案成果」

※ 歐盟執委會提出「具可信度之人工智慧倫理指引」, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8236&no=57&tp=1 (最後瀏覽日:2025/12/03)
引註此篇文章
你可能還會想看
加州立法機關提出2020年加州消費者隱私法修正案,擴大對未成年消費者個人資料之保護

2024年1月29日,加州立法機關提出2020年加州消費者隱私法(California Consumer Privacy Act of 2020)之修正案,限制企業出售、分享、使用及揭露18歲以下消費者的個人資料。 2020年加州消費者隱私法旨在保護消費者之個人資料相關權利。依現行條文,企業向第三方出售、分享消費者個資前,應向消費者發出通知。而消費者有權拒絕出售、分享其個資,即便消費者曾經同意,亦有權隨時要求企業停止出售、分享行為。現行條文尚禁止企業在明知消費者未滿16歲的情況下,出售或分享消費者個資。除非年滿13歲消費者本人授權,或未滿13歲消費者父母授權,企業方可為之。 然該法修正案調整了前述條文,改為禁止企業在明知消費者未滿18歲的情況下,出售或分享消費者個資,除非企業取得年滿13歲消費者本人之授權,或取得13歲以下消費者父母之授權。 加州消費者隱私法修正案亦針對未成年人個資的使用與揭露增設限制。依現行條文,消費者有權限制企業只能在提供商品、服務的必要範圍內使用其敏感個資。若企業欲對敏感個資為原定目的外之使用或揭露、或敏感個資可能被用於或揭露予第三方,企業應向消費者發出通知。而消費者有權限制或拒絕企業之使用、揭露行為。而後該法修正案在同條增加未成年人個資使用、揭露相關規範,規範企業不得使用、揭露18歲以下消費者個資。除非年滿13歲消費者本人同意,或是未滿13歲消費者父母同意企業為之。 若修正案通過,再配合現行條文於行政執行(Administrative Enforcement)章節之處罰規定,將能有效擴大該法對未成年人的保護。該修正案亦以條文要求加州隱私保護局(California Privacy Protection Agency)在2025年7月1日前,廣泛徵求公眾意見並調整相應法規,以進一步實現該法目的。

世界經濟論壇發布《贏得數位信任:可信賴的技術決策》

  世界經濟論壇(World Economic Forum, WEF)於2022年11月15日發布《贏得數位信任:可信賴的技術決策》(Earning Digital Trust: Decision-Making for Trustworthy Technologies),期望透過建立數位信任框架(digital trust framework)以解決技術開發及使用之間對數位信任之挑戰。   由於人工智慧及物聯網之發展,無論個人資料使用安全性還是演算法預測,都可能削弱人民對科技發展之信賴。本報告提出數位信任路線圖(Digital trust roadmap),說明建立數位信任框架所需的步驟,以鼓勵組織超越合規性,指導領導者尋求符合個人與社會期望之全面措施行動,以實現數位信任。路線圖共分為四步驟:   1.承諾及領導(commit and lead):數位信任需要最高領導階層之承諾才能成功,故需將數位信任與組織戰略或核心價值結合,並從關鍵業務領域中(例如產品開發、行銷、風險管理及隱私與網路安全)即納入數位信任概念。   2.規劃及設計(plan and design):透過數位信任差距評估(digital trust gap assessment)以瞭解組織目前之狀態或差距,評估報告應包括目前狀態說明;期望達成目標建議;治理、風險管理與合規性(governance, risk management and compliance, GRC)調查結果;將帶來之益處及可減輕之風險;計畫時程表;團隊人員及可用工具;對組織之影響等。   3.建立及整合(build and integrate):實現數位信任需關注人員、流程及技術等三大面向。首先需確保人員能力、達成該能力所需之資源,以及人員溝通與管理;第二,定義組織數位信任流程,包括制定計劃所需時程、預算及優先實施領域,調整目前現有管理流程,並識別現有資料資產;最後,針對技術使用,可考慮使用AI監控、雲端管理系統以及區塊鏈等,以監測資料之使用正確性及近用權限管理。   4.監控及滾動調整(monitor and sustain):建立數位信任框架後,需持續建構相關績效及風險評估程序,以確保框架之穩定,並根據不斷變化的數位信任期望持續改善,以及定期向董事會報告。

Google關鍵字廣告服務,遭澳洲政府起訴

  澳洲「競爭和消費者委員會」(Australian Competition and Consumer Commission;以下簡稱ACCC)在今年7月對Google及其廣告主Trading Post Australia提起訴訟,指控Google及Trading Post使所用的關鍵字廣告系統不實誤導網路使用者,構成了欺詐性的商業行為。   Trading Post為澳洲當地知名的汽車經銷商,在2005年時,Trading Post向Google購買了名為Kloster Ford和Charlestown Toyota的關鍵字廣告;然而,Kloster Ford和Charlestown Toyota正是Trading Post的競爭對手,當網路使用者在Google的搜尋引擎中鍵入Kloster Ford或Charlestown Toyota文字時,搜尋結果頁面即自動導向Trading Post的網站。   ACCC認定Trading Post此種利用競爭對手名稱設定為自身廣告關鍵字之行為,已違反澳洲在1974年頒布的「商業行為法」(Trade Practices Act 1974)第52條及第53條d款規定;ACCC同時認為,Google並未善盡努力在消費者鍵入關鍵字進行搜尋時,將付費廣告鏈結(sponsored links)從基本的搜尋結果頁面中將加區隔,亦有違該法第52條之規定。   在ACCC對Google提出控訴之前,Google事實上在各國早已面臨多起類似的訴訟;其中,去年由法國知名品牌Louis Vuitton提起的訴訟中,Google即遭到敗訴。

美國商務部國家電信和資訊管理局呼籲透過第三方評測提高AI系統透明度

2024年3月27日,美國商務部國家電信和資訊管理局(National Telecommunications and Information Administration, NTIA)發布「人工智慧問責政策報告」(AI Accountability Policy Report),該報告呼籲對人工智慧系統進行獨立評估(Independent Evaluations)或是第三方評測,期待藉此提高人工智慧系統的透明度。 人工智慧問責政策報告就如何對人工智慧系統進行第三方評測提出八項建議作法,分別如下: 1.人工智慧稽核指引:聯邦政府應為稽核人員制定適合的人工智慧稽核指引,該指引須包含評估標準與合適的稽核員證書。 2.改善資訊揭露:人工智慧系統雖然已經應用在許多領域,但其運作模式尚缺乏透明度。NTIA認為未來可以透過類似營養標籤(Nutrition Label)的方式,使人工智慧模型的架構、訓練資料、限制與偏差等重要資訊更加透明。 3.責任標準(Liability Standards):聯邦政府應盡快訂定相關責任歸屬標準,以解決現行制度下,人工智慧系統造成損害的法律責任問題。 4.增加第三方評測所需資源:聯邦政府應投入必要的資源,以滿足國家對人工智慧系統獨立評估的需求。相關必要資源如: (1)資助美國人工智慧安全研究所(U.S. Artificial Intelligence Safety Institute); (2)嚴格評估所需的運算資源與雲端基礎設施(Cloud Infrastructure); (3)提供獎金和研究資源,以鼓勵參與紅隊測試的個人或團隊; (4)培養第三方評測機構的專家人才。 5.開發及使用驗證工具:NTIA呼籲聯邦機關開發及使用可靠的評測工具,以評估人工智慧系統之使用情況,例如透明度工具(Transparency Tools)、認驗證工具(Verification and Validation Tools)等。 6.獨立評估:NTIA建議聯邦機關應針對高風險的人工智慧類別進行第三方評測與監管,特別是可能侵害權利或安全的模型,應在其發布或應用前進行評測。 7.提升聯邦機關風險管控能力:NTIA建議各機關應記錄人工智慧的不良事件、建立人工智慧系統稽核的登記冊,並根據需求提供評測、認證與文件紀錄。 8.契約:透過採購契約要求政府之供應商、承包商採用符合標準的人工智慧治理方式與實踐。 NTIA將持續與利害關係各方合作,以建立人工智慧風險的問責機制,並確保該問責報告之建議得以落實。

TOP