歐盟執委會提出「具可信度之人工智慧倫理指引」

  歐盟執委會人工智慧高級專家小組(High-Level Expert Group on Artificial Intelligence)於2019年4月8日公布「具可信度之人工智慧倫理指引」(Ethics Guidelines For Trustworthy AI)。該指引首先指出,具可信度之人工智慧需具備三個關鍵特徵:(1)合法(Lawful):應遵守所有適用於人工智慧之法規;(2)合乎倫理(Ethical):確保人工智慧符合倫理原則與價值;(3)健全(Robust):自技術與社會層面觀之,避免人工智慧於無意間造成傷害。

  該指引並進一步指出人工智慧應遵守以下四項倫理原則:

(1) 尊重人類之自主權(Respect for Human Autonomy):歐盟之核心價值在於尊重人類之自由與自主,與人工智慧系統互動之個人,仍應享有充分且有效之自我決定空間。因此,人工智慧之運用,不應脅迫、欺騙或操縱人類,人工智慧應被設計為輔助與增強人類之社會文化技能與認知。

(2) 避免傷害(Prevention of Harm):人工智慧不應對人類造成不利之影響,亦不應加劇既有的衝突或傷害。人工智慧之系統運行環境應具備安全性,技術上則應健全,且確保不會被惡意濫用。此外,弱勢族群應於人工智慧運用中受到更多關注,並被視為服務對象。

(3) 公平(Fairness):人工智慧系統之開發、布建與利用,必須具備公平性。除了透過實質承諾與規範,進行平等與公正之利益與成本分配外,亦須透過救濟程序確保個人或特定族群不受到歧視與偏見之侵害,並可對人工智慧之自動化決策結果提出質疑,且獲得有效之補救。

(4) 可解釋性(Explicability):人工智慧應盡量避免黑箱(Black Box)決策,其系統處理程序須公開透明,並盡可能使相關決策結果具備可解釋性,分析特定訊息可能導致之決策結果,此外亦需具備可溯性且可接受審核。

本文為「經濟部產業技術司科技專案成果」

※ 歐盟執委會提出「具可信度之人工智慧倫理指引」, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8236&no=57&tp=1 (最後瀏覽日:2025/12/01)
引註此篇文章
你可能還會想看
日本發布新版之農業資料利用推動報告,並透過資料交換及利用機制確保資料共享及協作

日本農林水產省於2025年9月在智慧農業網站上發布新版之農業資料利用推動(下稱報告),其內容包含2025年通過閣議決定之食材、農業、農村基本計畫,並指出為確保農業數位資料與人工智慧(下稱AI)之間的串聯應用,農業資料合作基礎平台(下稱WAGRI)的建立與資料協作、共有、提供功能是其不可或缺的要素。 報告指出,透過各式農業數位資料的蒐集與整合,諸如過往作物收成量資料、市場價格資料、土壤資料、農地資料、氣象資料等,並經過統合及分析後,可以達到提升作業效率及收益、減少勞動作業時間與器材損耗,以及降低環境負荷之效果。截至2025年9月為止,WAGRI網站上已提供高達223種農業數位資料相關的API,供農業領域從業者介接運用,並作為未來開發農業領域基礎AI模型的前置準備。 此外,報告亦指出WAGRI已於日本全國範圍內蒐集大量的農業數位資料,用以開發農業領域之基礎AI模型,並預計於2026年在WAGRI網站上提供基礎AI模型服務。未來農業領域從業者可透過WAGRI網站提供之基礎AI模型服務,輔以自身之農業數位資料,建立符合自身農業場域特性之特化型AI模型。 然而,報告亦指出不論是農業數位資料的API介接運用,還是將農業數位資料用以開發基礎AI模型,農業數位資料之法制配套仍需整備。因此,除了資料權屬等關係釐清外,報告特別提出於AI開發應用、資料共享之模式下,尚須建立「涵蓋資料整體生命週期之資料交換及利用機制」,包含資料對外公開之選擇權、資料提供之事前同意權、資料安全管理對策,以及資料刪除請求權等範圍,以確保農業數位資料在利用前的安心共享與協作。 我國政府如欲於農業領域發展基本AI模型,除應於全國範圍內蒐集大量之農業領域數位資料外,亦應建立串聯資料整體生命週期之資料交換及利用機制,以降低農業數位資料之間的協作風險。 本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。 本文同步刊登於TIPS網站(https://www.tips.org.tw)

美國國家標準暨技術研究院發布「人工智慧風險管理框架:生成式AI概況」

  美國國家標準暨技術研究院(National Institute of Standard and Technology, NIST)2024年7月26日發布「人工智慧風險管理框架:生成式AI概況」(Artificial Intelligence Risk Management Framework: Generative Artificial Intelligence Profile),補充2023年1月發布的AI風險管理框架,協助組織識別生成式AI(Generative AI, GAI)可能引發的風險,並提出風險管理行動。GAI特有或加劇的12項主要風險包括: 1.化學、生物、放射性物質或核武器(chemical, biological, radiological and nuclear materials and agents, CBRN)之資訊或能力:GAI可能使惡意行為者更容易取得CBRN相關資訊、知識、材料或技術,以設計、開發、生產、使用CBRN。 2.虛假內容:GAI在回應輸入內容時,常自信地呈現錯誤或虛假內容,包括在同一情境下產出自相矛盾的內容。 3.危險、暴力或仇恨內容:GAI比其他技術能更輕易產生大規模煽動性、激進或威脅性內容,或美化暴力內容。 4.資料隱私:GAI訓練時需要大量資料,包括個人資料,可能產生透明度、個人資料自主權、資料違法目的外利用等風險。 5.環境影響:訓練、維護和運行GAI系統需使用大量能源而影響碳排放。 6.偏見或同質化(homogenization):GAI可能加劇對個人、群體或社會的偏見或刻板印象,例如要求生成醫生、律師或CEO圖像時,產出女性、少數族群或身障人士的比例較低。 7.人機互動:可能涉及系統與人類互動不良的風險,包括過度依賴GAI系統,或誤認GAI內容品質比其他來源內容品質更佳。 8.資訊完整性:GAI可能無意間擴大傳播虛假、不準確或誤導性內容,從而破壞資訊完整性,降低公眾對真實或有效資訊的信任。 9.資訊安全:可能降低攻擊門檻、更輕易實現自動化攻擊,或幫助發現新的資安風險,擴大可攻擊範圍。 10.智慧財產權:若GAI訓練資料中含有受著作權保護的資料,可能導致侵權,或在未經授權的情況下使用或假冒個人身分、肖像或聲音。 11.淫穢、貶低或虐待性內容:可能導致非法或非自願性的成人私密影像或兒童性虐待素材增加,進而造成隱私、心理、情感,甚至身體上傷害。 12.價值鏈和組件整合(component integration):購買資料集、訓練模型和軟體庫等第三方零組件時,若零組件未從適當途徑取得或未經妥善審查,可能導致下游使用者資訊不透明或難以問責。   為解決前述12項風險,本報告亦從「治理、映射、量測、管理」四大面向提出約200項行動建議,期能有助組織緩解並降低GAI的潛在危害。

人工智慧即服務(AI as a Service, AIaaS)

  人工智慧即服務(AIaaS)之定義為由第三方提供人工智慧(AI)外包服務,其可使個人和公司基於各種目的進行AI相關實驗,同時毋須於初期即大規模投資或承受高度風險。著名之四大AIaaS供應商為Amazon AWS雲端運算服務、Microsoft Azure 雲端運算平台與服務、Google雲服務、以及IBM雲服務。   AIaaS之優點主要有:(1)降低成本:一般公司無須投資軟體、硬體、人員、維護成本以及不同任務之修改成本,AIaaS供應商可供應不同之硬體或機器學習供公司嘗試運用。(2)即用性:AIaaS供應商提供之AI服務為即用性,無須太多專家介入修改即可使用。(3)可擴展性:可由較小之項目開始試驗,逐步擴張調整服務,因此具有戰略靈活性。然而,AIaaS亦有以下潛在缺點:(1)降低安全性:公司必須交付大量資料給AIaaS供應商,因此資料之機密保護與預防竄改即為重要。(2)增加依賴度:若發生問題時,必須等待AIaaS供應商進行處理。(3)降低透明度:由於是即用性之AI服務,對於內部演算法之運作則屬於未知之黑盒子領域。(4)限制創新:因AIaaS供應商所供應之AI服務需一定程度之標準化,因此限制公司創新發展之可能。

合成資料(synthetic data)

  「合成資料」(synthetic data)的出現,是為了保護原始資料所可能帶有的隱私資料或機敏資料,或是因法規或現實之限制而無法取得或利用研究所需資料的情況下,透過統計學方法、深度學習、或自然語言處理等方式,讓電腦以「模擬」方式生成研究所需之「合成資料」並進行後續研究跟利用,透過這個方法,資料科學家可以在無侵犯隱私的疑慮下,使合成資料所訓練出來的分類模型(classifiers)不會比原始資料所訓練出來的分類模型差。   在合成資料的生成技術當中,最熱門的研究為運用「生成對抗網路」(Generative Adversarial Network, GAN)形成合成資料(亦有其他生成合成資料之方法),生成對抗網路透過兩組類神經網路「生成網路」(generator)與辨識網路(discriminator)對於不同真偽目標值之反覆交錯訓練之結果,使其中一組類神經網路可生成與原始資料極度近似但又不完全一樣之資料,也就是具高度複雜性與擬真性而可供研究運用之「合成資料」。   英國國防科技實驗室(Defense Science and Technology Laboratory, DSTL)於2020年8月12日發布「合成資料」技術報告,此技術報告為DSTL委託英國航太系統公司(BAE Systems)的應用智慧實驗室(Applied Intelligence Labs, AI Labs)執行「後勤科技調查」(Logistics Technology Investigations, LTI)計畫下「資料科學與分析」主題的工作項目之一,探討在隱私考量下(privacy-preserving)「合成資料」當今技術發展情形,並提供評估技術之標準與方法。   技術報告中指出,資料的種類多元且面向廣泛,包含數字、分類資訊、文字與地理空間資訊等,針對不同資料種類所適用之生成技術均有所不同,也因此對於以監督式學習、非監督式學習或是統計學方法生成之「合成資料」需要採取不同的質化或量化方式進行技術評估;報告指出,目前尚未有一種可通用不同種類資料的合成資料生成技術或技術評估方法,建議應配合研究資料種類選取合適的生成技術與評估方法。

TOP