歐盟執委會提出「具可信度之人工智慧倫理指引」

  歐盟執委會人工智慧高級專家小組(High-Level Expert Group on Artificial Intelligence)於2019年4月8日公布「具可信度之人工智慧倫理指引」(Ethics Guidelines For Trustworthy AI)。該指引首先指出,具可信度之人工智慧需具備三個關鍵特徵:(1)合法(Lawful):應遵守所有適用於人工智慧之法規;(2)合乎倫理(Ethical):確保人工智慧符合倫理原則與價值;(3)健全(Robust):自技術與社會層面觀之,避免人工智慧於無意間造成傷害。

  該指引並進一步指出人工智慧應遵守以下四項倫理原則:

(1) 尊重人類之自主權(Respect for Human Autonomy):歐盟之核心價值在於尊重人類之自由與自主,與人工智慧系統互動之個人,仍應享有充分且有效之自我決定空間。因此,人工智慧之運用,不應脅迫、欺騙或操縱人類,人工智慧應被設計為輔助與增強人類之社會文化技能與認知。

(2) 避免傷害(Prevention of Harm):人工智慧不應對人類造成不利之影響,亦不應加劇既有的衝突或傷害。人工智慧之系統運行環境應具備安全性,技術上則應健全,且確保不會被惡意濫用。此外,弱勢族群應於人工智慧運用中受到更多關注,並被視為服務對象。

(3) 公平(Fairness):人工智慧系統之開發、布建與利用,必須具備公平性。除了透過實質承諾與規範,進行平等與公正之利益與成本分配外,亦須透過救濟程序確保個人或特定族群不受到歧視與偏見之侵害,並可對人工智慧之自動化決策結果提出質疑,且獲得有效之補救。

(4) 可解釋性(Explicability):人工智慧應盡量避免黑箱(Black Box)決策,其系統處理程序須公開透明,並盡可能使相關決策結果具備可解釋性,分析特定訊息可能導致之決策結果,此外亦需具備可溯性且可接受審核。

本文為「經濟部產業技術司科技專案成果」

※ 歐盟執委會提出「具可信度之人工智慧倫理指引」, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8236&no=55&tp=5 (最後瀏覽日:2026/03/15)
引註此篇文章
你可能還會想看
知名線上遊戲公司Blizzard放棄推動網路論壇實名制度

  因製作「星海爭霸」(StarCraft)、魔獸世界(World of Warcraft)等名作而廣受玩家喜愛的線上遊戲公司Blizzard Entertainment,於2010年7月7月對外宣布,將針對旗下遊戲的官方網路論壇(Game Forum),推動實名制度(Real ID System),引發各界議論。     Blizzard對外表示遊戲論壇旨在提供一個供玩家交流遊戲資訊的管道,玩家亦得透過論壇提供Blizzard改進遊戲內容的建議或發表其他意見。然而,部分使用者卻肆意透過論壇散布人身攻擊言論,或從事其他不法行為。Blizzard希望透過推動論壇實名制度,約束人們透過論壇發表攻擊性言論的現象。然而,論壇實名制度訊息公布未久,Blizzard旋即收到眾多玩家的抗議信件。為平息反彈聲浪,Blizzard共同創辦人兼執行長Mike Morhaime於7月9日於官方論壇發表聲明,宣布Blizzard將不會實施論壇實名制,為整起事件劃下句點。     相較於Blizzard放棄推動遊戲論壇實名制度,中國大陸文化部於2010年6月22日發布「網路遊戲管理暫行辦法」,實施「網路遊戲實名制」,自8月1日起,中國大陸線上遊戲玩家即必須使用真名及有效的身分資料進行註冊,而遊戲公司亦必須妥善保存玩家身分資料。中國大陸新法同樣引發諸多爭辯,玩家紛紛表示擔心個人資料遭到外洩;而遊戲業者也憂慮此舉將導致玩家人口大量流失。

澳洲發布《人工智慧臨床應用指引》提供臨床照護之人工智慧使用合規框架

澳洲醫療安全與品質委員會(Australian Commission on Safety and Quality in Health Care, ACSQHC)與衛生、身心障礙及高齡照護部(Department of Health, Disability and Ageing)聯合於2025年8月發布《人工智慧臨床應用指引》(AI Clinical Use Guide),旨在協助醫療人員於臨床情境中安全、負責任使用人工智慧(Artificial Intelligence, AI)。該文件回應近年生成式AI與機器學習快速導入醫療現場,卻伴隨證據不足、風險升高的治理挑戰,試圖在促進創新與確保病人安全之間建立清楚的合規框架。 該指引以臨床流程為核心,將AI使用區分為「使用前、使用中、使用後」三個階段,強調醫療人員須理解AI工具的預期用途、證據基礎與風險限制,並對所有AI產出負最終專業責任。文件特別指出,當AI工具用於診斷、治療、預測或臨床決策支持時,可能構成醫療器材,須符合澳洲醫療用品管理管理局(Therapeutic Goods Administration, TGA)的相關法規要求。 在風險治理方面,該指引明確區分規則式AI、機器學習與生成式AI,指出後兩者因輸出不確定性、資料偏誤與自動化偏誤風險較高,臨床人員不得過度依賴系統建議,仍須以專業判斷為核心。同時,文件要求醫療機構建立AI治理與監督機制,持續監測效能、偏誤與病安事件,並於必要時通報TGA或隱私主管機關。 在病人權益與隱私保護方面,指引強調知情同意與透明揭露,醫療人員須向病人說明AI使用目的、潛在風險及替代方案,並遵循《1998年隱私法》(Privacy Act 1988)對個人健康資料儲存與跨境處理的限制。澳洲此次發布之臨床AI指引,展現以臨床責任為核心、結合法規遵循與風險管理的治理取向,為各國醫療體系導入AI提供具體且可操作的合規參考。 表1 人工智慧臨床應用指引合規流程 使用前 使用中 使用後 1.界定用途與風險。 2.檢視證據與合規。 3.完備治理與告知。 1.AI輔助決策。 2.即時審查修正。 3.維持溝通透明。 1.持續監測效能。 2.標示可追溯性。 3.通報與再評估。 資料來源:AUSTRALIAN COMMISSION ON SAFETY AND QUALITY IN HEALTH CARE [ACSQHC], AI Clinical Use Guide (2025).

數位內容與色情問題引起討論

  南非國會近期推動數位匯流法案 (Convergence Bill) 之立法,其中,色情內容是否應於數位匯流立法之中加以定義與規範,引起不同的看法。有專家指出,色情內容超出了數位匯流法案所應規範之主題。亦有專家指出,如定義與規範不當,反而會引發出更多的問題。   在數位匯流與數位內容成為趨勢的今天,我們對於數位匯流與數位內容都從正面的角度來加以觀察,並予以期待。然而,數位匯流的只是傳播媒介,數位內容標示的也只是承載內容的載體。我們希望什麼樣的數位內容?負面的數位內容 ( 如色情內容 ) 在未來數位匯流與數位內容的發展趨勢中,應被放置在一個怎樣的位置,應是值得我們加以思考的。

新加坡擴大適用中小企業數位化政策以因應COVID-19疫情

  新加坡為實現「智慧國家」(Smart Nation)願景,長期致力於數位發展政策之推動。當中,在「協助產業加速數位化」方面,針對中小企業建置「中小企業數位化計畫」(SMEs Go Digital),並將其下「預先批准解決方案」(Pre-Approved Solutions)與「生產力解決方案補助金」(Productivity Solutions Grant, PSG)列為重要措施之一;甚而,於此波COVID-19疫情下,新加坡再度強化該等制度之運用,藉此加速中小企業數位發展進程。   所謂「預先批准解決方案」與「生產力解決方案補助金」,係指中小企業得透過企業科技庫(Tech Depot)網頁,了解中小企業數位化計畫下有哪些經過資通訊媒體發展管理局(Infocomm Media Development Authority, IMDA)預先批准的數位解決方案,並在取得供應商報價後,向新加坡企業發展局(Enterprise Singapore, ESG)申請「生產力解決方案補助金」之支援。於COVID-19疫情發生前,預先批准的數位解決方案包含「銷售與庫存管理」、「會計與文件管理」、「顧客關係管理」、「人力資源管理」、「網路安全」、「行動裝置門禁控制」及「車隊管理」等等13項系統,中小企業最高得享有報價70%的補助。   於COVID-19疫情發生後,除原有數位解決方案外,IMDA再預先批准下列內容,ESG亦於2020年4月1日到2020年12月31日間將所有方案的最高補助水平提升至80%,協助中小企業因應疫情並維持業務連續性: 遠距上班─線上協作工具(Online collaboration tools) 遠距上班─虛擬會議和電話工具(Virtual meeting and telephony tools) 訪客管理─佇列管理系統(Queue management system) 訪客管理─溫度檢測方案(Temperature screening solutions)   新加坡為因應COVID-19疫情,加強適用原有中小企業數位化計畫下的預先批准解決方案與生產力解決方案補助金,在既有制度上迅速地進行調整,以減緩疫情造成的產業衝擊,甚至加速中小企業數位發展之進程;另一方面,藉由COVID-19的特性,協助中小企業導入遠距上班與訪客管理等數位技術,改善過往因資金有限而未能優化營運基礎設備之難題,為中小企業開啟新的可能。

TOP