歐盟執委會提出「具可信度之人工智慧倫理指引」

  歐盟執委會人工智慧高級專家小組(High-Level Expert Group on Artificial Intelligence)於2019年4月8日公布「具可信度之人工智慧倫理指引」(Ethics Guidelines For Trustworthy AI)。該指引首先指出,具可信度之人工智慧需具備三個關鍵特徵:(1)合法(Lawful):應遵守所有適用於人工智慧之法規;(2)合乎倫理(Ethical):確保人工智慧符合倫理原則與價值;(3)健全(Robust):自技術與社會層面觀之,避免人工智慧於無意間造成傷害。

  該指引並進一步指出人工智慧應遵守以下四項倫理原則:

(1) 尊重人類之自主權(Respect for Human Autonomy):歐盟之核心價值在於尊重人類之自由與自主,與人工智慧系統互動之個人,仍應享有充分且有效之自我決定空間。因此,人工智慧之運用,不應脅迫、欺騙或操縱人類,人工智慧應被設計為輔助與增強人類之社會文化技能與認知。

(2) 避免傷害(Prevention of Harm):人工智慧不應對人類造成不利之影響,亦不應加劇既有的衝突或傷害。人工智慧之系統運行環境應具備安全性,技術上則應健全,且確保不會被惡意濫用。此外,弱勢族群應於人工智慧運用中受到更多關注,並被視為服務對象。

(3) 公平(Fairness):人工智慧系統之開發、布建與利用,必須具備公平性。除了透過實質承諾與規範,進行平等與公正之利益與成本分配外,亦須透過救濟程序確保個人或特定族群不受到歧視與偏見之侵害,並可對人工智慧之自動化決策結果提出質疑,且獲得有效之補救。

(4) 可解釋性(Explicability):人工智慧應盡量避免黑箱(Black Box)決策,其系統處理程序須公開透明,並盡可能使相關決策結果具備可解釋性,分析特定訊息可能導致之決策結果,此外亦需具備可溯性且可接受審核。

本文為「經濟部產業技術司科技專案成果」

※ 歐盟執委會提出「具可信度之人工智慧倫理指引」, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8236&no=55&tp=5 (最後瀏覽日:2026/01/13)
引註此篇文章
你可能還會想看
澳大利亞提出政府資料共享法案

  澳大利亞總理及內閣部(The Department of the Prime Minister and Cabinet,PM&C)之國家資料委員辦公室(Office of the National Data Commissioner)於2020年12月9日提交「澳大利亞資料可用性及透明度法案」(Data Availability and Transparency Bill 2020)至澳大利亞國會(Parliament of Australia),國會並已完成一讀及二讀 。   該法案旨在建立一個新的公部門資料共享方案,將原先未開放的公部門資料,透過本法案所設計的共享公部門資料相關管理制度,以促進公部門資料的可存取性及保障措施的一致性,藉此提高公部門資料透明度和大眾利用公部門資料的信心。   該法案所設計的資料共享機制,係由作為「資料保管者」(Data custodians)的各聯邦部門和州政府,自行或透過「被認證的資料服務提供者」(Accredited data service provider,下稱ADSP)共享其所保管的政府資料,使「被認證的利用者」(Accredited user,下稱利用者)得以利用之。   另外,該法案要求資料保管者必須在符合資料共享要件的情況下,才能共享資料,要件包含: 1、資料共享目的:係指該法案只允許資料保管者基於「提供政府服務」、「通知政府政策和計畫」、「研究與開發」等三個目的分享資料。倘涉及國家安全及犯罪調查等需要特殊監督利用機制的政府資料,則不包含在內。 2、資料共享原則:包含符合公共利益或道德評估之計畫;具備適合共享資格的人員;安全環境;資料最小化;合目的產出等五個原則。 3、資料共享協議:資料保管者與利用者之間,必須簽定「資料共享協議」,該法案有規定資料共享協議的應記載條款。   滿足上述要求時,該法案使原先被法律限制共享,或單純未積極開放的資料,都得以在利用者提出要求後,於符合要件及資訊保密相關法規後共享。反之,若不符合法案的要求,則不得共享資料,回復到原先的法律狀態,適用原先的資料保護框架。   最後,該法案授權獨立監管機構「國家資料委員」(National Data Commissioner),負責認證ADSP及可利用共享資料之利用者,並監管所有的資料共享計畫,以及提供諮詢、指導和倡導資料共享計畫的最佳方案。

2013年全球智慧財產權申請量顯見成長,中國大陸佔居首要

  世界智慧財產權組織(WIPO)於2014年12月所公布的世界智慧財產權指標(World Intellectual Property Indicators)基準報告指出,商標、工業設計及實用新型的申請量較前一年度成長,並以中國,美國和日本居前三位;另就申請類別而言,總成長比率分別為專利占9%、商標占6.4%、工業設計占2.5%、和植物品種占6.3%。   報告統計結果顯示,2013年全球專利申請案件約260萬件,比起前一年成長了9%,其中,中國大陸占總申請量的三分之一,其次為美國占總申請量的22%,日本申請量達32萬筆,排名為全球第三位。   報告另指出,專利申請領域依序為,電腦技術佔7.6%、電子機械佔7.2%、測量佔4.7%、數位通訊佔4.5%及醫療技術佔4.3%。   除專利外,其他的智慧財產申請情況,商標申請量上升近500萬件,亦以中國大陸排名首要。另工業設計申請案約達124萬筆,較前一年度成長約2.5%,中國大陸占總申請量的53%。   WIPO總幹事Francis Gurry表示,綜觀全球智慧財產申請全貌,中國大陸及美國於智慧財產權申請量仍明顯成長,而相對於歐洲及日本整體申請量則有明顯衰退之趨勢。

美國國際消費電子展研討會討論有關打擊專利蟑螂議題

  美國國際消費電子展(International Consumer Electronics Show, CES)是每年全球介紹消費性電子產品的第一場重頭戲,2013年於美國時間1月8日在拉斯維加斯會議中心(Las Vegas Convention Center, LVCC)展開,展期持續四天。CES展展出面積17萬平方公尺,有超過3,250個參展公司,展出20,000種最新科技的電子產品,超過15萬人次參加。除了展出電子產品最新趨勢,CES同時也對於電子資訊相關議題開設研討會議,今年共有超過300場的研討會。   其中有一系列名為「創新政策高峰會」(Innovation Policy Summit)的研討會主題,討論政府部門如何與企業合作促進經濟成長及創新應用。高峰會中除邀請各科技領域中的創新發明者,還邀請政府部門、國會議員等,討論與科技政策最相關的種種議題。值得注意的是,創新政策高峰會中一場主題為「打擊專利蟑螂」(Fighting the Patent Trolls)的研討會於1月8日舉行,討論有關政府及民間業者如何打擊影響科技產業的專利蟑螂(Patent Trolls),與會者除了有眾議員Peter DeFazio,還有Google、電子前線基金會(Electronic Frontier Foundation,EFF)、電子製造商Voxx International、零售商Home Automation等等企業代表,分享被專利蟑螂控訴專利侵權的經驗及提供意見。   在研討會中討論出的打擊方案有以下幾點: ‧擴展DeFazio眾議員提案的「保護高科技創新者免於惡意訴訟法案」(The Saving High-tech Innovators from Egregious Legal Disputes Act, SHIELD Act)到其他受專利蟑螂攻擊的產業,同時修改法案要求原告應在法院判決其負擔被告訴訟費用時,同時提出擔保金。 ‧應簡化專利局審核時質疑(challenge)不良專利的程序。 ‧在專利訴訟中對實際損害(actual damages)應提出更明確證據,並應更嚴格審查核發初步禁制令。 ‧科技公司應設法自救或組成聯盟,或者推廣Twitter公司2012年提出的「專利發明者協議」(Innovator Patent Agreement),該協議讓公司內專利發明者對其發明專利有更大控制權,並承諾公司僅會將其專利用於防衛用途。   其中第一點的SHIELD法案,是眾議員DeFazio及Jason Chaffetz為遏止專利蟑螂於2012年8月共同提案。該法案目標在打擊專利蟑螂,針對電腦軟硬體提出的專利訴訟,原告若無勝訴之合理可能性(reasonable likelihood of succeeding),法院得判決原告必須負擔被告訴訟費用及律師費用,以達到遏止專利蟑螂的目的。然而目前SHIELD法案立法進度停滯,DeFazio預計將提出修正版本爭取通過。DeFazio表示,該法案若要成功立法,需要各界聯合及廣泛支持。

澳洲發布《人工智慧臨床應用指引》提供臨床照護之人工智慧使用合規框架

澳洲醫療安全與品質委員會(Australian Commission on Safety and Quality in Health Care, ACSQHC)與衛生、身心障礙及高齡照護部(Department of Health, Disability and Ageing)聯合於2025年8月發布《人工智慧臨床應用指引》(AI Clinical Use Guide),旨在協助醫療人員於臨床情境中安全、負責任使用人工智慧(Artificial Intelligence, AI)。該文件回應近年生成式AI與機器學習快速導入醫療現場,卻伴隨證據不足、風險升高的治理挑戰,試圖在促進創新與確保病人安全之間建立清楚的合規框架。 該指引以臨床流程為核心,將AI使用區分為「使用前、使用中、使用後」三個階段,強調醫療人員須理解AI工具的預期用途、證據基礎與風險限制,並對所有AI產出負最終專業責任。文件特別指出,當AI工具用於診斷、治療、預測或臨床決策支持時,可能構成醫療器材,須符合澳洲醫療用品管理管理局(Therapeutic Goods Administration, TGA)的相關法規要求。 在風險治理方面,該指引明確區分規則式AI、機器學習與生成式AI,指出後兩者因輸出不確定性、資料偏誤與自動化偏誤風險較高,臨床人員不得過度依賴系統建議,仍須以專業判斷為核心。同時,文件要求醫療機構建立AI治理與監督機制,持續監測效能、偏誤與病安事件,並於必要時通報TGA或隱私主管機關。 在病人權益與隱私保護方面,指引強調知情同意與透明揭露,醫療人員須向病人說明AI使用目的、潛在風險及替代方案,並遵循《1998年隱私法》(Privacy Act 1988)對個人健康資料儲存與跨境處理的限制。澳洲此次發布之臨床AI指引,展現以臨床責任為核心、結合法規遵循與風險管理的治理取向,為各國醫療體系導入AI提供具體且可操作的合規參考。 表1 人工智慧臨床應用指引合規流程 使用前 使用中 使用後 1.界定用途與風險。 2.檢視證據與合規。 3.完備治理與告知。 1.AI輔助決策。 2.即時審查修正。 3.維持溝通透明。 1.持續監測效能。 2.標示可追溯性。 3.通報與再評估。 資料來源:AUSTRALIAN COMMISSION ON SAFETY AND QUALITY IN HEALTH CARE [ACSQHC], AI Clinical Use Guide (2025).

TOP