德國聯邦及各邦獨立資料保護監督機關(unabhängige Datenschutzaufsichtsbehörden)共同於2019年4月3日,召開第97屆資料保護會議通過哈姆巴爾宣言(Hambacher Erklärung,以下簡稱「Hambacher宣言」)。該宣言指出人工智慧雖然為人類帶來福祉,但同時對法律秩序內自由及民主體制造成巨大的威脅,特別是人工智慧系統可以透過自主學習不斷蒐集、處理與利用大量個人資料,並且透過自動化的演算系統,干預個人的權利與自由。
諸如人工智慧系統被運用於判讀應徵者履歷,其篩選結果給予女性較不利的評價時,則暴露出人工智慧處理大量資料時所產生的性別歧視,且該歧視結果無法藉由修正資料予以去除,否則將無法呈現原始資料之真實性。由於保護人民基本權利屬於國家之重要任務,國家有義務使人工智慧的發展與應用,符合民主法治國之制度框架。Hambacher宣言認為透過人工智慧系統運用個人資料時,應符合歐盟一般資料保護規則(The General Data Protection Regulation,以下簡稱GDPR)第5條個人資料蒐集、處理與利用之原則,並基於該原則針對人工智慧提出以下七點個資保護之要求:
(1)人工智慧不應使個人成為客體:依據德國基本法第1條第1項人性尊嚴之保障,資料主體得不受自動化利用後所做成,具有法律效果或類似重大不利影響之決策拘束。
(2)人工智慧應符合目的限制原則:透過人工智慧系統蒐集、處理與利用個人資料時,即使後續擴張利用亦應與原始目的具有一致性。
(3)人工智慧運用處理須透明、易於理解及具有可解釋性:人工智慧在蒐集、處理與利用個人資料時,其過程應保持透明且決策結果易於理解及可解釋,以利於追溯及識別決策流程與結果。
(4)人工智慧應避免產生歧視結果:人工智慧應避免蒐集資料不足或錯誤資料等原因,而產生具有歧視性之決策結果,控管者或處理者使用人工智慧前,應評估對人的權利或自由之風險並控管之。
(5)應遵循資料最少蒐集原則:人工智慧系統通常會蒐集大量資料,蒐集或處理個人資料應於必要範圍內為之,且不得逾越特定目的之必要範圍,並應檢查個人資料是否完全匿名化。
(6)人工智慧須設置問責機關進行監督:依據GDPR第12條、第32條及第35條規定,人工智慧系統內的控管者或處理者應識別風險、溝通責任及採取必要防範措施,以確保蒐集、處理與利用個人資料之安全性。
(7)人工智慧應採取適當技術與組織上的措施管理之:為了符合GDPR第24條及第25條規定,聯邦資料保護監督機關應確認,控管者或處理者採用適當的現有技術及組織措施予以保障個人資料。
綜上所述,Hambacher宣言內容旨在要求,人工智慧在蒐集、處理及利用個人資料時,除遵守歐盟一般資料保護規則之規範外,亦應遵守上述提出之七點原則,以避免其運用結果干預資料主體之基本權利。
美國財政部外國資產管制辦公室(Office of Foreign Assets Control,簡稱OFAC)根據《防止大規模殺傷性武器擴散與恐怖主義》(Preventing Weapons of Mass Destruction Proliferation and Terrorism, 50 U.S. Code Ch. 43)聯邦法律之授權、第13382號總統行政命令(Executive Order,下稱行政命令)以及第14024號行政命令,於2022年9月8日將向俄羅斯運送伊朗製無人機(Unmanned Aerial Vehicles,簡稱UAVs)之空運業者納入制裁清單;另將3家公司與1位參與無人機及其零組件研究、開發、生產與採購之個人納入制裁清單,避免非來自伊朗及俄羅斯之實體支持伊朗製無人機之研發,或向俄羅斯出售任何用於對付烏克蘭的軍事裝備。 此次列於清單中之空運業者Safiran Airport Services,總部位於伊朗德黑蘭,其將伊朗製無人機、人員和相關設備從伊朗運送到俄羅斯。根據情報顯示,俄羅斯軍隊打算將伊朗製無人機與俄羅斯無人機運用在對烏克蘭的戰爭中,故OFAC依據第14024號行政命令,將該空運業者納入制裁清單。另針對無人機製造商,以Paravar Pars為例,其參與伊朗Shahed-171無人機研發和生產,故OFAC依據第13382號行政命令,將其列入制裁清單。 上述空運業者及製造商在遭受制裁後,可能會受到的影響包括: (1)在美國或由美國籍公民或企業所有或控制的所有財產和財產利益皆被凍結;禁止與美國籍公民或企業交易;或禁止與在美國境內被制裁對象的任何財產或利益交易(如金流過境美國的交易);與前述列為清單對象進行交易之人,亦可能會被列為清單對象。 (2)任何外國金融機構故意與前述列為清單制裁對象,促成重大交易或提供重要金融服務,都可能受美國相應的制裁或對「支付過渡帳戶」(payable-through account)的制裁。而此「制裁」不限於凍結帳戶,參考OFAC官網中的第36則FAQ之說明(https://home.treasury.gov/policy-issues/financial-sanctions/faqs/topic/1601),某些案例中之交易應該被禁止,但該交易沒有可凍結的利益時(如該帳戶已為制裁清單所列對象或已被凍結的個人或政府),OFAC會以「要求美國金融機構拒絕非制裁以外的第三國企業間的交易」或以「透過禁令使美國金融機構拒絕處理該交易且退回款項予匯款人,除非有得到事前個別授權」等方式處理。
梵諦岡與IBM、微軟聯合呼籲對臉部辨識等侵入性技術進行監管2020年2月28日梵諦岡教宗與兩大科技巨頭IBM及微軟聯合簽署「羅馬呼籲AI倫理道德」文件,支持制定人工智慧(AI)發展倫理與道德規範,並特別呼籲應針對臉部辨識等侵入性技術進行監管。在聯合文件上特別提及臉部識別技術潛在之濫用風險,例如警察會使用臉部辨識系統調查犯罪行為、《財富》500強公司使用AI審查求職者,這兩個例子均具有潛在且高度之風險,使用不正確或是具有偏見之AI判斷均可能會造成傷害。誠如方濟各在致辭中說:「人工智慧記錄個人資料,並使用於商業或政治目的,而且通常是在個人不知情之情況下,這種不對稱,將使少數人了解我們的一切,但我們卻對他們一無所知,這將使批判性思維和對自由的自覺變得遲鈍,不平等現象急遽擴大,知識和財富在少數人手中累積,將對民主社會構成重大風險。」 此次會議希望在國家與國際層面上共同努力促進AI道德規範,並根據以下原則來發展和使用人工智慧。第一,良好的創新:人工智慧系統必須是可理解得,並且在包容性方面必須考慮到所有人的需求,以便每個人都能受益。第二,責任:設計和實施人工智慧者必須承擔責任和保持透明度。第三,公正性:避免根據偏見進行創造或採取行動,從而維護人類平等和尊嚴。第四,可靠性:人工智慧系統必須能夠可靠的運行。第五,安全和隱私:人工智慧系統必須安全運行並尊重用戶的隱私。 目前尚不清楚其他技術公司是否會簽署該文件,以及簽署人將如何實施,但教宗與兩大科技巨頭史無前例的合作,為人工智慧未來發展方向提供遠見卓識,能更加深入的去思考AI的道德意涵以及它將如何與人類更好的合作、互動,互利共生,相輔相成。
美國加州「Asilomar人工智慧原則決議」美國加州議會於2018年9月7日通過Asilomar人工智慧原則決議(23 Asilomar AI Principles, ACR-215),此決議表達加州對於「23條Asilomar人工智慧原則」之支持,以作為產業或學界發展人工智慧、政府制定人工智慧政策之指標,並提供企業開發人工智慧系統時可遵循之原則。依此法案所建立之重要指標如下: (1)於研究原則上,人工智慧之研究應以建立對於人類有利之人工智慧為目標。 (2)於研究資助上,人工智慧之研究資助應著重幾個方向,如:使人工智慧更加健全且可抵抗外界駭客干擾、使人工智慧促進人類福祉同時保留人類價值以及勞動意義、使法律制度可以順應人工智慧之發展。 (3)於科學政策之連結上,人工智慧研究者與政策擬定者間應有具有建設性且健全之資訊交流。 (4)於研究文化上,人工智慧研究者應保持合作、互信、透明之研究文化。 (5)於安全性上,人工智慧研究團隊應避免為了研究競爭而忽略人工智慧應具備之安全性。 (6)人工智慧系統應該於服務期間內皆具備安全性及可檢視性。 (7)人工智慧系統之編寫,應可使外界於其造成社會損失時檢視其出錯原因。 (8)人工智慧系統如應用於司法判斷上,應提供可供專門人員檢視之合理推論過程。 (9)人工智慧所產生之責任,應由設計者以及建造者負擔。 (10)高等人工智慧內在價值觀之設計上,應符合人類社會之價值觀。 (11)高等人工智慧之設計應可與人類之尊嚴、權利、自由以及文化差異相互調和。 (12)對於人工智慧所使用之資料,其人類所有權人享有擷取、更改以及操作之權利。 (13)人工智慧之應用不該限制人類「客觀事實上」或「主觀知覺上」之自由。 (14)人工智慧之技術應盡力滿足越多人之利益。 (15)人工智慧之經濟利益,應為整體人類所合理共享。 (16)人類對於人工智慧之內在目標應享有最終設定權限。 (17)高等人工智慧所帶來或賦予之權力,對於人類社會之基本價值觀應絕對尊重。 (18)人工智慧所產生之自動化武器之軍備競賽應被禁止。 (19)政策上對於人工智慧外來之發展程度,不應預設立場。 (20)高等人工智慧系統之研發,由於對於人類歷史社會將造成重大影響,應予以絕對慎重考量。 (21)人工智慧之運用上,應衡量其潛在風險以及可以對於社會所帶來之利益。 (22)人工智慧可不斷自我循環改善,而可快速增進運作品質,其安全標準應予以嚴格設定。 (23)對於超人工智慧或強人工智慧,應僅為全體人類福祉而發展、設計,不應僅為符合特定國家、組織而設計。
世界衛生組織發布歐洲區域人工智慧於醫療系統準備情況報告,責任規則為最重要之關鍵政策因素世界衛生組織發布歐洲區域人工智慧於醫療系統準備情況報告,責任規則為最重要之關鍵政策因素 資訊工業策進會科技法律研究所 2025年12月18日 世界衛生組織(World Health Organization, WHO)於2025年11月19日發布「人工智慧正在重塑醫療系統:世衛組織歐洲區域準備情況報告」(Artificial intelligence is reshaping health systems: state of readiness across the WHO European Region)[1],本報告為2024年至2025年於WHO歐洲區域醫療照護領域人工智慧(AI for health care)調查結果,借鑒50個成員國之經驗,檢視各國之國家戰略、治理模式、法律與倫理框架、勞動力準備、資料治理、利益相關者參與、私部門角色以及AI應用之普及情況,探討各國如何應對AI於醫療系統中之機會與挑戰。其中責任規則(liability rules)之建立,為成員國認為係推動AI於醫療照護領域廣泛應用之最重要關鍵政策因素,因此本報告建議應明確開發者、臨床醫生、資料提供者與醫療機構之責任,透過救濟與執法管道以保護病患與醫療系統之權益。 壹、事件摘要 本報告發現調查對象中僅有8%成員國已發布國家級醫療領域特定AI策略(national health-specific AI strategy),顯示此處仍有相當大之缺口需要補足。而就醫療領域AI之法律、政策與指導方針框架方面,46%之成員國已評估於現有法律及政策相對於醫療衛生領域AI系統不足之處;54%之成員國已設立監管機構以評估與核准AI系統;惟僅有8%之成員國已制定醫療領域AI之責任標準(liability standards for AI in health),更僅有6%之成員國就醫療照護領域之生成式AI系統提出法律要求。依此可知,成員國對於AI政策之優先事項通常集中於醫療領域AI系統之採購、開發與使用,而對個人或群體不利影響之重視與責任標準之建立仍然有限。於缺乏明確責任標準之情況下,可能會導致臨床醫師對AI之依賴猶豫不決,或者相反地過度依賴AI,從而增加病患安全風險。 就可信賴AI之醫療資料治理方面(health data governance for trustworthy AI),66%成員國已制定專門之國家醫療資料戰略,76%成員國已建立或正在制定醫療資料治理框架,66%成員國已建立區域或國家級醫療資料中心(health data hub),30%成員國已發布關於醫療資料二次利用之指引(the secondary use of health data),30%成員國已制定規則,促進以研究為目的之跨境共享醫療資料(cross-border sharing of health data for research purposes)。依此,許多成員國已在制定國家醫療資料戰略與建立治理框架方面取得顯著進展,惟資料二次利用與跨境利用等領域仍較遲滯,這些資料問題仍需解決,以避免產生技術先進卻無法完全滿足臨床或公衛需求之工具。 就於醫療照護領域採用AI之障礙,有高達86%之成員國認為,最主要之障礙為法律之不確定性(legal uncertainty),其次之障礙為78%之成員國所認為之財務可負擔性(financial affordability);依此,雖AI之採用具有前景,惟仍受到監管不確定性、倫理挑戰、監管不力與資金障礙之限制;而財務上之資金障礙,包括高昂之基礎設施成本、持續員工培訓、有限之健保給付與先進AI系統訂閱費用皆限制AI之普及,特別於規模較小或資源有限之醫療系統中。 就推動AI於醫療照護領域廣泛應用之關鍵政策因素,有高達92%之成員國認為是責任規則(liability rules),其次有90%之成員國認為是關於透明度、可驗證性與可解釋性之指引。依此,幾乎所有成員國皆認為,明確AI系統製造商、部署者與使用者之責任規則為政策上之關鍵推動因素,且確保AI解決方案之透明度、可驗證性與可解釋性之指引,也被認為是信任AI所驅動成果之必要條件。 貳、重點說明 因有高達9成之成員國認為責任規則為推動AI於醫療照護領域廣泛應用之關鍵政策因素,為促進AI應用,本報告建議應明確開發者、臨床醫生、資料提供者與醫療機構之責任,並建立相應機制,以便於AI系統造成損害時及時補救與追究責任,此可確保AI生命週期中每個參與者都能瞭解自身之義務,責任透明,並透過可及之救濟與執法管道以保護病患與醫療系統之權益;以及可利用監管沙盒,使監管機構、開發人員與醫療機構能夠在真實但風險較低之環境中進行合作,從而於監管監督下,於廣泛部署前能及早發現安全、倫理與效能問題,同時促進創新。 此外,WHO歐洲區域官員指出,此次調查結果顯示AI於醫療領域之革命已開始,惟準備程度、能力與治理水準尚未完全跟進,因此呼籲醫療領域之領導者與決策者們可考慮往以下四個方向前進[2]: 1.應有目的性地管理AI:使AI安全、合乎倫理與符合人權; 2.應投資人才:因科技無法治癒病人,人才是治癒病人之根本; 3.需建構可信賴之資料生態系:若大眾對資料缺乏信任,創新就會失敗; 4.需進行跨國合作:AI無國界,合作亦不應受限於國界。 參、事件評析 AI於醫療系統之應用實際上已大幅開展,就歐洲之調查可知,目前雖多數國家已致力於AI於醫材監管法規與資料利用規則之建立,據以推動與監管AI醫療科技之發展,惟由於醫療涉及患者生命身體之健康安全,因此絕大多數國家皆同意,真正影響AI於醫療領域利用之因素,為責任規則之建立,然而,調查結果顯示,實際上已建立醫療領域AI之責任標準者,卻僅有8%之成員國(50個國家中僅有4個國家已建立標準),意味著其為重要之真空地帶,亟待責任法制上之發展與填補,以使廠商願意繼續開發先進AI醫療器材、醫療從業人員願意利用AI醫療科技增進患者福祉,亦使患者於受害時得以獲得適當救濟。亦即是,當有明確之責任歸屬規則,各方當事人方能據以瞭解與評估將AI技術應用於醫療可能帶來之風險與機會,新興AI醫療科技才能真正被信任與利用,而帶來廣泛推廣促進醫療進步之效益。由於保護患者之健康安全為醫療領域之普世價值,此項結論應不僅得適用於歐洲,對於世界各國亦應同樣適用,未來觀察各國於AI醫療領域之責任規則發展,對於我國推廣AI醫療之落地應用亦應具有重要參考價值。 [1] Artificial intelligence is reshaping health systems: state of readiness across the WHO European Region, WHO, Nov. 19, 2025, https://iris.who.int/items/84f1c491-c9d0-4bb3-83cf-3a6f4bf3c3b1 (last visited Dec. 9, 2025). [2] Humanity Must Hold the Pen: The European Region Can Write the Story of Ethical AI for Health, Georgia Today, Dec. 8, 2025,https://georgiatoday.ge/humanity-must-hold-the-pen-the-european-region-can-write-the-story-of-ethical-ai-for-health/ (last visited Dec. 9, 2025).