2024年9月1日,澳洲生效《政府負責任地使用人工智慧的政策》(Policy for the responsible use of AI in government,下稱政策)。澳洲數位轉型局(Digital Transformation Agency,以下稱DTA)提出此政策,旨於透過提升透明度、風險評估,增進人民對政府應用AI的信任。
1. AI之定義
此政策採經濟合作暨發展組織(OECD)之定義:AI系統是一種基於機器設備,從系統接收的資訊進而產出預測、建議、決策內容。
2.適用範圍
(1)此政策適用於「所有非企業的聯邦個體(non-Corporate Commonwealth entities, NCE)」,非企業的聯邦個體指在法律、財務上為聯邦政府的一部分,且須向議會負責。此政策亦鼓勵「企業的聯邦實體」適用此政策。
(2)依據2018年國家情報辦公室法(Office of National Intelligence Act 2018)第4條所規定之國家情報體系(national intelligence community, NIC)可以排除適用此政策。
3.適用此政策之機構,須滿足下列2要件
(1)公布透明度聲明
各機構應在政策生效日起的6個月內(即2025年2月28日前)公開發布透明度聲明,概述其應用AI的方式。
(2)提交權責人員(accountable official,下稱AO)名單
各機構應在政策生效日起90天內(即2024年11月30日前)將AO名單提供給DTA。
所謂AO的職責範圍,主要分為:
I.AO應制定、調整其機構採取之AI治理機制,並定期審查、控管落實情況,並向DTA回報;鼓勵為所有員工執行AI基礎知識教育訓練,並依業務範圍進行額外培訓,例如:負責採購、開發、訓練及部署AI系統的人員,使機構內的利害關係人知道政策的影響。
II.當既有AI 應用案例被機構評估為高風險AI應用案例時,通知DTA該機構所認定之高風險AI應用案例,資訊應包括:AI的類型;預期的AI應用;該機構得出「高風險」評估的原因;任何敏感性資訊(any sensitivities)。
III.擔任機構內協調AI的聯絡窗口
IV.AO應參與或指派代表參與AI議題之政策一體性會議(whole-of-government forums)。
本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。
本文同步刊登於TIPS網站(https://www.tips.org.tw)
Atmel 於2006年3月美國南加州地方法院對世界首屈一指的指紋辨識功能機器的供應商AuthenTec提出告訴,宣稱AuthenTec侵害Atmel兩項專利,今年五月五日法院的即決判決中確定AuthenTec的產品並未侵害Atmel的專利。 AuthenTec 副總裁兼法律顧問 Frederick Jorgensen表示:「從一開始被起訴,對於Atmel的指控,我們十分有信心公司的產品沒有侵權,也十分樂見此次法院的判決。我們相信我們的科技及智慧財產在市場居有領先的地位,為了保護這些資產,我們將會進行保護的措施。」 AuthenTec藉著指紋辨識器增加了很多資產,目前有超過三億個指紋辨識器運用在電腦、手機、PDA及門禁系統上。所有的指紋辨識器都是依據TruePrint的技術精確判斷指紋影像,TruePrint不僅僅可以辨識人類皮膚表層,還可以辨識皮膚表層以下,此項獨一無二的技術不論在任何時間或任何指紋下,都可準確的辨識任何人。目前AuthenTec的客戶包含宏碁、華碩、惠普、三星、LG等等。 除此案之外,AuthenTec尚有許多懸而未決的案子,在三月時,AuthenTec針對Atrua網站上所秀出的智慧型觸控面板手機,提出侵害AuthenTec指紋辨識技術的訴訟。
英國通過《資料(使用與存取)法》,提升資料使用的便利性2025年6月19日,英國《2025年資料(使用與存取)法》(Data(Use and Access)Act 2025,下簡稱DUA法)正式生效。DUA法的宗旨是在《英國一般資料保護規則》(United Kingdom General Data Protection Regulation, UK GDPR)的基礎上,放寬在特定情形下執法機關、企業與個人使用資料的限制,以提升資料管理及使用的便利性。 DUA法預計將於2025年8月開始分階段實施,重點如下: (1) 放寬自動化決策(Automated Decision-Making, ADM)條件:依據UK GDPR規定,個人有不受純粹基於自動化處理且產生法律效果或類似重大影響之決策所拘束之權利。此項規範確立自動化決策之原則性禁止,僅於符合特定例外事由時始得為之。DUA法則放寬此一限制,未來企業只要確保有向當事人提供自動化決策的資訊、決策結果申訴的管道,以及得人為干預設計之保障措施以後,即可做出對個人有重大影響的自動化決策。 (2) 資料主體存取請求權(Subject Access Request, SAR)規範明確化:當事人有權向持有自身個資的單位請求查閱,DUA法明訂組織在收到請求後應回應的時間,而當事人請求的範圍也應合理且合於比例,避免組織浪費人力搜索不重要的資訊。 (3) 建立有效申訴管道:規定任何使用個人資料的組織都必須設立有效的申訴機制、提供電子化申訴管道、並回報處理結果,若訴求未獲得解決,當事人即可向英國資訊專員辦公室(Information Commissioner’s Office, ICO)提出申訴。 (4) 科學研究得採概括同意機制,商業研究亦屬適用範疇:DUA法明確指出,基於科學研究目的,研究人員於確保適當個人資料保護措施之前提下,得以概括同意(broad consent)方式取得當事人之同意,以利進行科學研究活動。DUA法並明確界定科學研究之範疇可涵蓋商業研究(commercial research),擴大其適用領域。 (5) 允許網站直接使用Cookie:網站與應用程式的儲存與存取技術(Storage and Access Technologies)在低風險情況下,可不取得使用者事前同意,即紀錄使用者瀏覽紀錄。 DUA法將於2025年8月開始分階段實施。如何在科技發展的便利性與個人資料的安全性間取得平衡,是當代社會不容忽視的議題,可持續觀察追蹤英國施行DUA法的成效供我國參考。
美國廠商使用之DMCA侵權調查正確性遭質疑一項由華盛頓大學所發表的研究聲明指出,媒體工業團體正使用有瑕疵的方式調查peer-to-peer網路文件共享中侵害著作權的問題。包括M.P.A.A.、E.S.A.、R.I.A.A等團體,不斷寄出逐年增加的DMCA侵權移除通知(takedown notices)給各大學和其他的網路業者。許多大學會在未經查證的情況下直接將侵權移除通知轉寄給學生,R.I.A.A.甚至跟進其中的一些侵權報告並將之寫入財務報告中。 但在2008年6月5日由華盛頓大學的助理教授等三人所發表的研究中認為這一些侵權移除通知應該更審慎檢視之。研究指出,這些團體在指控檔案分享者的調查過程中有嚴重的瑕疵,可能使對方遭受不當的侵權指控,甚至可能來自其他網路使用者的陷害。在2007年5月及8月的兩次實驗中,研究員利用網路監控軟體監控他們的網路流量,實驗結果顯示即使網路監控軟體並未下載任何檔案,卻仍然接收到了超過400次的侵權警告信。 該研究結果顯示執法單位的調查過程中只查詢了網路分享軟體使用者的I.P.位址,卻未真正查明使用者正在下載或是上傳的實際檔案為何,在這種薄弱的搜查技巧跟技術方式之下任何使用網路文件分享軟體的使用者都可能被告,不論其所分享的檔案是否侵權皆如此。
世界衛生組織發布歐洲區域人工智慧於醫療系統準備情況報告,責任規則為最重要之關鍵政策因素世界衛生組織發布歐洲區域人工智慧於醫療系統準備情況報告,責任規則為最重要之關鍵政策因素 資訊工業策進會科技法律研究所 2025年12月18日 世界衛生組織(World Health Organization, WHO)於2025年11月19日發布「人工智慧正在重塑醫療系統:世衛組織歐洲區域準備情況報告」(Artificial intelligence is reshaping health systems: state of readiness across the WHO European Region)[1],本報告為2024年至2025年於WHO歐洲區域醫療照護領域人工智慧(AI for health care)調查結果,借鑒50個成員國之經驗,檢視各國之國家戰略、治理模式、法律與倫理框架、勞動力準備、資料治理、利益相關者參與、私部門角色以及AI應用之普及情況,探討各國如何應對AI於醫療系統中之機會與挑戰。其中責任規則(liability rules)之建立,為成員國認為係推動AI於醫療照護領域廣泛應用之最重要關鍵政策因素,因此本報告建議應明確開發者、臨床醫生、資料提供者與醫療機構之責任,透過救濟與執法管道以保護病患與醫療系統之權益。 壹、事件摘要 本報告發現調查對象中僅有8%成員國已發布國家級醫療領域特定AI策略(national health-specific AI strategy),顯示此處仍有相當大之缺口需要補足。而就醫療領域AI之法律、政策與指導方針框架方面,46%之成員國已評估於現有法律及政策相對於醫療衛生領域AI系統不足之處;54%之成員國已設立監管機構以評估與核准AI系統;惟僅有8%之成員國已制定醫療領域AI之責任標準(liability standards for AI in health),更僅有6%之成員國就醫療照護領域之生成式AI系統提出法律要求。依此可知,成員國對於AI政策之優先事項通常集中於醫療領域AI系統之採購、開發與使用,而對個人或群體不利影響之重視與責任標準之建立仍然有限。於缺乏明確責任標準之情況下,可能會導致臨床醫師對AI之依賴猶豫不決,或者相反地過度依賴AI,從而增加病患安全風險。 就可信賴AI之醫療資料治理方面(health data governance for trustworthy AI),66%成員國已制定專門之國家醫療資料戰略,76%成員國已建立或正在制定醫療資料治理框架,66%成員國已建立區域或國家級醫療資料中心(health data hub),30%成員國已發布關於醫療資料二次利用之指引(the secondary use of health data),30%成員國已制定規則,促進以研究為目的之跨境共享醫療資料(cross-border sharing of health data for research purposes)。依此,許多成員國已在制定國家醫療資料戰略與建立治理框架方面取得顯著進展,惟資料二次利用與跨境利用等領域仍較遲滯,這些資料問題仍需解決,以避免產生技術先進卻無法完全滿足臨床或公衛需求之工具。 就於醫療照護領域採用AI之障礙,有高達86%之成員國認為,最主要之障礙為法律之不確定性(legal uncertainty),其次之障礙為78%之成員國所認為之財務可負擔性(financial affordability);依此,雖AI之採用具有前景,惟仍受到監管不確定性、倫理挑戰、監管不力與資金障礙之限制;而財務上之資金障礙,包括高昂之基礎設施成本、持續員工培訓、有限之健保給付與先進AI系統訂閱費用皆限制AI之普及,特別於規模較小或資源有限之醫療系統中。 就推動AI於醫療照護領域廣泛應用之關鍵政策因素,有高達92%之成員國認為是責任規則(liability rules),其次有90%之成員國認為是關於透明度、可驗證性與可解釋性之指引。依此,幾乎所有成員國皆認為,明確AI系統製造商、部署者與使用者之責任規則為政策上之關鍵推動因素,且確保AI解決方案之透明度、可驗證性與可解釋性之指引,也被認為是信任AI所驅動成果之必要條件。 貳、重點說明 因有高達9成之成員國認為責任規則為推動AI於醫療照護領域廣泛應用之關鍵政策因素,為促進AI應用,本報告建議應明確開發者、臨床醫生、資料提供者與醫療機構之責任,並建立相應機制,以便於AI系統造成損害時及時補救與追究責任,此可確保AI生命週期中每個參與者都能瞭解自身之義務,責任透明,並透過可及之救濟與執法管道以保護病患與醫療系統之權益;以及可利用監管沙盒,使監管機構、開發人員與醫療機構能夠在真實但風險較低之環境中進行合作,從而於監管監督下,於廣泛部署前能及早發現安全、倫理與效能問題,同時促進創新。 此外,WHO歐洲區域官員指出,此次調查結果顯示AI於醫療領域之革命已開始,惟準備程度、能力與治理水準尚未完全跟進,因此呼籲醫療領域之領導者與決策者們可考慮往以下四個方向前進[2]: 1.應有目的性地管理AI:使AI安全、合乎倫理與符合人權; 2.應投資人才:因科技無法治癒病人,人才是治癒病人之根本; 3.需建構可信賴之資料生態系:若大眾對資料缺乏信任,創新就會失敗; 4.需進行跨國合作:AI無國界,合作亦不應受限於國界。 參、事件評析 AI於醫療系統之應用實際上已大幅開展,就歐洲之調查可知,目前雖多數國家已致力於AI於醫材監管法規與資料利用規則之建立,據以推動與監管AI醫療科技之發展,惟由於醫療涉及患者生命身體之健康安全,因此絕大多數國家皆同意,真正影響AI於醫療領域利用之因素,為責任規則之建立,然而,調查結果顯示,實際上已建立醫療領域AI之責任標準者,卻僅有8%之成員國(50個國家中僅有4個國家已建立標準),意味著其為重要之真空地帶,亟待責任法制上之發展與填補,以使廠商願意繼續開發先進AI醫療器材、醫療從業人員願意利用AI醫療科技增進患者福祉,亦使患者於受害時得以獲得適當救濟。亦即是,當有明確之責任歸屬規則,各方當事人方能據以瞭解與評估將AI技術應用於醫療可能帶來之風險與機會,新興AI醫療科技才能真正被信任與利用,而帶來廣泛推廣促進醫療進步之效益。由於保護患者之健康安全為醫療領域之普世價值,此項結論應不僅得適用於歐洲,對於世界各國亦應同樣適用,未來觀察各國於AI醫療領域之責任規則發展,對於我國推廣AI醫療之落地應用亦應具有重要參考價值。 [1] Artificial intelligence is reshaping health systems: state of readiness across the WHO European Region, WHO, Nov. 19, 2025, https://iris.who.int/items/84f1c491-c9d0-4bb3-83cf-3a6f4bf3c3b1 (last visited Dec. 9, 2025). [2] Humanity Must Hold the Pen: The European Region Can Write the Story of Ethical AI for Health, Georgia Today, Dec. 8, 2025,https://georgiatoday.ge/humanity-must-hold-the-pen-the-european-region-can-write-the-story-of-ethical-ai-for-health/ (last visited Dec. 9, 2025).