世界衛生組織(World Health Organization, WHO)於2020年8月24日公布「COVID-19疫苗全球取得機制(COVID-19 Vaccines Global Access Facility, COVAX)」,由全球疫苗與預防注射聯盟(Global Alliance for Vaccines and Immunisation, GAVI)、流行病預防創新聯盟(Coalition for Epidemic Preparedness Innovations, CEPI)及WHO共同主導,與多家疫苗廠商合作,協助取得多種疫苗組合的授權及核准,促進COVID-19全球疫苗研發及公平分配。
COVAX是WHO「獲取COVID- 19工具加速計畫(Access to COVID-19 Tools Accelerator, ACT Accelerator)」下的疫苗分配機制。ACT-Accelerator透過匯集各國政府、衛生機構、科學界、產業界、民間團體的力量,共同合作開發創新診斷方法、加速融資研發治療工具、制定公平分配與交付疫苗機制、確保衛生系統與社區網路連接等四大領域,以盡快結束大流行疫情。
COVAX作為COVID-19疫苗聯合採購機制,預計2021年底要提供20億劑疫苗,籌資181億美元;由GAVI與高收入國家簽訂投資契約,透過全球融資機制採購9.5億劑疫苗,同時搭配WHO制定的疫苗倫理分配架構,使COVAX能夠集中各國經濟體的購買力,保證候選疫苗的採購數量,鼓勵擁有專業知識的疫苗廠商盡速投入大規模的新疫苗生產,確保參與COVAX的國家及經濟體,皆能迅速、公平公正地取得大量有效的疫苗。
COVAX承諾將為全球92個中低收入經濟體提供參與COVAX的融資工具;超過80個高收入經濟體已提交參與COVAX的意向書,將從公共財政預算中編列全球疫苗研發的捐助資金,並與92個中低收入國家結成疫苗合作夥伴。透過COVAX機制產出的疫苗,將會按照參與國人口比例公平地分配給所有國家,並且優先提供疫苗給衛生醫療工作者、老年人及疾病弱勢群體;隨後再根據各國家需求、易受感染程度與COVID-19威脅情況,提供更多劑量的支援。
本文為「經濟部產業技術司科技專案成果」
世界衛生組織發布歐洲區域人工智慧於醫療系統準備情況報告,責任規則為最重要之關鍵政策因素 資訊工業策進會科技法律研究所 2025年12月18日 世界衛生組織(World Health Organization, WHO)於2025年11月19日發布「人工智慧正在重塑醫療系統:世衛組織歐洲區域準備情況報告」(Artificial intelligence is reshaping health systems: state of readiness across the WHO European Region)[1],本報告為2024年至2025年於WHO歐洲區域醫療照護領域人工智慧(AI for health care)調查結果,借鑒50個成員國之經驗,檢視各國之國家戰略、治理模式、法律與倫理框架、勞動力準備、資料治理、利益相關者參與、私部門角色以及AI應用之普及情況,探討各國如何應對AI於醫療系統中之機會與挑戰。其中責任規則(liability rules)之建立,為成員國認為係推動AI於醫療照護領域廣泛應用之最重要關鍵政策因素,因此本報告建議應明確開發者、臨床醫生、資料提供者與醫療機構之責任,透過救濟與執法管道以保護病患與醫療系統之權益。 壹、事件摘要 本報告發現調查對象中僅有8%成員國已發布國家級醫療領域特定AI策略(national health-specific AI strategy),顯示此處仍有相當大之缺口需要補足。而就醫療領域AI之法律、政策與指導方針框架方面,46%之成員國已評估於現有法律及政策相對於醫療衛生領域AI系統不足之處;54%之成員國已設立監管機構以評估與核准AI系統;惟僅有8%之成員國已制定醫療領域AI之責任標準(liability standards for AI in health),更僅有6%之成員國就醫療照護領域之生成式AI系統提出法律要求。依此可知,成員國對於AI政策之優先事項通常集中於醫療領域AI系統之採購、開發與使用,而對個人或群體不利影響之重視與責任標準之建立仍然有限。於缺乏明確責任標準之情況下,可能會導致臨床醫師對AI之依賴猶豫不決,或者相反地過度依賴AI,從而增加病患安全風險。 就可信賴AI之醫療資料治理方面(health data governance for trustworthy AI),66%成員國已制定專門之國家醫療資料戰略,76%成員國已建立或正在制定醫療資料治理框架,66%成員國已建立區域或國家級醫療資料中心(health data hub),30%成員國已發布關於醫療資料二次利用之指引(the secondary use of health data),30%成員國已制定規則,促進以研究為目的之跨境共享醫療資料(cross-border sharing of health data for research purposes)。依此,許多成員國已在制定國家醫療資料戰略與建立治理框架方面取得顯著進展,惟資料二次利用與跨境利用等領域仍較遲滯,這些資料問題仍需解決,以避免產生技術先進卻無法完全滿足臨床或公衛需求之工具。 就於醫療照護領域採用AI之障礙,有高達86%之成員國認為,最主要之障礙為法律之不確定性(legal uncertainty),其次之障礙為78%之成員國所認為之財務可負擔性(financial affordability);依此,雖AI之採用具有前景,惟仍受到監管不確定性、倫理挑戰、監管不力與資金障礙之限制;而財務上之資金障礙,包括高昂之基礎設施成本、持續員工培訓、有限之健保給付與先進AI系統訂閱費用皆限制AI之普及,特別於規模較小或資源有限之醫療系統中。 就推動AI於醫療照護領域廣泛應用之關鍵政策因素,有高達92%之成員國認為是責任規則(liability rules),其次有90%之成員國認為是關於透明度、可驗證性與可解釋性之指引。依此,幾乎所有成員國皆認為,明確AI系統製造商、部署者與使用者之責任規則為政策上之關鍵推動因素,且確保AI解決方案之透明度、可驗證性與可解釋性之指引,也被認為是信任AI所驅動成果之必要條件。 貳、重點說明 因有高達9成之成員國認為責任規則為推動AI於醫療照護領域廣泛應用之關鍵政策因素,為促進AI應用,本報告建議應明確開發者、臨床醫生、資料提供者與醫療機構之責任,並建立相應機制,以便於AI系統造成損害時及時補救與追究責任,此可確保AI生命週期中每個參與者都能瞭解自身之義務,責任透明,並透過可及之救濟與執法管道以保護病患與醫療系統之權益;以及可利用監管沙盒,使監管機構、開發人員與醫療機構能夠在真實但風險較低之環境中進行合作,從而於監管監督下,於廣泛部署前能及早發現安全、倫理與效能問題,同時促進創新。 此外,WHO歐洲區域官員指出,此次調查結果顯示AI於醫療領域之革命已開始,惟準備程度、能力與治理水準尚未完全跟進,因此呼籲醫療領域之領導者與決策者們可考慮往以下四個方向前進[2]: 1.應有目的性地管理AI:使AI安全、合乎倫理與符合人權; 2.應投資人才:因科技無法治癒病人,人才是治癒病人之根本; 3.需建構可信賴之資料生態系:若大眾對資料缺乏信任,創新就會失敗; 4.需進行跨國合作:AI無國界,合作亦不應受限於國界。 參、事件評析 AI於醫療系統之應用實際上已大幅開展,就歐洲之調查可知,目前雖多數國家已致力於AI於醫材監管法規與資料利用規則之建立,據以推動與監管AI醫療科技之發展,惟由於醫療涉及患者生命身體之健康安全,因此絕大多數國家皆同意,真正影響AI於醫療領域利用之因素,為責任規則之建立,然而,調查結果顯示,實際上已建立醫療領域AI之責任標準者,卻僅有8%之成員國(50個國家中僅有4個國家已建立標準),意味著其為重要之真空地帶,亟待責任法制上之發展與填補,以使廠商願意繼續開發先進AI醫療器材、醫療從業人員願意利用AI醫療科技增進患者福祉,亦使患者於受害時得以獲得適當救濟。亦即是,當有明確之責任歸屬規則,各方當事人方能據以瞭解與評估將AI技術應用於醫療可能帶來之風險與機會,新興AI醫療科技才能真正被信任與利用,而帶來廣泛推廣促進醫療進步之效益。由於保護患者之健康安全為醫療領域之普世價值,此項結論應不僅得適用於歐洲,對於世界各國亦應同樣適用,未來觀察各國於AI醫療領域之責任規則發展,對於我國推廣AI醫療之落地應用亦應具有重要參考價值。 [1] Artificial intelligence is reshaping health systems: state of readiness across the WHO European Region, WHO, Nov. 19, 2025, https://iris.who.int/items/84f1c491-c9d0-4bb3-83cf-3a6f4bf3c3b1 (last visited Dec. 9, 2025). [2] Humanity Must Hold the Pen: The European Region Can Write the Story of Ethical AI for Health, Georgia Today, Dec. 8, 2025,https://georgiatoday.ge/humanity-must-hold-the-pen-the-european-region-can-write-the-story-of-ethical-ai-for-health/ (last visited Dec. 9, 2025).
韓國《創業投資促進法》修正:明確創辦人連帶責任之適用範圍韓國國會於2025年11月21日通過《創業投資促進法》(Venture Investment Promotion Act, VIPA)修正,並於同年12月30日經總統公布,將過往僅屬行政指導層級,建議投資契約不宜要求創辦人對受投資企業依法應負擔的營運責任或債務義務負連帶保證責任,提升為具有法律拘束力之規範。 過去韓國雖透過行政指導方式,建議投資契約不宜要求創辦人負連帶保證責任,但因缺乏法律強制力,投資方常基於契約自由原則,仍在契約中要求創辦人擔保,造成風險不對等,影響創辦人創業意願。 修法後原則上不得將受投資企業依法應負擔的營運責任或債務義務強加於創辦人,透過法律規範,改善創辦人與投資方間的締約地位不對等,使投資風險更回歸企業本身之經營表現與事業前景之評估,進而提升新創團隊取得資本市場資源之效率。然而,為在制度保障與契約自由間取得平衡,若創辦人涉及提供虛假資訊、違反資金用途、違規處分股票或嚴重違約等故意或重大過失行為,該規範將不適用,投資方仍可請求創辦人履行連帶保證義務。 此外,本次修法後,創業育成機構、加速器、創投公司等與創辦人簽訂投資契約之情況下,不得要求創辦人就受投資企業依法應負擔之營運責任或債務義務負連帶保證責任,旨在於創投生態中建立統一風險分攤標準,釐清企業債務與個人財務界線。 本法預計於2026年7月1日生效,但有關明確創辦人連帶責任之適用範圍之條文,依附則規定自2025年12月30日公布日起即刻施行,從法律層面確立對創辦人的保護,改善韓國創投領域的責任歸屬制度。
澳洲政府公布「國家電池戰略」,概述澳洲將如何擴大電池製造能力和技術,提升經濟韌性和安全性澳洲政府2024年5月23日公布「國家電池戰略」(National Battery Strategy),這是澳洲政府推動「澳洲未來製造」(Future Made in Australia)政策計畫重要的一環。該戰略概述政府將如何擴大澳洲電池製造能力和發展專業技術,提升澳洲的經濟韌性和安全性。 戰略文件中,主要行動分為五項: 一、建立電池製造能力,增強經濟韌性,利用優勢促進國家經濟增長: 以2024年4月公布的《澳洲未來製造法》(Future Made in Australia Act)作為支持電池行業的法源。政府未來10年會提供227億澳元,投資包括再生氫、綠色金屬、低碳液體燃料、關鍵礦產精煉和清潔能源製造技術。 二、培養人才知識和技能,創造澳洲本土工作機會: 建立電池製造園區,結合企業和研究機構,將電池研究集中在有顯著需求和具市場潛力的領域。 三、確保澳洲在全球電池供應鏈中的地位: 重點支持構建供應鏈韌性的製造業,透過國際合作,應對氣候挑戰,支持電力轉型,創造清潔能源貿易機會,推廣高ESG標準。 四、在永續、標準和循環經濟方面引領世界 支持澳洲各地建立電池回收設施,補助電池回收技術的研究和測試,同時要求電池產業採取嚴格和有效的ESG措施。 五、促進各級政府合作 與各級政府合作,採取一致的標準和方法發展電池技術。透過聯合採購推動電池產業,並集中管理和輔導澳洲電池製造商。 澳洲擁有豐富的礦物資源,供應全球一半的鋰,但是其所製造的加工電池元件占全球不到1%;「國家電池戰略」的發布顯示澳洲政府希望利用自身優勢,在全球能源轉型中佔有一席之地的企圖心。
歐盟公布人工智慧白皮書歐盟執委會於2020年2月19日發表《人工智慧白皮書》(White Paper On Artificial Intelligence-A European approach to excellence and trust)指出未來將以「監管」與「投資」兩者並重,促進人工智慧之應用並同時解決該項技術帶來之風險。 在投資方面,白皮書提及歐洲需要大幅提高人工智慧研究和創新領域之投資,目標是未來10年中,每年在歐盟吸引超過200億歐元關於人工智慧技術研發和應用資金;並透過頂尖大學和高等教育機構吸引最優秀的教授和科學家,並在人工智慧領域提供世界領先的教育課程。 而在監管方面,白皮書提到將以2019年4月發布之《可信賴之人工智慧倫理準則》所提出之七項關鍵要求為基礎,未來將制定明確之歐洲監管框架。在監管框架下,應包括下列幾個重點:1.有效實施與執行現有歐盟和國家法規,例如現行法規有關責任歸屬之規範可能需要進一步釐清;2.釐清現行歐盟法規之限制,例如現行歐盟產品安全法規原則上不適用於「服務」或是是否涵蓋獨立運作之軟體(stand-alone software)有待釐清;3.應可更改人工智慧系統之功能,人工智慧技術需要頻繁更新軟體,針對此類風險,應制定可針對此類產品在生命週期內修改功能之規範;4.有效分配不同利害關係者間之責任,目前產品責任偏向生產者負責,而未來可能須由非生產者共同分配責任;5.掌握人工智慧帶來的新興風險,並因應風險所帶來之變化。同時,白皮書也提出高風險人工智慧應用程式的判斷標準與監管重點,認為未來應根據風險來進行不同程度之監管。執委會並透過網站向公眾徵求針對《人工智慧白皮書》所提出建議之諮詢意見,截止日期為2020年5月19日。