歐盟公布行動健康(mHealth)公共諮詢報告

  歐盟在2014針對行動健康(mHealth)綠皮書進行公共諮詢,要求相關之人針對mHealth發展的十一個議題提出意見。進行的時間從2014年4月10日至7月10日,歐盟在2015年1月12日公布諮詢結果,總計有211位參與者回覆,其中71%由組織機構回覆,29%則為個人意見回覆。

  在諮詢報告中所提列之十一項議題包含:1. 健康資料的安全性、2. 巨量資料、3. 於目前歐盟法規下的適用情況、4. 病人安全性與資訊透明化、5. mHealth在醫療照護系統的定位以及平等使用、6. 互通性、7. 補助機制、8. 責任歸屬、9. 研究與發展、10.國際合作、11. mHealth市場發展性等。

  針對上述議題,諮詢報告提出幾項認為未來發展mHealth時面臨之問題以及應該如何因應。包含: 1. 多數認為應建立隱私安全保護工具,包括資料加密以及驗證機制。逾半數的人認為應該執行資料保護,將法規適用於mHealth相關器材。2. 近半數的人要求病人安全以及資料的透明性,因此,應可建立制度使這些mHealth APP經品質認證通過後上市。3. 對於mHealth的業者而言,認為需要有清楚的法規架構、互通性以及共通的品質標準建立,才能有助於產業的發展。4.透過立法、自律機制以及指導原則的建立,使mHealth APP所衍生之問題能有規範可供解決。5. 部分認為mHealth的成本效益需要有更多的數據證據分析來評估。例如,在美歐國家曾進行一項測試,mHealth可以減少50-60%肺部慢性疾病病人住院以及再次入院的比例。此外,mHealth亦可減少25%老人照護的成本支出。6. 歐盟以及各個國家應該確認mHealth的互通性,基於持續性的照護以及研究目的,能有共通可相互使用的電子醫療紀錄。7. 其次則是應該促使開放標準,並有醫療專家以及使用者積極參與使mHealth能完備進行。

  在歐盟此的mHealth公共諮詢報告中,已提出未來可能面臨的問題,歐盟嘗試以既有之指令規範檢視mHealth衍生之問題是否能夠加以因應解決,其主要目的仍在於讓消費者能安全使用,同時亦希望能促進產業開發與進步,其後續發展值得觀察,同時亦可提供相關業者開發時之參考。

相關連結
※ 歐盟公布行動健康(mHealth)公共諮詢報告, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=6873&no=64&tp=1 (最後瀏覽日:2026/04/05)
引註此篇文章
你可能還會想看
世界衛生組織發布歐洲區域人工智慧於醫療系統準備情況報告,責任規則為最重要之關鍵政策因素

世界衛生組織發布歐洲區域人工智慧於醫療系統準備情況報告,責任規則為最重要之關鍵政策因素 資訊工業策進會科技法律研究所 2025年12月18日 世界衛生組織(World Health Organization, WHO)於2025年11月19日發布「人工智慧正在重塑醫療系統:世衛組織歐洲區域準備情況報告」(Artificial intelligence is reshaping health systems: state of readiness across the WHO European Region)[1],本報告為2024年至2025年於WHO歐洲區域醫療照護領域人工智慧(AI for health care)調查結果,借鑒50個成員國之經驗,檢視各國之國家戰略、治理模式、法律與倫理框架、勞動力準備、資料治理、利益相關者參與、私部門角色以及AI應用之普及情況,探討各國如何應對AI於醫療系統中之機會與挑戰。其中責任規則(liability rules)之建立,為成員國認為係推動AI於醫療照護領域廣泛應用之最重要關鍵政策因素,因此本報告建議應明確開發者、臨床醫生、資料提供者與醫療機構之責任,透過救濟與執法管道以保護病患與醫療系統之權益。 壹、事件摘要 本報告發現調查對象中僅有8%成員國已發布國家級醫療領域特定AI策略(national health-specific AI strategy),顯示此處仍有相當大之缺口需要補足。而就醫療領域AI之法律、政策與指導方針框架方面,46%之成員國已評估於現有法律及政策相對於醫療衛生領域AI系統不足之處;54%之成員國已設立監管機構以評估與核准AI系統;惟僅有8%之成員國已制定醫療領域AI之責任標準(liability standards for AI in health),更僅有6%之成員國就醫療照護領域之生成式AI系統提出法律要求。依此可知,成員國對於AI政策之優先事項通常集中於醫療領域AI系統之採購、開發與使用,而對個人或群體不利影響之重視與責任標準之建立仍然有限。於缺乏明確責任標準之情況下,可能會導致臨床醫師對AI之依賴猶豫不決,或者相反地過度依賴AI,從而增加病患安全風險。 就可信賴AI之醫療資料治理方面(health data governance for trustworthy AI),66%成員國已制定專門之國家醫療資料戰略,76%成員國已建立或正在制定醫療資料治理框架,66%成員國已建立區域或國家級醫療資料中心(health data hub),30%成員國已發布關於醫療資料二次利用之指引(the secondary use of health data),30%成員國已制定規則,促進以研究為目的之跨境共享醫療資料(cross-border sharing of health data for research purposes)。依此,許多成員國已在制定國家醫療資料戰略與建立治理框架方面取得顯著進展,惟資料二次利用與跨境利用等領域仍較遲滯,這些資料問題仍需解決,以避免產生技術先進卻無法完全滿足臨床或公衛需求之工具。 就於醫療照護領域採用AI之障礙,有高達86%之成員國認為,最主要之障礙為法律之不確定性(legal uncertainty),其次之障礙為78%之成員國所認為之財務可負擔性(financial affordability);依此,雖AI之採用具有前景,惟仍受到監管不確定性、倫理挑戰、監管不力與資金障礙之限制;而財務上之資金障礙,包括高昂之基礎設施成本、持續員工培訓、有限之健保給付與先進AI系統訂閱費用皆限制AI之普及,特別於規模較小或資源有限之醫療系統中。 就推動AI於醫療照護領域廣泛應用之關鍵政策因素,有高達92%之成員國認為是責任規則(liability rules),其次有90%之成員國認為是關於透明度、可驗證性與可解釋性之指引。依此,幾乎所有成員國皆認為,明確AI系統製造商、部署者與使用者之責任規則為政策上之關鍵推動因素,且確保AI解決方案之透明度、可驗證性與可解釋性之指引,也被認為是信任AI所驅動成果之必要條件。 貳、重點說明 因有高達9成之成員國認為責任規則為推動AI於醫療照護領域廣泛應用之關鍵政策因素,為促進AI應用,本報告建議應明確開發者、臨床醫生、資料提供者與醫療機構之責任,並建立相應機制,以便於AI系統造成損害時及時補救與追究責任,此可確保AI生命週期中每個參與者都能瞭解自身之義務,責任透明,並透過可及之救濟與執法管道以保護病患與醫療系統之權益;以及可利用監管沙盒,使監管機構、開發人員與醫療機構能夠在真實但風險較低之環境中進行合作,從而於監管監督下,於廣泛部署前能及早發現安全、倫理與效能問題,同時促進創新。 此外,WHO歐洲區域官員指出,此次調查結果顯示AI於醫療領域之革命已開始,惟準備程度、能力與治理水準尚未完全跟進,因此呼籲醫療領域之領導者與決策者們可考慮往以下四個方向前進[2]: 1.應有目的性地管理AI:使AI安全、合乎倫理與符合人權; 2.應投資人才:因科技無法治癒病人,人才是治癒病人之根本; 3.需建構可信賴之資料生態系:若大眾對資料缺乏信任,創新就會失敗; 4.需進行跨國合作:AI無國界,合作亦不應受限於國界。 參、事件評析 AI於醫療系統之應用實際上已大幅開展,就歐洲之調查可知,目前雖多數國家已致力於AI於醫材監管法規與資料利用規則之建立,據以推動與監管AI醫療科技之發展,惟由於醫療涉及患者生命身體之健康安全,因此絕大多數國家皆同意,真正影響AI於醫療領域利用之因素,為責任規則之建立,然而,調查結果顯示,實際上已建立醫療領域AI之責任標準者,卻僅有8%之成員國(50個國家中僅有4個國家已建立標準),意味著其為重要之真空地帶,亟待責任法制上之發展與填補,以使廠商願意繼續開發先進AI醫療器材、醫療從業人員願意利用AI醫療科技增進患者福祉,亦使患者於受害時得以獲得適當救濟。亦即是,當有明確之責任歸屬規則,各方當事人方能據以瞭解與評估將AI技術應用於醫療可能帶來之風險與機會,新興AI醫療科技才能真正被信任與利用,而帶來廣泛推廣促進醫療進步之效益。由於保護患者之健康安全為醫療領域之普世價值,此項結論應不僅得適用於歐洲,對於世界各國亦應同樣適用,未來觀察各國於AI醫療領域之責任規則發展,對於我國推廣AI醫療之落地應用亦應具有重要參考價值。 [1] Artificial intelligence is reshaping health systems: state of readiness across the WHO European Region, WHO, Nov. 19, 2025, https://iris.who.int/items/84f1c491-c9d0-4bb3-83cf-3a6f4bf3c3b1 (last visited Dec. 9, 2025). [2] Humanity Must Hold the Pen: The European Region Can Write the Story of Ethical AI for Health, Georgia Today, Dec. 8, 2025,https://georgiatoday.ge/humanity-must-hold-the-pen-the-european-region-can-write-the-story-of-ethical-ai-for-health/ (last visited Dec. 9, 2025).

德國通過《小型電動車條例》,實現清潔現代化運輸並確保道路安全

  隨著現代德國城市興起騎乘小型電動車(例如:電動滑板車和電動踏板車)風潮,德國聯邦交通及數位基礎設施部(Bundesministerium für Verkehr und digitale Infrastruktur, BMVi)制定小型電動車條例(Elektrokleinstfahrzeuge-Verordnung),以實現清潔現代化運輸並確保道路安全,該條例於2019年6月15日正式生效,並取代原有的行動輔助工具條例(Mobilitätshilfenverordnung),此外,德國聯邦車輛運輸管理局(Kraftfahrt-Bundesamt, KBA)並陸續公布經審驗合格之小型電動車清單。   由於歐洲議會及理事會通過的二輪或三輪和四輪車核可及市場監督規則(EU Nr. 168/2013)將自動平衡車輛和無座椅車輛特別排除,因此BMVi制定行動輔助工具條例,以規範例如Segways的新型運輸工,然而隨著市場推出更多新型小型電動車,原行動輔助工具條例已無法有效規範,因此制定小型電動車條例,除將原本核可小型電動車納入適用外,而本條例所稱小型電動車定義為第一,具備轉向或支撐桿;第二,最高時速設計6~20公里/小時;第三,功率限制為500瓦(自動平衡運輸工具為1400瓦);第四,最低安全要求(例如制動裝置和照明系統,駕駛動態和電動安全設備)。另條例規範重點如下:(1)小型電動車須年滿14歲方能使用,但無須考取任何駕駛執照;(2)小型電動車應行駛於自行車道上,如該段道路無設計自行車道可行駛於側車道,並禁止行駛於人行道或步行區,且不得於踏板上另搭載他人或物品及攀附於其他車輛;(3)須遵守其他一般道路交通法規,特別是保持謹慎駕駛以及酒駕規定須遵守相關規範;(4)保險部分,因小型電動車輛屬於機械動力車輛,故必須投保,並將投保證明貼紙黏貼於車輛上。   另外,BMVi主張並支持小型電動車可攜帶上公共交通工具,然原則上,攜帶小型電動車搭乘公共交通工具,受貨物運輸規範約束,應視電車及無軌電車等固定路線動力車輛之一般條件及服務條例(BefBedV)第11條,或有關運輸公司之特殊運輸條件規範個案判斷。

日本認可智遊網就其線上訂房服務經營策略可能違反公平競爭秩序所提出之約定改善計畫

  日本公平交易委員會(公正取引委員会,下稱日本公平會)於2022年6月2日宣布,已認可智遊網集團(Expedia,日文原文為エクスペディア)針對其網站線上旅館訂房服務經營方式可能違反公平競爭秩序的情形,所提出的約定改善計畫(確約計画)。依日本獨占禁止法第48條之2、第48條之3規定,受日本公平會通知有違反獨占禁止法疑慮的業者,於規定期限內提出約定改善計畫後,日本公平會審酌認為其計畫之落實能有效消除違法疑慮時,即得作成認可該計畫之行政處分。基此,智遊網集團後續得藉由落實該約定改善計畫,來排除上述經營方式牴觸獨占禁止法第19條禁止業者採取不公正交易方法規範的疑慮。   按獨占禁止法,其立法目的為確保與促進市場的公平與自由競爭,主要規範關於獨占、聯合與結合等行為;至於針對不公平競爭行為,則另訂「不正競爭防止法」加以規範,而與我國公平交易法合併規範獨占等與不公平競爭行為之立法架構有所不同。   根據日本公平會依獨占禁止法規定所進行調查,智遊網集團經營的線上旅館訂房預約網站Expedia,與位在日本國內的旅館設施經營經營業者所締結的契約中約定,日本旅館經營業者在Expedia網站上刊載提供的住宿費用與房間數等條件,需優於或至少等同於與該特定旅館業者在其他訂房服務通路所提供的條件。並且,智遊網集團進一步依據該約款,主動要求旅館經營業者遵守該條件,或由日本之智遊網分公司協助向旅館業者請求。日本旅館業者受此條款拘束,亦影響了與Expedia網站存在競爭關係的訂房網站經營業者之事業活動。例如,其他訂房網站經營業者自行負擔成本提供特定旅館業者之訂房優惠時,因其價格優於該旅館業者刊載於Expedia網站之條件,而被迫中止該訂房網站的優惠活動。   日本公平會於2022年2月25日將上述審查結果依獨占禁止法法第48條之2通知智遊網集團,要求其針對上述經營行為提出約定改善計畫,以恢復公平競爭秩序。而智遊網依此提出的約定改善計畫,主要內容包含: (1)停止、以及不再締結上述約款與要求業者履行約款等行為; (2)將上述決定與作為通知旅館經營業者、以及智遊網集團自家的員工; (3)定期向日本公平會報告上述改善措施的落實狀況等。

IBM提出「人工智慧日常倫理」手冊作為研發人員指引

  隨著人工智慧快速發,各界開始意識到人工智慧系統應用、發展過程所涉及的倫理議題,應該建構出相應的規範。IBM於2018年9月02日提出了「人工智慧日常倫理」(Everyday Ethics for Artificial Intelligence)手冊,其以明確、具體的指引做為系統設計師以及開發人員間之共同範本。作為可明確操作的規範,該手冊提供了問責制度、價值協同、可理解性等關注點,以促進社會對人工智慧的信任。 一、問責制度(Accountability)   由於人工智慧的決策將作為人們判斷的重要依據,在看似客觀的演算系統中,編寫演算法、定義失敗或成功的程式設計人員,將影響到人工智慧的演算結果。因此,系統的設計和開發團隊,應詳細記錄系統之設計與決策流程,確保設計、開發階段的責任歸屬,以及程序的可檢驗性。 二、價值協同(Value Alignment)   人工智慧在協助人們做出判斷時,應充分考量到事件的背景因素,其中包括經驗、記憶、文化規範等廣泛知識的借鑑。因此系統設計和開發人員,應協同應用領域之價值體系與經驗,並確保演算時對於跨領域的文化規範與價值觀之敏感性。同時,設計師和開發人員應使人工智慧系統得以「了解並認知」用戶的價值觀,使演算系統與使用者之行為準則相符。 三、可理解性(Explainability)   人工智慧系統的設計,應盡可能地讓人們理解,甚至檢測、審視它決策的過程。隨著人工智慧應用範圍的擴大,其演算決策的過程必須以人們得以理解的方式解釋。此係讓用戶與人工智慧系統交互了解,並針對人工智慧結論或建議,進而有所反饋的重要關鍵;並使用戶面對高度敏感決策時,得以據之檢視系統之背景數據、演算邏輯、推理及建議等。   該手冊提醒,倫理考量應在人工智慧設計之初嵌入,以最小化演算的歧視,並使決策過程透明,使用戶始終能意識到他們正在與人工智慧進行互動。而作為人工智慧系統設計人員和開發團隊,應視為影響數百萬人甚至社會生態的核心角色,應負有義務設計以人為本,並與社會價值觀和道德觀一致的智慧系統。

TOP