社群媒體是溝通資訊之重要工具。但部分社群媒體向用戶投放易使人成癮的資訊,對兒童和青少年福祉形成重大風險。據此緣由,美國加州立法機關於2024年1月29日提出社群媒體青少年成癮法草案(Social Media Youth Addiction Law),規定社群媒體除非能合理確定用戶非未成年人,或取得未成年用戶家長同意,否則不得向用戶提供易使人成癮的資訊。 該草案將網路或應用程式中,依用戶特徵或習慣,優先顯示的多片段資訊,定義為易使人成癮的資訊(addictive feed)。除非該資訊符合以下例外條件: (1) 用戶用以搜尋資訊的關鍵字不會被使用的設備記憶,且該資訊與用戶過去的社群媒體使用行為無關。 (2) 是因用戶隱私設定、設備規格、未成年人限制而呈現的資訊。 (3) 是因用戶明確要求而提供,且不易使人成癮的資訊。 (4) 是用戶間直接且非公開之通訊組成的資訊。 (5) 是同一資訊來源,且在音檔或影片形式下,不會自動連續播放的資訊。 該草案亦規定投放易使人成癮資訊的社群媒體,不得在深夜至凌晨時段、上學至放學時段,以及開學期間的週一到週五,向未成年用戶發送通知,除非已取得未成年用戶家長同意。 最後,該草案規定投放易使人成癮資訊的社群媒體每年向公眾揭露未成年用戶總數量、家長同意接收易成癮資訊的未成年用戶數量等資訊。該規定有利大眾監督社群媒體對法規之遵循情況,並促進社會對兒童、青少年身心健康的關心。
世界衛生組織發布歐洲區域人工智慧於醫療系統準備情況報告,責任規則為最重要之關鍵政策因素世界衛生組織發布歐洲區域人工智慧於醫療系統準備情況報告,責任規則為最重要之關鍵政策因素 資訊工業策進會科技法律研究所 2025年12月18日 世界衛生組織(World Health Organization, WHO)於2025年11月19日發布「人工智慧正在重塑醫療系統:世衛組織歐洲區域準備情況報告」(Artificial intelligence is reshaping health systems: state of readiness across the WHO European Region)[1],本報告為2024年至2025年於WHO歐洲區域醫療照護領域人工智慧(AI for health care)調查結果,借鑒50個成員國之經驗,檢視各國之國家戰略、治理模式、法律與倫理框架、勞動力準備、資料治理、利益相關者參與、私部門角色以及AI應用之普及情況,探討各國如何應對AI於醫療系統中之機會與挑戰。其中責任規則(liability rules)之建立,為成員國認為係推動AI於醫療照護領域廣泛應用之最重要關鍵政策因素,因此本報告建議應明確開發者、臨床醫生、資料提供者與醫療機構之責任,透過救濟與執法管道以保護病患與醫療系統之權益。 壹、事件摘要 本報告發現調查對象中僅有8%成員國已發布國家級醫療領域特定AI策略(national health-specific AI strategy),顯示此處仍有相當大之缺口需要補足。而就醫療領域AI之法律、政策與指導方針框架方面,46%之成員國已評估於現有法律及政策相對於醫療衛生領域AI系統不足之處;54%之成員國已設立監管機構以評估與核准AI系統;惟僅有8%之成員國已制定醫療領域AI之責任標準(liability standards for AI in health),更僅有6%之成員國就醫療照護領域之生成式AI系統提出法律要求。依此可知,成員國對於AI政策之優先事項通常集中於醫療領域AI系統之採購、開發與使用,而對個人或群體不利影響之重視與責任標準之建立仍然有限。於缺乏明確責任標準之情況下,可能會導致臨床醫師對AI之依賴猶豫不決,或者相反地過度依賴AI,從而增加病患安全風險。 就可信賴AI之醫療資料治理方面(health data governance for trustworthy AI),66%成員國已制定專門之國家醫療資料戰略,76%成員國已建立或正在制定醫療資料治理框架,66%成員國已建立區域或國家級醫療資料中心(health data hub),30%成員國已發布關於醫療資料二次利用之指引(the secondary use of health data),30%成員國已制定規則,促進以研究為目的之跨境共享醫療資料(cross-border sharing of health data for research purposes)。依此,許多成員國已在制定國家醫療資料戰略與建立治理框架方面取得顯著進展,惟資料二次利用與跨境利用等領域仍較遲滯,這些資料問題仍需解決,以避免產生技術先進卻無法完全滿足臨床或公衛需求之工具。 就於醫療照護領域採用AI之障礙,有高達86%之成員國認為,最主要之障礙為法律之不確定性(legal uncertainty),其次之障礙為78%之成員國所認為之財務可負擔性(financial affordability);依此,雖AI之採用具有前景,惟仍受到監管不確定性、倫理挑戰、監管不力與資金障礙之限制;而財務上之資金障礙,包括高昂之基礎設施成本、持續員工培訓、有限之健保給付與先進AI系統訂閱費用皆限制AI之普及,特別於規模較小或資源有限之醫療系統中。 就推動AI於醫療照護領域廣泛應用之關鍵政策因素,有高達92%之成員國認為是責任規則(liability rules),其次有90%之成員國認為是關於透明度、可驗證性與可解釋性之指引。依此,幾乎所有成員國皆認為,明確AI系統製造商、部署者與使用者之責任規則為政策上之關鍵推動因素,且確保AI解決方案之透明度、可驗證性與可解釋性之指引,也被認為是信任AI所驅動成果之必要條件。 貳、重點說明 因有高達9成之成員國認為責任規則為推動AI於醫療照護領域廣泛應用之關鍵政策因素,為促進AI應用,本報告建議應明確開發者、臨床醫生、資料提供者與醫療機構之責任,並建立相應機制,以便於AI系統造成損害時及時補救與追究責任,此可確保AI生命週期中每個參與者都能瞭解自身之義務,責任透明,並透過可及之救濟與執法管道以保護病患與醫療系統之權益;以及可利用監管沙盒,使監管機構、開發人員與醫療機構能夠在真實但風險較低之環境中進行合作,從而於監管監督下,於廣泛部署前能及早發現安全、倫理與效能問題,同時促進創新。 此外,WHO歐洲區域官員指出,此次調查結果顯示AI於醫療領域之革命已開始,惟準備程度、能力與治理水準尚未完全跟進,因此呼籲醫療領域之領導者與決策者們可考慮往以下四個方向前進[2]: 1.應有目的性地管理AI:使AI安全、合乎倫理與符合人權; 2.應投資人才:因科技無法治癒病人,人才是治癒病人之根本; 3.需建構可信賴之資料生態系:若大眾對資料缺乏信任,創新就會失敗; 4.需進行跨國合作:AI無國界,合作亦不應受限於國界。 參、事件評析 AI於醫療系統之應用實際上已大幅開展,就歐洲之調查可知,目前雖多數國家已致力於AI於醫材監管法規與資料利用規則之建立,據以推動與監管AI醫療科技之發展,惟由於醫療涉及患者生命身體之健康安全,因此絕大多數國家皆同意,真正影響AI於醫療領域利用之因素,為責任規則之建立,然而,調查結果顯示,實際上已建立醫療領域AI之責任標準者,卻僅有8%之成員國(50個國家中僅有4個國家已建立標準),意味著其為重要之真空地帶,亟待責任法制上之發展與填補,以使廠商願意繼續開發先進AI醫療器材、醫療從業人員願意利用AI醫療科技增進患者福祉,亦使患者於受害時得以獲得適當救濟。亦即是,當有明確之責任歸屬規則,各方當事人方能據以瞭解與評估將AI技術應用於醫療可能帶來之風險與機會,新興AI醫療科技才能真正被信任與利用,而帶來廣泛推廣促進醫療進步之效益。由於保護患者之健康安全為醫療領域之普世價值,此項結論應不僅得適用於歐洲,對於世界各國亦應同樣適用,未來觀察各國於AI醫療領域之責任規則發展,對於我國推廣AI醫療之落地應用亦應具有重要參考價值。 [1] Artificial intelligence is reshaping health systems: state of readiness across the WHO European Region, WHO, Nov. 19, 2025, https://iris.who.int/items/84f1c491-c9d0-4bb3-83cf-3a6f4bf3c3b1 (last visited Dec. 9, 2025). [2] Humanity Must Hold the Pen: The European Region Can Write the Story of Ethical AI for Health, Georgia Today, Dec. 8, 2025,https://georgiatoday.ge/humanity-must-hold-the-pen-the-european-region-can-write-the-story-of-ethical-ai-for-health/ (last visited Dec. 9, 2025).
歐盟《企業永續盡職調查指令》草案,將永續治理內化至企業經營歐盟執委會(The European Commission)於2022年2月23日發布《企業永續盡職調查指令》草案(Proposal for a Directive on corporate sustainability due diligence),其目的在於促進永續及負責任企業行為,並使企業將人權與環境考量內化至企業營運與公司治理。 本指令要求各歐盟成員國,須確保企業確實執行人權及環境盡職調查,具體要求企業之作為如下: (1) 將盡職調查納入公司政策(第5條); (2) 採取適當的措施,以鑑別企業自身或子公司於營運及其既有商業關係價值鏈之現有或潛在的不利衝擊(adverse impacts)(第6條); (3) 採取適當措施,預防及減緩潛在的不利衝擊,並消弭現有不利衝擊或縮小其影響範圍(第7、8條); (4) 建立並維持申訴制度,確保受前述不利衝擊影響或有相當理由信其將受影響之人、價值鏈中之工作者代表以及關注相關領域的民間社團等利害關係人之申訴管道暢通(第9條); (5) 定期針對自身及子公司之盡職調查政策及措施進行評估,以確保其有效性(第10條); (6) 企業須於每年4月30日前揭露盡職調查相關資訊,受《企業永續報告指令》(Corporate Sustainability Reporting Directive, CSRD)規範之企業須於企業年報中揭露,其他企業則須於企業網站揭露(第11條)。 另一方面,本指令也明定公司董事義務,依據第25、26條,董事於其決策過程須考量短、中、長期之人權、氣候及環境因素;企業亦須指定部分董事負責盡職調查相關治理作為,並定期向董事會進行報告。 適用本指令的歐盟企業有兩種:(1) 員工人數500人以上且全球年營業額1億5,000萬歐元以上之大公司;(2) 員工250人以上之且全球年營業額4,000萬歐元的高衝擊產業(如:紡織、農業、採礦業等)。另外,非歐盟企業若符合前述員工人數之要求,且於歐盟境內之營業額達到前述標準,亦適用本指令。
美國發布保護無人機系統資通訊技術及服務供應鏈之法規制定預告.Pindent{text-indent: 2em;} .Noindent{margin-left: 2em;} .NoPindent{text-indent: 2em; margin-left: 2em;} .No2indent{margin-left: 3em;} .No2Pindent{text-indent: 2em; margin-left: 3em} .No3indent{margin-left: 4em;} .No3Pindent{text-indent: 2em; margin-left: 4em} 美國商務部產業安全局(Bureau of Industry and Security, BIS)於2025年1月2日發布保護無人機系統資通訊技術及服務供應鏈(Securing the Information and Communications Technology and Services Supply Chain: Unmanned Aircraft Systems)之法規制定預告(advance notice of proposed rulemaking, ANPRM),其目的在於透過維護供應鏈安全,避免中俄等外國敵對勢力,藉由參與無人機系統(Unmanned Aircraft Systems, UAS)資通訊技術與服務(Information and Communications Technology and Services, ICTS)遠端存取和操縱UAS,提高美國敏感資訊暴露風險。本次ANPRM是BIS依據2019年5月15日川普總統簽署之確保ICTS供應鏈安全的第13873號行政命令所發布。 為確保UAS安全,BIS針對下列事項尋求公眾意見,包括但不限於: 1. 無人機系統及其零組件的定義: 針對BIS初步認定之下列UAS平台必要組成部分,評估其定義和標準功能:(1)機載電腦;(2)通訊系統;(3)飛行控制系統;(4)地面控制站或系統;(5)運作軟體;(6)任務規劃軟體;(7)智慧型電池電源系統;(8)本地和外部資料儲存設備和服務;及(9)人工智慧軟體或應用程式; 2. 評估是否有資料外洩和遠端存取控制以外的其他風險; 3. 評估不同外國敵對勢力帶來的風險,例如:是否應考慮與外國敵對勢力有關聯的特定個人或實體等; 4. 評估例外可允許交易的情形;及 5. 評估相關經濟性影響,例如:對美國企業或公眾資料隱私和保護、反競爭效應(Anticompetitive Effects)等,及其應有的相應措施。 BIS開放公眾得針對該ANPRM於2025年3月4日前提出意見,俾利後續發布法規。