標準必要專利(standards-essential patents,SEPs)是國際標準組織所採行的一種專利運用模式,主要係為了使標準共通技術普及之同時平衡專利權人之利益,將技術發展中重要的標準共通技術結合專利保護,同時均要求專利權人須簽署FRAND(Fair,Reasonable and Non-discriminatory)條款,以公平、合理、無歧視之原則收取合理數額之專利授權費供標準化組織成員有償使用。然而,因專利本身即是一種合法壟斷,是以標準必要專利之授權模式可實現利益最大化;但涉及到具高度共通性又難以迴避的技術時,應當避免少數專利權人濫用專利權和市場壟斷。因此,專利權人和被授權人之間,對於收取合理專利授權費之議題,在一直無法取得共識之下,往往訴諸法律解決。從美國聯邦法院涉及標準必要專利侵權之訴訟案例,可看出美國針對標準必要專利目前主要有下列幾種趨勢:(1)合理之專利授權費以該技術佔產品元件之比率計算;(2)標準必要專利之授權費金額逐步降低;(3)專利權人必須先進行授權流程(4)不能直接申請禁制令。
本文為「經濟部產業技術司科技專案成果」
美國國會於今年(2009)11月18日提出「聯邦檔案安全分享法案(Secure Federal File Sharing Act)」,內容主要是限制所有政府部門員工(包含約聘制人員),在未經官方正式同意之前,不得下載、安裝或使用任何點對點傳輸(Peer to Peer, P2P)軟體。期望藉由該法案的通過實施,徹底防堵政府及相關個人機敏資料的外洩。 該法案的制定,最初來自於政府部門對其財務資料保護的要求,早於2004年白宮管理及預算辦公室(The White House Office of Management and Budget)即已建議聯邦政府的各個單位應禁止其職員使用P2P軟體,以防止資料外洩。而於將近一個月前,國會道德委員會取得多位國會議員的財務狀況、經歷及競選贊助金額,並作成調查報告,未料一位新進職員將該份未經加密保護的報告存於自家裝有前述P2P軟體的電腦硬碟中,從而導致該份報告內容全部外洩。此一事件立即對向來注重政府及個人資料保護的美國投下了震撼彈,也促使該法案正式浮出檯面。 歐此項法案的提出毫無意外地得到視聽娛樂產業界的正面支持。主因來自多數人藉由此種軟體在網際網路上分享音樂、影片或其他應用軟體,時常侵害他人的智慧財產權,而法案的內容則是要求政府部門員工無論是在工作或是家中使用P2P軟體都須取得官方授權,無疑是直接限制了上述的分享行為。娛樂業者更進一步指出,P2P軟體對資訊安全的危害在於多數人無法明確知道該軟體的運作方式,而無法對其做正確的設定,使得軟體一旦被啟動,電腦內的所有資料:包含個人的社會安全卡號碼、醫療及退稅紀錄等,就立即暴露於網際網路之中!對此,除了推動此項法案的官員大聲疾呼:「用個人自律的方式防止資料外洩已經失敗,證明國會應該有所行動。 美國錄音產業協會(Recording Industry Association of America)則是預測前述國會調查報告的外洩,將會是資安法案重整的強力催化劑。
美國修法通過,未來必要時可強制旅客接受AIT掃描近來美國運輸安全管理局(Transportation Security Administration, TSA)修訂隱私衝擊評估(Privacy Impact Assessment, PIA) 規章,規定機場安全檢查於必要時,可以針對某些特殊旅客強制進行AIT掃描。 美國運輸安全管理局根據航空運輸安全法(Aviation and Transportation Security Act, ATSA) 負責運輸之安全、評估威脅及強制執行安全相關的規定和要求,並且確保機場等交通設備是否有充足的安全措施。 由於國際恐怖攻擊行動頻傳,美國運輸安全管理局於2013年開始採行AIT掃描技術以強化旅客通關之安全檢查,並將會顯示出近乎裸照的3D透視影像全身掃描機器(body scanning machines)淘汰。 所謂的AIT(Advanced Imaging Technology)掃描技術,即係高階圖像技術,可偵測旅客是否有攜帶危險性、威脅性物品,它所顯示出來的影像僅係一個大致輪廓,如有違禁品則會在該部位產生色塊,警告安檢人員應採行進一步檢查措施。 一般而言,雖然旅客可拒絕AIT掃描,選擇讓海關人員進行身體檢查,但是為確保運輸安全,近來運輸安全管理局更新隱私衝擊評估(Privacy Impact Assessment, PIA) 規章,規定於必要時可以針對某些特殊旅客強制進行AIT掃描,旅客不再有拒絕之權利。 此一政策施行,勢必遭受侵害「隱私權」之質疑,運輸安全局表示,AIT掃描係採用「自動目標辨識」 (Automatic Target Recognition , ATR) 軟體,亦即非直接顯示個人影像,僅顯示特殊物體在一般影像上的所在位置,發出警訊後再由安檢人員進行詳細檢查。現今AIT掃描技術已提升,掃描出的人體圖像會被模糊處理,且掃描後機器不會儲存任何可識別個人之資訊,更加確保旅客的隱私權不受侵害。
世界衛生組織發布歐洲區域人工智慧於醫療系統準備情況報告,責任規則為最重要之關鍵政策因素世界衛生組織發布歐洲區域人工智慧於醫療系統準備情況報告,責任規則為最重要之關鍵政策因素 資訊工業策進會科技法律研究所 2025年12月18日 世界衛生組織(World Health Organization, WHO)於2025年11月19日發布「人工智慧正在重塑醫療系統:世衛組織歐洲區域準備情況報告」(Artificial intelligence is reshaping health systems: state of readiness across the WHO European Region)[1],本報告為2024年至2025年於WHO歐洲區域醫療照護領域人工智慧(AI for health care)調查結果,借鑒50個成員國之經驗,檢視各國之國家戰略、治理模式、法律與倫理框架、勞動力準備、資料治理、利益相關者參與、私部門角色以及AI應用之普及情況,探討各國如何應對AI於醫療系統中之機會與挑戰。其中責任規則(liability rules)之建立,為成員國認為係推動AI於醫療照護領域廣泛應用之最重要關鍵政策因素,因此本報告建議應明確開發者、臨床醫生、資料提供者與醫療機構之責任,透過救濟與執法管道以保護病患與醫療系統之權益。 壹、事件摘要 本報告發現調查對象中僅有8%成員國已發布國家級醫療領域特定AI策略(national health-specific AI strategy),顯示此處仍有相當大之缺口需要補足。而就醫療領域AI之法律、政策與指導方針框架方面,46%之成員國已評估於現有法律及政策相對於醫療衛生領域AI系統不足之處;54%之成員國已設立監管機構以評估與核准AI系統;惟僅有8%之成員國已制定醫療領域AI之責任標準(liability standards for AI in health),更僅有6%之成員國就醫療照護領域之生成式AI系統提出法律要求。依此可知,成員國對於AI政策之優先事項通常集中於醫療領域AI系統之採購、開發與使用,而對個人或群體不利影響之重視與責任標準之建立仍然有限。於缺乏明確責任標準之情況下,可能會導致臨床醫師對AI之依賴猶豫不決,或者相反地過度依賴AI,從而增加病患安全風險。 就可信賴AI之醫療資料治理方面(health data governance for trustworthy AI),66%成員國已制定專門之國家醫療資料戰略,76%成員國已建立或正在制定醫療資料治理框架,66%成員國已建立區域或國家級醫療資料中心(health data hub),30%成員國已發布關於醫療資料二次利用之指引(the secondary use of health data),30%成員國已制定規則,促進以研究為目的之跨境共享醫療資料(cross-border sharing of health data for research purposes)。依此,許多成員國已在制定國家醫療資料戰略與建立治理框架方面取得顯著進展,惟資料二次利用與跨境利用等領域仍較遲滯,這些資料問題仍需解決,以避免產生技術先進卻無法完全滿足臨床或公衛需求之工具。 就於醫療照護領域採用AI之障礙,有高達86%之成員國認為,最主要之障礙為法律之不確定性(legal uncertainty),其次之障礙為78%之成員國所認為之財務可負擔性(financial affordability);依此,雖AI之採用具有前景,惟仍受到監管不確定性、倫理挑戰、監管不力與資金障礙之限制;而財務上之資金障礙,包括高昂之基礎設施成本、持續員工培訓、有限之健保給付與先進AI系統訂閱費用皆限制AI之普及,特別於規模較小或資源有限之醫療系統中。 就推動AI於醫療照護領域廣泛應用之關鍵政策因素,有高達92%之成員國認為是責任規則(liability rules),其次有90%之成員國認為是關於透明度、可驗證性與可解釋性之指引。依此,幾乎所有成員國皆認為,明確AI系統製造商、部署者與使用者之責任規則為政策上之關鍵推動因素,且確保AI解決方案之透明度、可驗證性與可解釋性之指引,也被認為是信任AI所驅動成果之必要條件。 貳、重點說明 因有高達9成之成員國認為責任規則為推動AI於醫療照護領域廣泛應用之關鍵政策因素,為促進AI應用,本報告建議應明確開發者、臨床醫生、資料提供者與醫療機構之責任,並建立相應機制,以便於AI系統造成損害時及時補救與追究責任,此可確保AI生命週期中每個參與者都能瞭解自身之義務,責任透明,並透過可及之救濟與執法管道以保護病患與醫療系統之權益;以及可利用監管沙盒,使監管機構、開發人員與醫療機構能夠在真實但風險較低之環境中進行合作,從而於監管監督下,於廣泛部署前能及早發現安全、倫理與效能問題,同時促進創新。 此外,WHO歐洲區域官員指出,此次調查結果顯示AI於醫療領域之革命已開始,惟準備程度、能力與治理水準尚未完全跟進,因此呼籲醫療領域之領導者與決策者們可考慮往以下四個方向前進[2]: 1.應有目的性地管理AI:使AI安全、合乎倫理與符合人權; 2.應投資人才:因科技無法治癒病人,人才是治癒病人之根本; 3.需建構可信賴之資料生態系:若大眾對資料缺乏信任,創新就會失敗; 4.需進行跨國合作:AI無國界,合作亦不應受限於國界。 參、事件評析 AI於醫療系統之應用實際上已大幅開展,就歐洲之調查可知,目前雖多數國家已致力於AI於醫材監管法規與資料利用規則之建立,據以推動與監管AI醫療科技之發展,惟由於醫療涉及患者生命身體之健康安全,因此絕大多數國家皆同意,真正影響AI於醫療領域利用之因素,為責任規則之建立,然而,調查結果顯示,實際上已建立醫療領域AI之責任標準者,卻僅有8%之成員國(50個國家中僅有4個國家已建立標準),意味著其為重要之真空地帶,亟待責任法制上之發展與填補,以使廠商願意繼續開發先進AI醫療器材、醫療從業人員願意利用AI醫療科技增進患者福祉,亦使患者於受害時得以獲得適當救濟。亦即是,當有明確之責任歸屬規則,各方當事人方能據以瞭解與評估將AI技術應用於醫療可能帶來之風險與機會,新興AI醫療科技才能真正被信任與利用,而帶來廣泛推廣促進醫療進步之效益。由於保護患者之健康安全為醫療領域之普世價值,此項結論應不僅得適用於歐洲,對於世界各國亦應同樣適用,未來觀察各國於AI醫療領域之責任規則發展,對於我國推廣AI醫療之落地應用亦應具有重要參考價值。 [1] Artificial intelligence is reshaping health systems: state of readiness across the WHO European Region, WHO, Nov. 19, 2025, https://iris.who.int/items/84f1c491-c9d0-4bb3-83cf-3a6f4bf3c3b1 (last visited Dec. 9, 2025). [2] Humanity Must Hold the Pen: The European Region Can Write the Story of Ethical AI for Health, Georgia Today, Dec. 8, 2025,https://georgiatoday.ge/humanity-must-hold-the-pen-the-european-region-can-write-the-story-of-ethical-ai-for-health/ (last visited Dec. 9, 2025).
中國大陸國家新聞出版廣電總局重新建構網路服務管理規範