2015年6月美國聯邦最高法院大法官以6比3的同意比例判決維持該法院於1964年所確立之Brulotte原則,即專利失效後禁止要求償付授權金之原則。聯邦最高法院重新檢討Brulotte原則之爭議係起源於Kimble et al. v. Marvel Enterprises Inc.(case num. 13-720)一案。該案中涉及到現實下專利權利人於面對財團時,是否能於專利權有效期間採取手段充分保護專利權之問題,故是否有必要放寬專利權於失效後,專利權人仍得以專利授權契約要求專利被授權人償付授權金。又本案原告知專利發明人Kimble主張放寬Brulotte原則亦有亦於刺激競爭,促進研發創新。 然而,主撰判決本文之美國卡根大法官(Justice Kagan)及贊同維持Brulotte原則之大法官認為,Brulotte原則屬於聯邦最高法院遵照執行之決議事項(stare decisis),必須具有超級特別的理由(superspecial justification)才足以立論推翻該原則。但大法官認為並無有該類理由,並且強調縱然放寬Brulotte原則在學理上證實有助於市場競爭,但這也並非聯邦最高法院在司法權限所應審查或判斷之事項,而應是美國國會於智財政策之取捨。 反對維持Brulotte原則之阿利托大法官(Justice Alito)、羅伯特首席大法官(Chief Justice Roberts)及湯瑪斯大法官(Justice Thomas)提出不同意見書。反對意見認為專利失效及失去任何專有權利,所以涉及授權金之唯一問題即在於最佳契約設計(optimal contract design)。Brulotte原則干預了各方協議授權內容時,可以反映專利真實價值的方式,破壞契約期望(contractual expectation)。 本案作成判決後,各專利事務所及專利律師普遍贊同聯邦法院維持Brulotte原則,主要係基於該原則可以使用來償付授權金之資金轉為用於他處,有助於資金流通,而非用於已失效之專利。
英國提出巨量資料下之個人資料保護應遵循資料保護法之原則 歐盟發布第三版支付服務指令(PSD3)草案,強化消費者保護與改善產業環境歐盟執委會(European Commission)於2023年6月28日提出第三版支付服務指令(Third Payment Services Directive, PSD3)草案,目前預計於2024年底前通過最終版本,並於2026年施行。 相較第二版支付服務指令(PSD2),PSD3強化歐盟電子、數位支付和金融服務規範,補強安全性(Security)、透明度(Transparency)與促進創新(Innovation),建立更適合歐盟的支付架構。其旨在保護消費者權益和個人資訊,改善支付產業競爭環境,提高消費者對資料掌控度,促進創新金融產品服務發展。 PSD3修正重點歸納如下: 一、消費者保護:強化對未經授權交易之保護,完善支付詐欺或支付錯誤之賠償方案,減少消費者潛在損失。 二、開放銀行(Open Banking):持續推動開放銀行發展,透過加強規範第三方支付服務提供者(Third party payment provider, TPP)與提供更標準化與更安全的應用程式介面(Application Programming Interface, API),促進創新金融產業服務發展。 三、支付系統安全性:強化客戶身分認證(Strong Customer Authentication, SCA),促進支付過程的透明度與安全性。 四、因應新型詐欺:導入新規定與工具對抗日益增加的網路詐欺風險。 五、跨境支付:加強跨境支付措施與降低成本,推動歐盟市場一體化。 六、支付創新與多元化:導入區塊鏈或其他更先進的即時支付系統。 七、監管:制定更明確的法規,加強各方監管,確保市場公平與穩定。
澳洲發布《人工智慧臨床應用指引》提供臨床照護之人工智慧使用合規框架澳洲醫療安全與品質委員會(Australian Commission on Safety and Quality in Health Care, ACSQHC)與衛生、身心障礙及高齡照護部(Department of Health, Disability and Ageing)聯合於2025年8月發布《人工智慧臨床應用指引》(AI Clinical Use Guide),旨在協助醫療人員於臨床情境中安全、負責任使用人工智慧(Artificial Intelligence, AI)。該文件回應近年生成式AI與機器學習快速導入醫療現場,卻伴隨證據不足、風險升高的治理挑戰,試圖在促進創新與確保病人安全之間建立清楚的合規框架。 該指引以臨床流程為核心,將AI使用區分為「使用前、使用中、使用後」三個階段,強調醫療人員須理解AI工具的預期用途、證據基礎與風險限制,並對所有AI產出負最終專業責任。文件特別指出,當AI工具用於診斷、治療、預測或臨床決策支持時,可能構成醫療器材,須符合澳洲醫療用品管理管理局(Therapeutic Goods Administration, TGA)的相關法規要求。 在風險治理方面,該指引明確區分規則式AI、機器學習與生成式AI,指出後兩者因輸出不確定性、資料偏誤與自動化偏誤風險較高,臨床人員不得過度依賴系統建議,仍須以專業判斷為核心。同時,文件要求醫療機構建立AI治理與監督機制,持續監測效能、偏誤與病安事件,並於必要時通報TGA或隱私主管機關。 在病人權益與隱私保護方面,指引強調知情同意與透明揭露,醫療人員須向病人說明AI使用目的、潛在風險及替代方案,並遵循《1998年隱私法》(Privacy Act 1988)對個人健康資料儲存與跨境處理的限制。澳洲此次發布之臨床AI指引,展現以臨床責任為核心、結合法規遵循與風險管理的治理取向,為各國醫療體系導入AI提供具體且可操作的合規參考。 表1 人工智慧臨床應用指引合規流程 使用前 使用中 使用後 1.界定用途與風險。 2.檢視證據與合規。 3.完備治理與告知。 1.AI輔助決策。 2.即時審查修正。 3.維持溝通透明。 1.持續監測效能。 2.標示可追溯性。 3.通報與再評估。 資料來源:AUSTRALIAN COMMISSION ON SAFETY AND QUALITY IN HEALTH CARE [ACSQHC], AI Clinical Use Guide (2025).