美國聯邦最高法院判決維持Brulotte原則

  2015年6月美國聯邦最高法院大法官以6比3的同意比例判決維持該法院於1964年所確立之Brulotte原則,即專利失效後禁止要求償付授權金之原則。聯邦最高法院重新檢討Brulotte原則之爭議係起源於Kimble et al. v. Marvel Enterprises Inc.(case num. 13-720)一案。該案中涉及到現實下專利權利人於面對財團時,是否能於專利權有效期間採取手段充分保護專利權之問題,故是否有必要放寬專利權於失效後,專利權人仍得以專利授權契約要求專利被授權人償付授權金。又本案原告知專利發明人Kimble主張放寬Brulotte原則亦有亦於刺激競爭,促進研發創新。
  然而,主撰判決本文之美國卡根大法官(Justice Kagan)及贊同維持Brulotte原則之大法官認為,Brulotte原則屬於聯邦最高法院遵照執行之決議事項(stare decisis),必須具有超級特別的理由(superspecial justification)才足以立論推翻該原則。但大法官認為並無有該類理由,並且強調縱然放寬Brulotte原則在學理上證實有助於市場競爭,但這也並非聯邦最高法院在司法權限所應審查或判斷之事項,而應是美國國會於智財政策之取捨。
  反對維持Brulotte原則之阿利托大法官(Justice Alito)、羅伯特首席大法官(Chief Justice Roberts)及湯瑪斯大法官(Justice Thomas)提出不同意見書。反對意見認為專利失效及失去任何專有權利,所以涉及授權金之唯一問題即在於最佳契約設計(optimal contract design)。Brulotte原則干預了各方協議授權內容時,可以反映專利真實價值的方式,破壞契約期望(contractual expectation)。
  本案作成判決後,各專利事務所及專利律師普遍贊同聯邦法院維持Brulotte原則,主要係基於該原則可以使用來償付授權金之資金轉為用於他處,有助於資金流通,而非用於已失效之專利。

本文為「經濟部產業技術司科技專案成果」

相關連結
相關附件
※ 美國聯邦最高法院判決維持Brulotte原則, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=6905&no=64&tp=1 (最後瀏覽日:2026/02/06)
引註此篇文章
你可能還會想看
商標權人的好消息—歐盟法院判決巴黎萊雅(L’Oreal)勝訴

  歐盟法院(European Court of Justice; 簡稱ECJ)於2009年6月18日判決,確認法國化妝品公司- 巴黎萊雅(L’Oreal SA)之競爭廠商-Bellure NV(簡稱Bellure公司) 有侵害巴黎萊雅之商標權,此一判決對於刻意仿冒之廠商予以重擊,也更擴大著名商標權人的商標保護範圍。     Bellure公司所販售及製造的香水,係仿似巴黎萊雅所製造香水的味道、瓶身及包裝,且更以”smell-a-like”的商品價格比較表做為廣告宣傳,藉由「搭便車」的方式推銷Bellure之產品。     歐盟法院認為,縱使Bellure的廣告宣傳及產品本身,並未直接和巴黎萊雅的產品產生商標混淆誤認的可能,且並未對巴黎萊雅造成直接的損害,但Bellure如此「搭便車」行銷自己產品的方式,確實是以不正當的廣告方式獲取不公平的利益,並銷售自已的產品。     本案將使商標權人對於日漸複雜的侵害類型獲得保障,如:仿冒品的販售及網路銷售等;此外,對於產品在做宣傳時也要小心使用比較性的文字(如:僅做產品性質差異的比對而非產品價格的比對),以免侵害他人商標權。

何謂「阿西洛馬人工智慧原則」?

  所謂「阿西洛馬人工智慧原則」(Asilomar AI Principles),是指在2017年1月5日至8日,於美國加州阿西洛馬(Asilomar)市所舉行的「Beneficial AI」會議中,由與會的2000餘位業界人士,包括844名學者專家所共同簽署的人工智慧發展原則,以幫助人類運用人工智慧為人類服務時,能確保人類的利益。   該原則之內容共分為「研究議題」( Research Issues)、「倫理與價值觀」( Ethics and Values),及「更長期問題」( Longer-term Issues)等三大類。   其條文共有23條,內容包括人工智慧的研究目標是創造有益的智慧、保證研究經費有益地用於研究人工智慧、在人工智慧研究者和政策制定者間應有具建設性並健康的交流、人工智慧系統在其整個運轉周期內應為安全可靠、進階人工智慧系統的設計者及建造者在道德層面上是其使用、誤用以及動作的利害關係人,並應有責任及機會去影響其結果、人工智慧系統應被設計和操作為和人類尊嚴、權利、自由和文化多樣性的理想具一致性、由控制高度進階人工智慧系統所取得的權力應尊重及增進健康社會所需有的社會及公民秩序,而非顛覆之,以及超級智慧應僅能被發展於服務廣泛認同的倫理理想,以及全人類,而非單一國家或組織的利益等等。

英國資訊委員辦公室提出人工智慧(AI)稽核框架

  人工智慧(Artificial Intelligence, AI)的應用,已逐漸滲透到日常生活各領域中。為提升AI運用之效益,減少AI對個人與社會帶來之負面衝擊,英國資訊委員辦公室(Information Commissioner’s Office, ICO)於2019年3月提出「AI稽核框架」(Auditing Framework for Artificial Intelligence),作為確保AI應用合乎規範要求的方法論,並藉機引導公務機關和企業組織,評估與管理AI應用對資料保護之風險,進而建構一個可信賴的AI應用環境。   AI稽核框架主要由二大面向所構成—「治理與可歸責性」(governance and accountability)以及「AI特定風險領域」(AI-specific risk areas)。「治理與可歸責性」面向,係就公務機關和企業組織,應採取措施以遵循資料保護規範要求的角度切入,提出八項稽核重點,包括:風險偏好(risk appetite)、設計階段納入資料保護及透過預設保護資料(data protection by design and by default)、領導管理與監督(leadership management and oversight)、政策與程序(policies and procedures)、管理與通報架構(management and reporting structures)、文書作業與稽核紀錄(documentation and audit trails)、遵循與確保能力(compliance and assurance capabilities)、教育訓練與意識(training and awareness)。   「AI特定風險領域」面向,則是ICO特別針對AI,盤點下列八項潛在的資料保護風險,作為風險管理之關注重點: 一、 資料側寫之公平性與透明性(fairness and transparency in profiling); 二、 準確性(accuracy):包含AI開發過程中資料使用之準確性,以及應用AI所衍生資料之準確性; 三、 完全自動化決策模型(fully automated decision making models):涉及人類介入AI決策之程度,歐盟一般資料保護規則(General Data Protection Regulation, GDPR)原則上禁止無人為介入的單純自動化決策; 四、 安全性與網路(security and cyber):包括AI測試、委外處理資料、資料重新識別等風險; 五、 權衡(trade-offs):不同規範原則之間的取捨,如隱私保護與資料準確性; 六、 資料最少化與目的限制(data minimization and purpose limitation); 七、 資料當事人之權利行使(exercise of rights); 八、 對廣泛公共利益和權利之衝擊(impact on broader public interests and rights)。   ICO將持續就前述AI特定風險領域,進行更深入的分析,並開放公眾討論,未來亦將提供相關技術和組織上之控制措施,供公務機關及企業組織進行稽核實務時之參考。

英國推動智慧電網 – 對隱私疑慮的回應與提供用戶能源使用量資訊之規劃

TOP