美國聯邦巡迴法院針對標準必要專利合理授權金提出判斷標準

  2015年12月3日美國聯邦巡迴上訴法院(CAFC)對澳洲科學暨工業研發組織(CSIRO)控告美國網路設備大廠思科系統(Cisco Systems)所製造與販賣的IEEE 802.11a、802.11g、802.11n侵害其美國第5,487,069 號專利(以下簡稱系爭專利)一案撤銷原判決並發回重審。

其爭點在於:
1. Cisco主張區法院未採用標準必要專利慣用之最小可銷售專利實施單位(smallest salable patent-practicing unit)作為合理授權金計算基礎。
2. 區法院法官未審酌系爭專利納入標準化的情形及未就Georgia-Pacific 15項分析要素進行修改。
3. 區法院未適當考慮CSIRO與Radiata間的技術授權協議。

CAFC將本案撤銷發回重審,其理由如下:

1.本案不適用最小可銷售專利實施單位

  CAFC認為最小可銷售專利實施單位非唯一的計算合理授權金的計算方式,故仍應考量個案不同而採不同的計算方式;其重點在於應將系爭專利與非系爭專利之技術特徵價值進行適當的區分,比較過去實際授權個案,判定系爭專利技術特徵在整體產品中的價值比例,確保權利金計算的正確性。

2.針對標準化專利應考量系爭專利受標準化的情況

  依據美國專利法第284條規定,系爭專利自身的價值應與標準化後所生的附加價值加以區別,使其僅反映系爭專利為系爭侵權產品所帶來的價值。而原審法院計算系爭專利的合理授權金時,並未排除其他無關的技術特徵及區分系爭專利標準化後所帶來的附加價值。

3. 應審酌CSIRO與Radiata間的技術授權協議

  Radiata為CSIRO為進行專利商品化而成立之子公司,後Radiata於2001年為Cisco所併購,並仍依據CSIRO與Radiata間的技術授權協議以每單位晶片產品為基礎授權金的計算方式,故其時間與區法院以假設性協商之可能發生時間點相同,故區法院未加以考慮乃係明顯錯誤。

本文為「經濟部產業技術司科技專案成果」

相關連結
※ 美國聯邦巡迴法院針對標準必要專利合理授權金提出判斷標準, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=7107&no=67&tp=1 (最後瀏覽日:2026/02/24)
引註此篇文章
你可能還會想看
美國專利訴訟趨勢與科技專案研發成果運用之法制研析

用ChatGPT找法院判決?從Roberto Mata v. Avianca, Inc.案淺析生成式AI之侷限

用ChatGPT找法院判決?從Roberto Mata v. Avianca, Inc.案淺析生成式AI之侷限 資訊工業策進會科技法律研究所 2023年09月08日 生成式AI是透過研究過去資料,以創造新內容和想法的AI技術,其應用領域包括文字、圖像及影音。以ChatGPT為例,OpenAI自2022年11月30日發布ChatGPT後,短短二個月內,全球月均用戶數即達到1億人,無疑成為民眾日常生活中最容易近用的AI科技。 惟,生成式AI大量使用後,其中的問題也逐漸浮現。例如,ChatGPT提供的回答僅是從所學習的資料中統整歸納,無法保證資料的正確性。Roberto Mata v. Avianca, Inc.案即是因律師利用ChatGPT撰寫訴狀,卻未重新審視其所提供判決之正確性,以致後續引發訴狀中所描述的判決不存在爭議。 壹、事件摘要 Roberto Mata v. Avianca, Inc.案[1]中,原告Roberto Mata於2019年8月搭乘哥倫比亞航空從薩爾瓦多飛往紐約,飛行過程中膝蓋遭空服員的推車撞傷,並於2022年2月向法院提起訴訟,要求哥倫比亞航空為空服員的疏失作出賠償;哥倫比亞航空則主張已超過《蒙特婁公約》(Montreal Convention)第35條所訂之航空器抵達日起兩年內向法院提出損害賠償之請求時效。 R然而,法院審理過程中發現原告訴狀內引用之六個判決無法從判決系統中查詢,進而質疑判決之真實性。原告律師Steven A. Schwartz因而坦承訴狀中引用的六個判決是ChatGPT所提供,並宣稱針對ChatGPT所提供的判決,曾多次向ChatGPT確認該判決之正確性[2]。 貳、生成式AI應用之潛在風險 雖然運用生成式AI技術並結合自身專業知識執行特定任務,可能有助於提升效率,惟,從前述Roberto Mata v. Avianca, Inc.案亦可看出,依目前生成式AI技術之發展,仍可能產生資訊正確性疑慮。以下彙整生成式AI應用之8大潛在風險[3]: 一、能源使用及對環境危害 相較於傳統機器學習,生成式AI模型訓練將耗費更多運算資源與能源。根據波士頓大學電腦科學系Kate Saenko副教授表示,OpenAI的GPT-3模型擁有1,750億個參數,約會消耗1,287兆瓦/時的電力,並排放552噸二氧化碳。亦即,每當向生成式AI下一個指令,其所消耗的能源量相較於一般搜尋引擎將可能高出4至5倍[4]。 二、能力超出預期(Capability Overhang) 運算系統的黑盒子可能發展出超乎開發人員或使用者想像的隱藏功能,此發展將會對人類帶來新的助力還是成為危險的阻力,則會隨著使用者之間的相互作用而定。 三、輸出結果有偏見 生成式AI通常是利用公開資料進行訓練,若輸入資料在訓練時未受監督,而帶有真實世界既存的刻板印象(如語言、種族、性別、性取向、能力、文化等),據此建立之AI模型輸出結果可能帶有偏見。 四、智慧財產權疑慮 生成式AI進行模型訓練時,需仰賴大量網路資料或從其他大型資料庫蒐集訓練資料。然而,若原始資料來源不明確,可能引發取得資料未經同意或違反授權條款之疑慮,導致生成的內容存在侵權風險。 五、缺乏驗證事實功能 生成式AI時常提供看似正確卻與實際情形不符的回覆,若使用者誤信該答案即可能帶來風險。另外,生成式AI屬於持續動態發展的資訊生態系統,當產出結果有偏誤時,若沒有大規模的人為干預恐難以有效解決此問題。 六、數位犯罪增加與資安攻擊 過去由人工產製的釣魚郵件或網站可能受限於技術限制而容易被識破,然而,生成式AI能夠快速建立具高度說服力的各種擬真資料,降低詐騙的進入門檻。又,駭客亦有可能在不熟悉技術的情況下,利用AI進一步找出資安弱點或攻擊方法,增加防禦難度。 七、敏感資料外洩 使用雲端服務提供商所建立的生成式AI時,由於輸入的資料存儲於外部伺服器,若要追蹤或刪除有一定難度,若遭有心人士利用而導致濫用、攻擊或竄改,將可能產生資料外洩的風險。 八、影子AI(Shadow AI) 影子AI係指開發者未知或無法控制之AI使用情境。隨著AI模型複雜性增加,若開發人員與使用者未進行充分溝通,或使用者在未經充分指導下使用 AI 工具,將可能產生無法預期之風險。 參、事件評析 在Roberto Mata v. Avianca, Inc.案中,法院關注的焦點在於律師的行為,而非對AI技術使用的批判。法院認為,隨著技術的進步,利用可信賴的AI工具作為協助用途並無不當,惟,律師應踐行其專業素養,確保所提交文件之正確性[5]。 當AI科技發展逐漸朝向自主與獨立的方向前進,仍需注意生成式AI使用上之侷限。當個人在使用生成式AI時,需具備獨立思考判斷的能力,並驗證產出結果之正確性,不宜全盤接受生成式AI提供之回答。針對企業或具高度專業領域人士使用生成式AI時,除確認結果正確性外,更需注意資料保護及治理議題,例如建立AI工具合理使用情境及加強員工使用相關工具之教育訓練。在成本能負擔的情況下,可選擇透過企業內部的基礎設施訓練AI模型,或是在訓練模型前確保敏感資料已經加密或匿名。並應注意自身行業領域相關法規之更新或頒布,以適時調整資料使用之方式。 雖目前生成式AI仍有其使用之侷限,仍應抱持開放的態度,在技術使用與風險預防之間取得平衡,以能夠在技術發展的同時,更好地學習新興科技工具之使用。 [1]Mata v. Avianca, Inc., 1:22-cv-01461, (S.D.N.Y.). [2]Benjamin Weiser, Here’s What Happens When Your Lawyer Uses ChatGPT, The New York Times, May 27, 2023, https://www.nytimes.com/2023/05/27/nyregion/avianca-airline-lawsuit-chatgpt.html (last visited Aug. 4, 2023). [3]Boston Consulting Group [BCG], The CEO’s Roadmap on Generative AI (Mar. 2023), https://media-publications.bcg.com/BCG-Executive-Perspectives-CEOs-Roadmap-on-Generative-AI.pdf (last visited Aug. 29, 2023). [4]Kate Saenko, Is generative AI bad for the environment? A computer scientist explains the carbon footprint of ChatGPT and its cousins, The Conversation (May 23, 2023.), https://theconversation.com/is-generative-ai-bad-for-the-environment-a-computer-scientist-explains-the-carbon-footprint-of-chatgpt-and-its-cousins-204096 (last visited Sep. 7, 2023). [5]Robert Lufrano, ChatGPT and the Limits of AI in Legal Research, National Law Review, Volume XIII, Number 195 (Mar. 2023), https://www.natlawreview.com/article/chatgpt-and-limits-ai-legal-research (last visited Aug. 29, 2023).

歐盟開創奈米醫學的新革命

  歐盟國家期望未來能夠發現對抗流行性致命疾病的新方法,降低醫療成本,並提高行政體系的效率,成為開創奈米醫學的先驅。   位於法國南部格勒諾布爾( Grenoble )的電子科技與資訊實驗室( the Electronics Technology Information Laboratory ) Patrick Boisseau 說明,奈米分子可以穿透人類身體內的各器官與細胞,克服傳統醫學不能檢測、治療與給藥的地方 , 因而開啟新興醫療技術的無限可能 , 未來病人可以接受因其特殊需要而作的治療,降低醫生治療的風險。   歐盟贊助的眼角膜工程研究計劃( Cornea Engineering Project )是重新排列組合人類蛋白質,創造與人類眼角膜相似的物質,這比人造眼角膜的治療更有效,且較不會受到排斥。此項計劃每年已幫助歐盟 28,000 人。在編列總預算 437 萬歐元( 541 萬美元)中,針對該項計劃,歐盟已經花費 256 萬歐元( 317 萬美元)。而每年編列 6 億美元( 4 億 8 仟 4 佰萬歐元)用於奈米科技方面。同樣的,人工關節之再造也幫助歐盟各國 4,000 人。   奈米科學過去僅著重於電子科學領域的應用,而未來將朝向整合物理學、化學、機械學、生物學與電子學各領域之路邁進。

歐盟發佈Amazon違反反托拉斯法之初步調查結果,並將對其電商業務展開第二輪調查

  歐盟執委會於2020年11月10日對Amazon發佈反托拉斯調查之初步調查結果,針對其2019年7月之首次調查提出調查意見書(Statement of Objections, SO),認定Amazon使用大量非公開賣家資料,減少自身作為零售商之競爭風險,相關可能違反歐盟運作條約(TFEU)第102條禁止濫用市場主導地位。   歐盟於2019年7月17日對Amazon展開首次反托拉斯調查。Amazon作為平台,具有雙重身分,第一個身分是作為零售商,在網站上銷售商品;第二個身分是作為平台商,提供第三方賣家銷售商品的市場。因此歐盟認為Amazon在平台上收集價格或活動統計資料,將調查Amazon和第三方賣家的標準協議中,是否允許Amazon分析賣家的買賣統計資料?以及第三方賣家使用「黃金購物車」(Buy Box)的機制為何?   歐盟執委會調查說明,Amazon作為平台,可以大量使用第三方賣家資料,例如訂購及發貨數量、賣家收入、報價次數、物流資料、賣家表現評價、消費者索賠資訊等。然而相關統計數字及資料進入Amazon業務自動化系統,使Amazon零售業務可以大量使用上述非公開資料,以調整自身產品零售報價和業務決策,降低自身作為零售商的市場競爭風險。   此外,歐盟執委會認為,Amazon的「黃金購物車」和「Prime label」機制,使平台上的第三方賣家必須選擇使用Amazon物流、倉儲和售後服務(Fulfillment by Amazon, FBA),才能取得平台的「黃金購物車」和「Prime label」標章,才可能增加產品搜尋曝光度、交易成功率,進而提高銷售量(據統計,Amazon平台超過八成之交易是透過黃金購物車完成)。因此導致消費者大多選擇購買曝光度高、也就是使用Amazon物流的賣家,形成賣家之間的不公平競爭。歐盟執委會後續將啟動第二輪調查,且未言明結束調查時間。

TOP