授權合約不公 飛利浦挨罰600萬

  公平交易委員會於上( 4 )個月 20 日對巨擘等三家光碟廠商檢舉荷蘭商菲利浦電子公司專利授權合約不公一案做成決議,飛利浦的 CD-R 專利技術授權合約,要求被授權人提供「製造設備清冊」及「書面銷售報告」,已足以影響交易秩序、顯失公平行為,違反公平交易法第 24 條規定,處新台幣 600 萬元罰鍰。這是公平會對飛利浦的 CD-R 光碟專利授權行為,作成的第二件處分案,第一件為飛利浦、 日本 新力及日商太陽誘電被檢舉,在台的 CD-R 光碟片產品專利授權行為,違反聯合行為的規定,飛利浦被處新台幣 800 萬元罰鍰,該案目前仍在行政訴訟中。


  公平會認為,飛利浦與新力公司共同制定
CD-R 光碟片技術規格書,國內光碟廠商如生產符合「橘皮書」規格的 CD-R ,必須取得飛利浦專利授權,在 CD-R 專利授權的締約過程中,飛利浦具有相對優勢地位。飛利浦並在授權合約要求被授權人,提供「製造設備清冊」及「書面銷售報告」,內容涉及被授權人的產能利用率、產量、客戶名單及個別客戶交易量等重要資訊;但這些資料與權利金總數額的計算,並無密切相關。飛利浦除為此專利的專利權人,也授權其他製造廠商產製 CD-R 光碟片,並以 Philips 品牌從事光碟片販賣,與被授權人在市場是處於競爭地位。因此,飛利浦利用此優勢地位,取得被授權人公司經營成本的重要資訊,雙方在市場會產生不公平競爭。


  飛利浦則表示,授權合約要求被授權人提供「製造設備清冊」及「書面銷售報告」,是為確認被授權人授權產品報告的正確性,這是國際授權實務上的慣例。飛利浦在合約已保證相關內容,不為合約目的外的使用,並無違法行為;該公司將循正常程序提出訴願。

本文為「經濟部產業技術司科技專案成果」

相關連結
※ 授權合約不公 飛利浦挨罰600萬, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=597&no=57&tp=1 (最後瀏覽日:2026/04/24)
引註此篇文章
你可能還會想看
加拿大競爭局發布人工智慧與競爭諮詢報告

加拿大競爭局(Competition Bureau Canada,下稱競爭局)為更了解人工智慧如何影響或促進競爭,於2025年1月27日發布人工智慧與競爭諮詢報告(Consultation on Artificial Intelligence and Competition)。競爭局於意見徵詢期間獲得來自學術界、法律界、產業協會及大型科技公司的意見書。 諮詢報告彙整意見書內容並列出以下重點: 1. 人工智慧從資料輸入、基礎模型至終端產品或服務各階段皆在快速發展,可以為市場帶來新的競爭或阻礙競爭,人工智慧可能影響競爭原因包含資源依賴、資料控制及市場參進障礙等等。 2. 人工智慧領域中大規模投資是技術成長的重要關鍵,大型企業可藉由市場力量減少競爭或進行創新,少數大型企業因擁有較高的投資能力及數據資料專屬性,在基礎架構層(運行人工智慧所需的工具,如人工智慧晶片、雲端運算及超級電腦等)中佔有極高的市場份額,但也有部分意見認為人工智慧市場仍蓬勃發展中,亦有企業或學術機構未過度依賴專有數據但仍能開發出產品。 3. 人工智慧可能導致反競爭行為,企業雖可透過垂直整合來降低成本並提高效率,但可能會減少現行市場內部競爭,或透過具有人工智慧的演算法進行定價,達到操縱市場價格的行為,現行反壟斷法未來是否可以解決此一問題還有待觀察。 藉由諮詢的過程,競爭局更能掌握人工智慧發展、也了解公眾對話的重要性,意見書亦有助於該局未來提出兼顧人工智慧發展及促進市場競爭之政策措施。 我國公平交易委員會已於112年5月成立AI專案小組,負責掌握國際間人工智慧相關競爭議題的趨勢與發展,並針對現行人工智慧發展與競爭法執法研提政策配套措施,我國公平交易委員會與加拿大競爭局對於人工智慧與市場競爭議題之後續動態,值得持續追蹤。

德國首例因Twitter超連結的裁定出爐

  根據德國法蘭克福地方法院日前於4月20日的一則假處分裁定(Beschluss vom 20.04.2010, Az. 3-08 O 46/10),禁止被告以超連結方式,讓點取該鏈結的人,得以連結到刊登有損害原告商業信譽的文章頁面。   本件事實起源於一名匿名的網友在不同的網路論壇中,發表刊登有侵害原告商業信譽的言論,而曾經與原告有商業上往來的被告,利用自己Twiiter帳戶,發表超連結,並在鏈結網址下加上「十分有趣」的文字,讓看到該訊息的朋友,都可以點選鏈結連接到這些不利於原告商業信譽的文章、言論。原告因而向法院申請假處分裁定,禁止被告以超連結方式繼續為有損原告商業信譽的行為。 法蘭克福地方法院的這起裁定,被視為是德國國內第一起法院對Twitter等社群網站的警告,德國輿論各界也普遍認為,法院透過裁定對外明白宣示社群網站使用者往往誤認網路社群空間為「半私人場域(須加入好友才得以分享資訊、留言等)」,在自己的帳戶上發表心得、感想、分享文章等行為,還是有構成侵權責任的可能性。   該裁定出爐後,德國各界則開始討論被告設定超連結的行為是否構成網路侵權責任,持贊成意見者認為,即使該違法言論非被告本人所發表,被告設定超連結的行為,也讓自己與該違法言論「合而為一(zueigen gemacht)」,也就是,讓外界以為該違法言論就是被告本人所撰寫刊登;根據德國電信服務法(Telemediengesetz, TMG)第7條規定,內容提供者須為「自己」的言論負擔法律責任。   反對者則拿其他超連結的案例舉出,法院認定被告是否構成網路內容提供者的侵權責任,通常會檢視被告對於該違法言論的內容是否知悉、被告是否違背其檢查監督義務(Überprüfungspflicht),例如被告須為一定行為藉以與原撰文者劃清界線等。但因各該檢驗標準都係由法院依據個案加以認定,讓人無所適從,產生網路侵權行為的判斷標準過於浮動之疑慮,德國國會也因此著手進行電信服務法的修法。

JST(日本科學技術振興機構)發表關於大學智財的政策建言

  於回顧過去10多年來在大學智慧財產相關的政策措施以後,日本科學技術振興機構(JST)智慧財產戰略中心於7月5日就「政策建言-回首長達十多年的大學智財相關政策措施並探求今後的發展」總結作出發表。根據外識學者專家所組成的JST智慧財產戰略委員會所作成的研議,其就大學智財此後所追求的目標願景,以及為達成該願景各個部門(政府、大學、技轉中心與JST)各自所應扮演的角色提出了整體的建議。   在建言中提到,大學智財的目標願景乃在於「以未來運用為導向擬定智財策略」與「確保研究成果轉化智慧財產,積極回饋國民社會」,並列舉各部門為達成目標願景所應執行之任務。   建言中主要提到的各部門任務如下所述: 【日本政府的任務】 ‧對於大學的智財評價,不應只限授權金收入,也應考慮共同研究、創新育成(由大學孕育而生的新創企業)的創出效果。 ‧應建構於獲得革新性的研究成果時,能夠搶先取得基礎專利、強化週邊專利的策略性的、機動性的強而有力的智財支援體制。 【日本大學、技轉中心的任務】 ‧為創造強勢的專礎專利,應能確保具備優秀判斷力的人材,與應進行充分的先前技術檢索。 ‧應以大學成果的早期實用化為導向,推進與中小、新創企業的合作關係。 ‧思考大學間、技轉中心間多樣而有效果的合作形態,積極謀求提升技轉機會。 ‧強化對學生與研究者的智財教育與智財進修。 【JST的任務】 ‧研析早期而積極的智財發掘與迅速而機動的資金投入等等主動性的支援模式。 ‧進行熟悉海外技術移轉的專業人材的配置與培育,且就對大學專利之權利侵害提供設置諮詢窗口等的支援措施。 ‧促進大學閒置專利的海外技術移轉。 ‧研議於鉅額資金投入而有多數大學、企業參與之特定大型計劃的場合,不受日本版the Bayh-Dole Act條款的限制,而由特定公共的機關等執行專利的管理。

世界衛生組織發布人工智慧於健康領域之監管考量因素文件,期能協助各國有效監管健康領域之人工智慧

世界衛生組織(World Health Organization, WHO)於2023年10月19日發布「人工智慧於健康領域之監管考量因素」(Regulatory considerations on artificial intelligence for health)文件,旨在協助各國有效監管健康領域之人工智慧,發揮其潛力同時最大限度地降低風險。本文件以下列六個領域概述健康人工智慧之監管考量因素: (1)文件化與透明度(Documentation and transparency) 開發者應預先規範(pre-specifying)以及明確記錄人工智慧系統(以下簡稱AI系統)之預期醫療目的與開發過程,如AI系統所欲解決之問題,以及資料集之選擇與利用、參考標準、參數、指標、於各開發階段與原始計畫之偏離及更新等事項,並建議以基於風險之方法(Risk-based approach),根據重要性之比例決定文件化之程度、以及AI系統之開發與確效紀錄之保持。 (2)風險管理與AI系統開發生命週期方法(Risk management and AI systems development lifecycle approaches) 開發者應在AI系統生命之所有階段,考慮整體產品生命週期方法(total product lifecycle approach),包括上市前開發管理、上市後監督與變更管理。此外,須考慮採用風險管理方法(risk management approach)來解決與AI系統相關之風險,如網路安全威脅與漏洞(vulnerabilities)、擬合不足(underfitting)、演算法偏差等。 (3)預期用途、分析及臨床確效(Intended use, and analytical and clinical validation) 開發者應考慮提供AI系統預期用途之透明化紀錄,將用於建構AI系統之訓練資料集組成(training dataset composition)之詳細資訊(包括大小、設定與族群、輸入與輸出資料及人口組成等)提供給使用者。此外,可考慮透過一獨立資料集(independent dataset)之外部分析確效(external analytical validation),展示訓練與測試資料以外之效能,並考慮將風險作為臨床確效之分級要求。最後,於AI系統之上市後監督與市場監督階段,可考慮進行一段期間密集之部署後監督(post-deployment monitoring)。 (4)資料品質(Data quality) 開發者應確認可用資料(available data)之品質,是否已足以支援AI系統之開發,且開發者應對AI系統進行嚴格之預發布評估(pre-release evaluations),以確保其不會放大訓練資料、演算法或系統設計其他元素中之偏差與錯誤等問題,且利害關係人還應考慮減輕與健康照護資料有關之品質問題與風險,並繼續努力創建資料生態系統,以促進優質資料來源之共享。 (5)隱私與資料保護(Privacy and data protection) 開發者於AI系統之設計與部署過程中,應考慮隱私與資料保護問題,並留意不同法規之適用範圍及差異,且於開發過程之早期,開發者即應充分瞭解適用之資料保護法規與隱私法規,並應確保開發過程符合或超過相關法規要求。 (6)參與及協作(Engagement and collaboration) 開發者於制定人工智慧創新與部署路線圖之期間,需考慮開發可近用且具有充足資訊之平台,以於適合與適當情況下促進利害關係人間之參與及協作;為加速人工智慧領域實務作法之進化,透過參與及協作來簡化人工智慧監管之監督流程即有必要。

TOP