標準必要專利與反托拉斯之成果運用法制-以高通案為例

刊登期別
第30卷,第8期,2018年8月
 
隸屬計畫成果
產業科技創新之法制建構計畫
 
摘要項目
  標準必要專利,為專利權人向標準必要專利組織,為公平、合理、無歧視的授權承諾(FRAND),以換取成為市場標準的獨占利益。一旦成為標準必要專利權人,市場力量將擴大,若同時搭配獨特商業模式的運作,恐引發違反反托拉斯規則之疑慮。然而,標準必要專利實係代表著智慧財產權的激勵與創新,與反托拉斯法促進自由競爭思想間呈現矛盾與合作的關聯,該如何維持兩者間的動態平衡,在不過度干預研發創新與成果運用產出下,仍保持市場競爭秩序,追求全體消費者的最大利益,是本文聚焦的重要議題。

本文為「經濟部產業技術司科技專案成果」

你可能會想參加
※ 標準必要專利與反托拉斯之成果運用法制-以高通案為例, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8110&no=64&tp=1 (最後瀏覽日:2026/05/16)
引註此篇文章
你可能還會想看
歐盟議會發布《可信賴人工智慧倫理準則》

  2019年4月9日,歐盟議會發布《可信賴人工智慧倫理準則》(Ethics Guidelines for Trustworthy AI)。此次內容大致延續歐盟人工智慧高階專家小組(High-level Expert Group on Artificial Intelligence)於2018年12月18日發布的《可信賴人工智慧倫理準則草案》(Draft Ethics Guidelines for Trustworthy Artificial Intelligence)之內容,要求人工智慧須遵守行善(do good)、不作惡(do no harm)、保護人類(preserve human Agency)、公平(be fair)與公開透明(operate transparency)等倫理原則;並在4月9日發布的正式內容中更加具體描述可信賴的人工智慧的具體要件,共計七面向概述如下: 人類自主性和監控(Human agency and oversight):AI係為強化人類能力而存在,使人類使用者能夠做出更明智的決策並培養自身的基礎能力。同時,AI應有相關監控機制以確保AI系統不會侵害人類自主性或是引發其他負面效果。本準則建議,監控機制應可透過人機混合(一種整合人工智慧與人類協作的系統,例如human-in-the-loop, human-on-the-loop, and human-in-command)的操作方法來實現。 技術穩健性和安全性(Technical Robustness and safety):為防止損害擴張與確保損害最小化,AI系統除需具備準確性、可靠性和可重複性等技術特質,同時也需在出現問題前訂定完善的備援計劃。 隱私和資料治理(Privacy and data governance):除了確保充分尊重隱私和資料保護之外,還必須確保適當的資料治理機制,同時考慮到資料的品質和完整性,並確保合法近用資料為可行。 透明度(Transparency):資料、系統和AI的商業模型應該是透明的。可追溯性機制(Traceability mechanisms)有助於實現這一目標。此外,應以利害關係人能夠理解的方式解釋AI系統的邏輯及運作模式。人類參與者和使用者需要意識到他們正在與AI系統進行互動,並且必須了解AI系統的功能和限制。 保持多樣性、不歧視和公平(Diversity, non-discrimination and fairness):AI不公平的偏見可能會加劇對弱勢群體的偏見和歧視,導致邊緣化現象更為嚴重。為避免此種情況,AI系統應該設計為所有人皆可以近用,達成使用者多樣性的目標。 社會和環境福祉(Societal and environmental well-being):AI應該使包含我們的後代在內的所有人類受益。因此AI必須兼顧永續發展、環境友善,並能提供正向的社會影響。  問責制(Accountability):應建立機制以妥當處理AI所導致的結果的責任歸屬,演算法的可審計性(Auditability)為關鍵。此外,應確保補救措施為無障礙設計。

美國法院擬修正《聯邦證據規則》以規範人工智慧生成內容之證據能力

2025年5月2日,聯邦司法會議證據規則諮詢委員會(Judicial Conference’s Advisory Committee on Evidence Rules)以8比1投票結果通過一項提案,擬修正《聯邦證據規則》(Federal Rules of Evidence,FRE),釐清人工智慧(AI)生成內容於訴訟程序中之證據能力,以因應生成式AI技術在法律實務應用上日益普遍的趨勢。 由於現行《聯邦證據規則》僅於第702條中針對人類專家證人所提供的證據設有相關規定,對於AI生成內容的證據能力尚無明確規範,所以為了因應AI技術發展帶來的新興挑戰,《聯邦證據規則》修正草案(下稱「修正草案」)擬新增第707條「機器生成證據」(Machine-Generated Evidence),並擴張第901條「驗證或識別證據」(Authenticating or Identifying Evidence)的適用範圍。 本次增訂第707條,針對AI生成內容作為證據時,明確其可靠性評估標準,以避免出現分析錯誤、不準確、偏見或缺乏可解釋性(Explainability)等問題,進而強化法院審理時的證據審查基礎。本條規定,AI生成內容作為證據必須符合以下條件: 1. 該AI生成內容對於事實之認定具有實質助益; 2. AI系統於產出該內容時,係以充分且適當之事實或資料為輸入依據; 3. 該輸出結果能忠實反映其所依據之原理與方法,並證明此一應用於特定情境中具有可靠性。 本修正草案此次新增「AI生成內容」也必須合乎既有的證據驗證要件。原第901條a項原規定:「為符合證據之驗證或識別要求,提出證據者必須提供足以支持該證據確係其所聲稱之內容的佐證資料。」而修正草案擬於第901條b項新增「AI生成內容」一類,意即明文要求提出AI生成內容作為證據者,須提出足夠證據,以證明該內容具有真實性與可信度,方符合第901條a項驗證要件。 隨著AI於美國法院審理程序中的應用日益廣泛,如何在引入生成式AI的同時,於司法創新與證據可靠性之間取得平衡,將成為未來美國司法實務及法制發展中的重要課題,值得我國審慎觀察並參酌因應,作為制度調整與政策設計的參考。

美國聯邦通訊傳播委員會決議將進行網路中立立法

  美國聯邦通訊傳播委員會(Federal Communications Commission, FCC )在2009年10月22日表決,一致同意開始進行對「網路開放」(Open internet)相關之規範。除了2005年所提出之前四項提議原則外版本外,FCC新提出兩項提議原則,尋求意見,共包含: 1. 確保網路使用人均可選擇網路服務及內容之自由; 2. 保護對合法網路應用和合法服務使用之權利; 3. 選擇於網際網路上使用設施(devices)之自由; 4. 網路提供業者(network providers)、應用提供業者(application providers)、服務業者(service providers)、和內容提供業者(content providers)者間之競爭關係; 5. 網路提供業者之管理措施,不得基於網路流量(traffic)而對之歧視(discriminate),但得基於顧客之利益采取相關管理措施; 6. 寬頻提供業者,需揭露網路管理措施之方案資訊,以及管理措施對使用者所造成之影響。   參議員John McCain 則表示,網路中立(Net neutrality)的原則,將會扼殺創意和傷害就業市場,該議員並提出網路自由法案(Internet Freedom Act of 2009),認為該法案使避免網路受到政府管控,並且允許持續的創新和創造更多高價值之就業機會。維持網路事業的自由,免於沉重的規範,將是對經濟最佳之刺激方式。   同時也有人質疑,FCC並非授權管理網路之機構,且其所訂定之原則,並未具有法規效力,無法強制執行,而FCC制定該原則之意義為何?但FCC則表示,已獲得政策原則執行之授權。

韓國「電子文件認證管理系統」(Certified E-Document Authority System)法制化之簡介

TOP