何謂「標準必要專利」?

  標準必要專利(standards-essential patents,SEPs)是國際標準組織所採行的一種專利運用模式,主要係為了使標準共通技術普及之同時平衡專利權人之利益,將技術發展中重要的標準共通技術結合專利保護,同時均要求專利權人須簽署FRAND(Fair,Reasonable and Non-discriminatory)條款,以公平、合理、無歧視之原則收取合理數額之專利授權費供標準化組織成員有償使用。然而,因專利本身即是一種合法壟斷,是以標準必要專利之授權模式可實現利益最大化;但涉及到具高度共通性又難以迴避的技術時,應當避免少數專利權人濫用專利權和市場壟斷。因此,專利權人和被授權人之間,對於收取合理專利授權費之議題,在一直無法取得共識之下,往往訴諸法律解決。從美國聯邦法院涉及標準必要專利侵權之訴訟案例,可看出美國針對標準必要專利目前主要有下列幾種趨勢:(1)合理之專利授權費以該技術佔產品元件之比率計算;(2)標準必要專利之授權費金額逐步降低;(3)專利權人必須先進行授權流程(4)不能直接申請禁制令。

本文為「經濟部產業技術司科技專案成果」

※ 何謂「標準必要專利」?, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=7301&no=67&tp=5 (最後瀏覽日:2026/04/28)
引註此篇文章
你可能還會想看
日本設置「創新藥品等實用化支援基金」促進創新藥品及再生醫療製劑研發上市

日本在2025年2月12日閣議決定「藥機法等部分法律修正案」(原文:医薬品、医療機器等の品質、有効性及び安全性の確保等に関する法律等の一部を改正する法律案),送國會本會期審議。其中明文設置「創新藥品等實用化支援基金」,政府預先編列複數年度所需財源,並設有10年時限措施。此項基金業務預定由國立研究開發法人醫藥基盤、健康暨營養研究所(下稱研究所)負責實施,追加創新藥品等實用化支援事業為研究所新業務,並明定至令和18年(2036年)3月31日為止實施,說明如下: (1)為了「創新藥品及再生醫療製劑」(下稱創新藥品等)之實用化,整備研發所必要之具規模的設施及設備,並提供從事於創新藥品等實用化之人得以共同使用,以增加創新藥品等實用化之交流與合作之機會,對於從事此等業務以及其他提供必要支援之事業者(下稱創新藥品等實用化支援事業者),由研究所提供其必要資金及其他支援。 (2)創新藥品等實用化支援事業者欲從事前述支援事業,向厚生勞動大臣提出申請書取得認定。 該基金由政府與製藥企業等共同出資設立,以強化「製藥新創得以創造出創新藥品等之製藥基盤及基礎設施」為目標,對於實施創新藥品等新創進行支援之「創新藥品生態系園區之整備事業者」(例如:育成事業者或製藥企業等),整備育成實驗室(Incubation Lab)、動物實驗設施、臨床試驗用藥製造等設施,以及致力於新創支援之事業者作為補助之對象範圍,明文於實施3年後進行檢討,期能透過此一基金之運作強化創新藥品等之製藥基盤。

美國FTC以廣告不實的理由對二款具有診斷功能的醫療app開罰

  美國FTC於2月23日對於兩款聲稱具有診斷能力的醫療app進行裁罰,理由是這兩款app宣傳不實資訊,故應予下架並裁處罰鍰。   Melapp與Mole Detective兩款app,均係付費app,售價大約在1.99至4.99美元不等,宣稱只要使用者從不同角度拍下自己身上的痣,app就能夠判斷這個痣屬於黑色素瘤(Melanoma,為一種罕見的皮膚癌類型,且惡性程度高)的機率,app將罹患黑色素瘤的風險區分為:高、中、低三級。但FTC認為業者的說法並沒有足夠的臨床依據加以證明,因此涉及廣告不實的行為。截至目前為止,Melapp與Mole Detective的開發業者都已經繳納罰鍰,但發行商L-Health拒絕繳納這項罰款,因此FTC的委員會在經過表決之後,決定在2015年2月23日向北伊利諾州地方法院提起訴訟,請求法院執行此項由FTC作成的裁罰。   具有診斷效果的app在美國其實開發已久,但在此案前,尚未見到行政機關對之積極的加以管制,此次由FTC出面對於廣告不實的部分加以裁罰,而非由主管藥物、醫材的FDA進行裁罰,或許與眾人的想像不同,但從FTC的這個行動,我們也發現美國政府已開始關切此類宣稱具有醫療診斷效果的app,醫療app未來的發展情勢將會如何,特別是本案中將被FTC起訴的L-Health會不會再另行提起其他法律爭訟,以確保其產品在市面上的合法性?毋寧是未來世界各地醫療app發展的重要參考資訊。

英國發布人工智慧網路資安實務守則

英國政府於2025年1月31日發布「人工智慧網路資安實務守則」(Code of Practice for the Cyber Security of AI,以下簡稱「實務守則」),目的是提供人工智慧(AI)系統的網路資安指引。該實務守則為英國參考國際上主要標準、規範後所訂定之自願性指引,以期降低人工智慧所面臨的網路資安風險,並促使人工智慧系統開發者與供應商落實基本的資安措施,以確保人工智慧系統的安性和可靠性。 由於人工智慧系統在功能與運作模式上與傳統網路架構及軟體有明顯的不同,因此產生新的資安風險,主要包含以下: 1. 資料投毒(Data Poisoning):在AI系統的訓練資料中蓄意加入有害或錯誤的資料,影響模型訓練結果,導致人工智慧系統產出錯誤推論或決策。 2. 模型混淆(Model Obfuscation):攻擊者有意識地隱藏或掩飾AI模型的內部運作特徵與行為,以增加系統漏洞、引發混亂或防礙資安管理,可能導致AI系統的安全性與穩定性受損。 3. 輸入間接指令(Indirect Prompt Injection):藉由輸入經精心設計的指令,使人工智慧系統的產出未預期、錯誤或是有害的結果。 為了提升實務守則可操作性,實務守則涵蓋了人工智慧生命週期的各階段,並針對相關角色提出指導。角色界定如下: 1. 人工智慧系統開發者(Developers):負責設計和建立人工智慧系統的個人或組織。 2. 人工智慧系統供應鏈(Supply chain):涵蓋人工智慧系統開發、部署、營運過程中的的所有相關個人和組織。 實務守則希望上述角色能夠參考以下資安原則,以確保人工智慧系統的安全性與可靠性: 1. 風險評估(Risk Assessment):識別、分析和減輕人工智慧系統安全性或功能的潛在威脅的過程。 2. 資料管理(Data management):確保AI系統整個資料生命週期中的資料安全及有效利用,並採取完善管理措施。 3. 模型安全(Model Security):在模型訓練、部署和使用階段,均應符合當時的技術安全標準。 4. 供應鏈安全(Supply chain security):確保AI系統供應鏈中所有利益相關方落實適當的安全措施。 「人工智慧網路資安實務守則」藉由清晰且全面的指導方針,期望各角色能有效落實AI系統安全管控,促進人工智慧技術在網路環境中的安全性與穩健發展。

由Meta案看數位資料商業化面臨之跨國問題

於2023年5月22日愛爾蘭資料保護委員會(Ireland's Data Protection Commission, DPC)對於Facebook的母公司Meta將歐盟境內資料傳輸到美國的行為做出開罰12億歐元的決定,並暫停資料跨境傳輸行為,再次引起了各界對於資料跨境傳輸的關注。 針對跨國提供網路服務的企業,如何確保企業處理資料的方式可以符合多國的法規要求,向來是一困難的問題。自從2015年「安全港隱私準則」(Safe Harbour Privacy Principles)被歐盟法院宣告失效後,美國與歐盟試圖就資料跨境傳輸重新達成一個可符合雙方要求的框架,包含2020年被歐盟法院宣告無效的「隱私盾框架」(EU-US Privacy Shield Framework),而2022年3月雙方達成原則性同意的歐盟美國資料隱私框架(EU-U.S. Data Privacy Framework, DPF),惟就美國於同年10月發布用以實施之行政命令(EO 14086),亦於2023年5月被歐洲議會認為對於歐盟境內資料的保護不足。 2023年6月8日英國跟美國共同發布建立英美資料橋(UK-US data bridge)的聯合聲明,以建立起英美之間的資料流動機制,但該英美資料橋是基於歐盟美國資料隱私框架做進一步的擴展,能否符合歐盟對於資料保護的要求,目前尚無法預期。 目前的商業模式中資料跨境傳輸是難以避免的現實困境,各國亦就資料跨境傳輸建立框架,企業需持續關注自身營業所在地之法規變化,以即時因應調整自身管理機制。 本文同步刊登於TIPS網站(https://www.tips.org.tw/)

TOP