2015年6月美國聯邦最高法院大法官以6比3的同意比例判決維持該法院於1964年所確立之Brulotte原則,即專利失效後禁止要求償付授權金之原則。聯邦最高法院重新檢討Brulotte原則之爭議係起源於Kimble et al. v. Marvel Enterprises Inc.(case num. 13-720)一案。該案中涉及到現實下專利權利人於面對財團時,是否能於專利權有效期間採取手段充分保護專利權之問題,故是否有必要放寬專利權於失效後,專利權人仍得以專利授權契約要求專利被授權人償付授權金。又本案原告知專利發明人Kimble主張放寬Brulotte原則亦有亦於刺激競爭,促進研發創新。
然而,主撰判決本文之美國卡根大法官(Justice Kagan)及贊同維持Brulotte原則之大法官認為,Brulotte原則屬於聯邦最高法院遵照執行之決議事項(stare decisis),必須具有超級特別的理由(superspecial justification)才足以立論推翻該原則。但大法官認為並無有該類理由,並且強調縱然放寬Brulotte原則在學理上證實有助於市場競爭,但這也並非聯邦最高法院在司法權限所應審查或判斷之事項,而應是美國國會於智財政策之取捨。
反對維持Brulotte原則之阿利托大法官(Justice Alito)、羅伯特首席大法官(Chief Justice Roberts)及湯瑪斯大法官(Justice Thomas)提出不同意見書。反對意見認為專利失效及失去任何專有權利,所以涉及授權金之唯一問題即在於最佳契約設計(optimal contract design)。Brulotte原則干預了各方協議授權內容時,可以反映專利真實價值的方式,破壞契約期望(contractual expectation)。
本案作成判決後,各專利事務所及專利律師普遍贊同聯邦法院維持Brulotte原則,主要係基於該原則可以使用來償付授權金之資金轉為用於他處,有助於資金流通,而非用於已失效之專利。
本文為「經濟部產業技術司科技專案成果」
德國聯邦卡特爾署(Bundeskartellamt)於2020年7月9日公布,將針對電動車公共基礎設施產業進行調查,以釐清目前市場相關競爭法問題。 聯邦卡特爾署署長Andreas Mundt表示,建立全國性的充電基礎設施是德國電動車成功的先決條件之一,目前電動車充電基礎設施產業尚處於早期市場發展階段,因此,釐清市場是否有不正競爭問題,方能使電動車充電基礎設施布建能迅速擴張。在公共場所充電的條件和價格,也將影響消費者是否決定改用電動車。然而在目前市場發展階段時,已收到越來越多關於充電站價格和條件的投訴。 根據聯邦政府的計畫,2030年前德國將於全國範圍內布建大規模的充電基礎設施,其中包括公用的充電基礎設施。雖然充電站之布建及營運,不適用例如高壓電網擴建加速法、電網擴張法等與電網相關法規之適用。但可依德國不正當競爭防止法(Gesetz gegen den unlauteren Wettbewerb, UWG)拘束該領域可能存在的競爭法議題。除了應確保非歧視性地近用充電站外,更應研擬充電站相關使用條款,以確保充電站能正常營運。此外,並應研究城市及地方政府是否有提供合適的充電站位置,及其對充電站營運商之間的競爭影響。另外,聯邦高速公路上充電站之市場競爭狀況亦為聯邦卡特爾署關注的議題。 聯邦卡特爾署將於兩個調查階段中,向利害關係人進行產業調查。第一階段,將確定公共收費充電基礎設施的建設狀況,以及城市及地方政府和其他參與者,在規劃和提供充電站合適位置的現行作法。並在此基礎上,進行第二階段深入調查,特別針對有關移動服務提供商和使用者近用充電站的問題。
加拿大可能推動更嚴格的身份盜用法律加拿大的身份盜用問題嚴重,根據Canadian Council of Better Business Bureaus估計,每年因身份盜用所造成的經濟整體損失超過二十億加幣。此外,去年十一月Ipsos-Reid的調查顯示,73%的加拿大人擔心身份盜用問題,且28%的加拿大人曾親身遭遇、或是有周遭認識之人因此受害。 然而,與身份盜用猖獗的現況相較,加拿大個人資料和隱私保護法制一直飽受批評,被認為無法遏止此一問題擴散。加拿大資料安全之基礎規範為「個人資訊保護與電子文件法」(Personal Information Protection and Electronic Documents Act),但以具有重要嚇阻效果的刑法而言,卻只處罰濫用他人身份資訊,如身份詐欺、冒用、偽造等行為,但對於初步蒐集、處理和盜賣身份資訊之行為,卻難以透過現行刑法規範。 身份盜用可能造成的影響層面相當廣泛,例如個人的財務和信用損失、商業或財金產業的損失,甚至是整體納稅人的傷害。 職是之故,加拿大勞工部、魁北克經濟發展部等政府首長乃宣布,聯邦政府有意推動刑法之修改,使檢警對於先期身份盜用(或違法資料蒐集)之行為,有更大的調查和追訴空間,並希望此一政策方向能獲得國會的後續支持。
英國發布出口軍用與軍民兩用技術定義與範圍之指南英國國際貿易部(Department for International Trade, DIT)於2021年3月22日發布《出口軍用與軍民兩用技術定義與範圍之指南》(Exporting military or dual-use technology Guidance: definitions and scope),以協助使用者定義「技術」與「轉讓軍用或軍民兩用技術的法規範圍」。指南中說明,出口管制目的旨在防止出口技術及技轉可能導致開發或製造武器而危及國家安全,而非禁止合法貿易或知識傳播。任何管制技術的永久或暫時性出口或技轉(Technology transfer)均應取得出口許可證,包括展演、海外招標或投標、履約等行為。 首先在適用主體上,指南說明適用出口管制規範,為所有在英國國境內之人(不論國籍)和組織以及特定情況下的海外英國人,向外國人或海外地區為出口、技轉、或是使海外人員取得受管制技術之情況。 指南中所謂技術者,包含《英國戰略出口管制清單》(UK Strategic Export Control Lists)、《2008年出口管制命令》(The Export Control Order 2008)與歐盟理事會第428/2009號規則(Council Regulation No 428/2009)之內容。有些管制技術會以不同形式呈現,例如藍圖、計畫、模型、程式、指導手冊等,其呈現的形式亦屬管制範圍。此外,部分技術若與大規模破壞武器(Weapon of Mass Destruction, WMD)、武器貿易禁令(arms embargoes)以及未經授權的軍事出口有關者,亦可能屬於受管制之技術,因此定義上十分廣泛。因應科技和網路發展,出口和技轉亦會以不同方式呈現。指南中說明,技轉包含(1)以有形的物理文件或存載於媒體的方式技轉,例如隨身碟、硬碟、筆電或平板等;(2)以電子式等無形形式技轉,例如電子郵件傳送等。無論受管制技術之技轉是否加密,均需取得出口許可證。 針對前述定義之出口和技轉方式,指南中也例示技術移轉或出口的不同態樣,例如(1)電話會議及視訊會議;(2)電子郵件;(3)筆電、手機等可記憶之設備;(4)跨國公司內部傳送;(5)雲端儲存;(6)在國外下載使用管制技術;(7)員工在海外使用/存取內部網路;(8)第三方在海外使用/存取公司內部網路或雲端服務;(9)IT系統維護與測試。以上方式均應個別判斷是否需要申請出口許可證。此外,技術所有者應主導出口管制規範之法遵,故應了解客戶、供應商、分包商等第三方服務業者之詳細資訊,且於契約中明訂各方的出口管制責任及相關條款,並隨時確認接受者或第三方是否得自不同管道取得管制技術及相關訊息,並於可能出口和或技轉管制技術時,立即申請出口許可證。
英國發布人工智慧網路資安實務守則英國政府於2025年1月31日發布「人工智慧網路資安實務守則」(Code of Practice for the Cyber Security of AI,以下簡稱「實務守則」),目的是提供人工智慧(AI)系統的網路資安指引。該實務守則為英國參考國際上主要標準、規範後所訂定之自願性指引,以期降低人工智慧所面臨的網路資安風險,並促使人工智慧系統開發者與供應商落實基本的資安措施,以確保人工智慧系統的安性和可靠性。 由於人工智慧系統在功能與運作模式上與傳統網路架構及軟體有明顯的不同,因此產生新的資安風險,主要包含以下: 1. 資料投毒(Data Poisoning):在AI系統的訓練資料中蓄意加入有害或錯誤的資料,影響模型訓練結果,導致人工智慧系統產出錯誤推論或決策。 2. 模型混淆(Model Obfuscation):攻擊者有意識地隱藏或掩飾AI模型的內部運作特徵與行為,以增加系統漏洞、引發混亂或防礙資安管理,可能導致AI系統的安全性與穩定性受損。 3. 輸入間接指令(Indirect Prompt Injection):藉由輸入經精心設計的指令,使人工智慧系統的產出未預期、錯誤或是有害的結果。 為了提升實務守則可操作性,實務守則涵蓋了人工智慧生命週期的各階段,並針對相關角色提出指導。角色界定如下: 1. 人工智慧系統開發者(Developers):負責設計和建立人工智慧系統的個人或組織。 2. 人工智慧系統供應鏈(Supply chain):涵蓋人工智慧系統開發、部署、營運過程中的的所有相關個人和組織。 實務守則希望上述角色能夠參考以下資安原則,以確保人工智慧系統的安全性與可靠性: 1. 風險評估(Risk Assessment):識別、分析和減輕人工智慧系統安全性或功能的潛在威脅的過程。 2. 資料管理(Data management):確保AI系統整個資料生命週期中的資料安全及有效利用,並採取完善管理措施。 3. 模型安全(Model Security):在模型訓練、部署和使用階段,均應符合當時的技術安全標準。 4. 供應鏈安全(Supply chain security):確保AI系統供應鏈中所有利益相關方落實適當的安全措施。 「人工智慧網路資安實務守則」藉由清晰且全面的指導方針,期望各角色能有效落實AI系統安全管控,促進人工智慧技術在網路環境中的安全性與穩健發展。