歐盟單一專利法院(UPC)將於2023年開始運作

  歐盟單一專利法院((Unified Patent Court, UPC)預計於2023年6月1日正式運作,歷經英國脫歐等事件後,於去年(2021)12月2日奧地利批准單一專利法院協議暫行議定書(Protocol to the Agreement on a Unified Patent Court on provisional application, PAP-Protocol)並提交後,正式進入最後階段。

  UPC為歐盟所設立之國際法院,對歐盟授予之專利具管轄權,負責審理歐洲專利的侵權與訴訟案。UPC之裁決結果將適用於所有UPC成員國,透過建立單一的審理制度,避免各國法院標準不一致的情形。截至目前(2022年12月20日),已有16個歐盟成員國批准單一專利法院協議(下稱協議)。

  現有歐洲專利(EP)將直接適用UPC制度,為降低影響,協議給予專利權人申請退出單一專利制度(Unitary Patent, UP)的選擇權,若未於規定時間內提出申請,仍可於UPC啟用後7年內提出。其他針對UPC提出幾點說明:

一、UPC成員國之歐洲專利,皆受到UPC管轄。

二、UPC分為初審法院(Court of First Instance)與上訴法院(Court of Appeal),初審法院為UPC成員國之地方或區域法院並非單一法院。

三、訴訟期限於初審分為三階段,總時程約為12至14個月,上訴法院受理後原則不會再發回初審法院,審理過程約為12個月。

四、UPC管轄權僅限於專利事務,如侵權訴訟、專利撤銷、申請強制令等。

五、UPC受協議、歐洲專利公約及有關的國際協議、規範等約束。

相關連結
你可能會想參加
※ 歐盟單一專利法院(UPC)將於2023年開始運作, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8919&no=57&tp=1 (最後瀏覽日:2026/02/19)
引註此篇文章
你可能還會想看
英國資訊委員辦公室提出人工智慧(AI)稽核框架

  人工智慧(Artificial Intelligence, AI)的應用,已逐漸滲透到日常生活各領域中。為提升AI運用之效益,減少AI對個人與社會帶來之負面衝擊,英國資訊委員辦公室(Information Commissioner’s Office, ICO)於2019年3月提出「AI稽核框架」(Auditing Framework for Artificial Intelligence),作為確保AI應用合乎規範要求的方法論,並藉機引導公務機關和企業組織,評估與管理AI應用對資料保護之風險,進而建構一個可信賴的AI應用環境。   AI稽核框架主要由二大面向所構成—「治理與可歸責性」(governance and accountability)以及「AI特定風險領域」(AI-specific risk areas)。「治理與可歸責性」面向,係就公務機關和企業組織,應採取措施以遵循資料保護規範要求的角度切入,提出八項稽核重點,包括:風險偏好(risk appetite)、設計階段納入資料保護及透過預設保護資料(data protection by design and by default)、領導管理與監督(leadership management and oversight)、政策與程序(policies and procedures)、管理與通報架構(management and reporting structures)、文書作業與稽核紀錄(documentation and audit trails)、遵循與確保能力(compliance and assurance capabilities)、教育訓練與意識(training and awareness)。   「AI特定風險領域」面向,則是ICO特別針對AI,盤點下列八項潛在的資料保護風險,作為風險管理之關注重點: 一、 資料側寫之公平性與透明性(fairness and transparency in profiling); 二、 準確性(accuracy):包含AI開發過程中資料使用之準確性,以及應用AI所衍生資料之準確性; 三、 完全自動化決策模型(fully automated decision making models):涉及人類介入AI決策之程度,歐盟一般資料保護規則(General Data Protection Regulation, GDPR)原則上禁止無人為介入的單純自動化決策; 四、 安全性與網路(security and cyber):包括AI測試、委外處理資料、資料重新識別等風險; 五、 權衡(trade-offs):不同規範原則之間的取捨,如隱私保護與資料準確性; 六、 資料最少化與目的限制(data minimization and purpose limitation); 七、 資料當事人之權利行使(exercise of rights); 八、 對廣泛公共利益和權利之衝擊(impact on broader public interests and rights)。   ICO將持續就前述AI特定風險領域,進行更深入的分析,並開放公眾討論,未來亦將提供相關技術和組織上之控制措施,供公務機關及企業組織進行稽核實務時之參考。

從日本政策看我國音樂產業海外拓展之必要性及有效作法

黑莓機製造商因使用操作系統名稱縮寫為市場行銷而面對商標爭議

  自2005年7月黑莓機的通訊服務-BlackBerry Messenger已成為廣受歡迎的社群網路服務;2010年黑莓機製造商RIM(Research in Motion) 正式使用縮寫BBM代表黑莓機的社群網路功能服務(BlackBerry Messenger),被加拿大廣播收視/聽率調查公司(BBM Canada)提出商標侵權訴訟。     BBM Canada成立於1944年,原名為Bureau of Broadcast Measurement,2001年更名為BBM Canada,自1944年起即使用BBM名稱代表其公司所提供的廣播訊息服務,至今已超過60年。並於2007年取得加拿大註冊商標,指定使用於相關測量服務;BBM Canada並於申請時註明,BBM最早使用於加拿大的日期為2005年3月31日。     RIM於2009年申請加拿大商標註冊-BBM(申請號:1455487),指定使用於通訊服務及電腦軟體等產品及服務,至今仍為調查程序階段。此外,RIM先前亦使用BBX為操作系統系列商標名稱,被美國聯邦法院- US federal court in Albuquerque 宣告臨時禁制令。 RIM日前主張,BBM的商標申請尚未被加拿大智慧局(CIPO-Canadian Intellectual Property Office)駁回,且RIM與BBM Canada兩家公司間並無任何競爭關係,而雙方所提供的服務亦無重疊,故依據加拿大商標法,雙方應可同時併存及使用BBM為表彰兩家的產品及服務上。

南韓個資保護委員會發布人工智慧(AI)開發與服務處理公開個人資料指引

南韓個資保護委員會(Personal Information Protection Commission, PIPC)於2024年7月18日發布《人工智慧(AI)開發與服務處理公開個人資料指引》(인공지능(AI) 개발·서비스를 위한 공개된 개인정보 처리 안내서)(以下簡稱指引)。該指引針對AI開發與服務處理的公開個人資料(下稱個資)制定了新的處理標準,以確保這些資料在法律上合規,且在使用過程中有效保護用戶隱私。 在AI開發及服務的過程中,會使用大量從網路上收集的公開資料,這些公開資料可能包含地址、唯一識別資訊(unique identifiable information, UII)、信用卡號等個資。這些公開的個資是指任意人可藉由網路抓取技術自公開來源合法存取的個資,內容不限於個資主體自行公開的資料,還包括法律規定公開的個資、出版物和廣播媒體中包含的個資等。由於公開資料眾多,在現實中很難在處理這些公開個資以進行AI訓練之前,取得每個個資主體的單獨同意及授權,同時,南韓對於處理這些公開個資的現行法律基礎並不明確。 為解決上述問題,PIPC制定了該指引,確認了蒐集及利用公開個資的法律基礎,並為AI開發者和服務提供者提供適用的安全措施,進而最小化隱私問題及消除法律不確定性。此外,在指引的制定過程中,PIPC更參考歐盟、美國和其他主要國家的做法,期以建立在全球趨勢下可國際互通的標準。 指引的核心內容主要可分為三大部分,第一部分:應用正當利益概念;第二部分:建議的安全措施及保障個資主體權利的方法;及第三部分:促進開發AI產品或服務的企業,在開發及使用AI技術時,注意可信任性。 針對第一部分,指引中指出,只有在符合個人資料保護法(Personal Information Protection Act, PIPA)的目的(第1條)、原則(第3條)及個資主體權利(第4條)規定範圍內,並滿足正當利益條款(第15條)的合法基礎下,才允許蒐集和使用公開個資,並且需滿足以下三個要求:1.目的正當性:確保資料處理者有正當的理由處理個資,例如開發AI模型以支持醫療診斷或進行信用評級等。2.資料處理的必要性:確保所蒐集和利用的公開資料是必要且適當的。3.相關利益評估:確保資料處理者的正當利益明顯超越個資主體的權利,並採取措施保障個資主體的權利不被侵犯。 而第二部分則可區分為技術防護措施、管理和組織防護措施及尊重個資主體權利規定,其中,技術防護措施包括:檢查訓練資料來源、預防個資洩露(例如刪除或去識別化)、安全存儲及管理個資等;管理和組織防護措施包括:制定蒐集和使用訓練資料的標準,進行隱私衝擊影響評估(PIA),運營AI隱私紅隊等;尊重個資主體權利規定包括:將公開資料蒐集情形及主要來源納入隱私政策,保障個資主體的權利。 最後,在第三部分中,指引建議AI企業組建專門的AI隱私團隊,並培養隱私長(Chief Privacy Officers, CPOs)來評估指引中的要求。此外,指引亦呼籲企業定期監控技術重大變化及資料外洩風險,並制定及實施補救措施。 該指引後續將根據PIPA法規修訂、AI技術發展及國際規範動向持續更新,並透過事前適當性審查制、監管沙盒等途徑與AI企業持續溝通,並密切關注技術進步及市場情況,進而推動PIPA的現代化。

TOP