歐盟智慧財產局公布2020年智財侵權狀況報告

  歐盟智慧財產局(European Union Intellectual Property Office)於今(2020)年第三季公布最新智財侵權狀況報告,研究報告為其智庫「歐盟智慧財產權侵權觀察平台(The European Union Observatory on Infringements of Intellectual Property Rights)」所執行,並結合經濟合作暨發展組織(Organization for Economic Cooperation and Development)之數據資料,每年以不同主題呈現當年世界智財侵權狀況。今年以「智財權為何重要、智財侵權與打擊仿冒之戰爭」為主題,重點如下:

  1. 智財密集產業對歐盟經濟貢獻占整體GDP的45%、就業人數占歐盟就業人口的29%、出口貨物量占96%。
  2. 企業對智財的重視比例增高,重視智財的企業雇員平均收入較不重視智財權者高出32%;運用智財於營運策略的中小企業成長潛力高於無智財權者,如依權利運用類型區分,其成長率分別是10%(商標)、16%(商標結合專利)、27%(商標與設計權),以及33%(三種權利組合)。
  3. 全球仿冒品占其貿易總量約3.3%,市值高達1,210億歐元。
  4. 除日常藥品,抗生素、癌症或心臟疾病藥物仿冒情形均趨於嚴重;2019年爆發新冠肺炎後,偽造商更是將仿冒移轉至檢測試劑與個人防護用品。

  尤其進入AI與5G時代後,智財密集產業對世界經濟貢獻度可望逐年上升,但侵權狀況恐怕亦同,咎因於該產業之興盛與背後龐大的潛在利益。因此持續推動建立企業的智財意識與防護能力,有其必要性,以助於提升產業發展潛力與整體營運獲利。

相關連結
你可能會想參加
※ 歐盟智慧財產局公布2020年智財侵權狀況報告, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8529&no=66&tp=1 (最後瀏覽日:2026/04/18)
引註此篇文章
你可能還會想看
美國線上交易方式可能在歐洲行不通

由於美國與歐洲國家消費者保護政策以及對定型化契約條款的解讀不同,在美國電子商務應用中所常見的線上契約定型化條款內容,很可能在歐洲被解釋為對消費者不公平 (unfair) 而無效。   一位在法國巴黎執業的律師表示,在 AOL Bertelsmann Online France v. Que Choisir 案件中,許多美國律師常用的定型化契約條款,例如:網際網路服務提供者擁有單方變更契約內容之權;消費者之繼續使用服務等同於默示同意新的付費條款內容;網際網路服務提供者對於網路中斷造成的損害不負任何責任;限制消費者只能依循 AOL 的服務使用約款進行損害賠償之求償;及網際網路服務提供者保有中止服務等權利之條款等,在法國法院都被解釋為不合法而無效。雖然 AOL 這個案子還在進行上訴程序,法國巴黎法院在審理另一個案件時,也將類似的條款視為無效,而該案涉案主角則是義大利網際網路服務提供者。   由於法國對於消費者保護的法規係源自於歐盟指令,而歐盟所有會員國皆須在一定期間內將指令內容納入內國法規範,一位在英國執業的律師表示, AOL 在法國法院所得到的判決,如果發生在英國甚或其他歐盟會員國,也可能得到同樣的結果。

美國《國際緊急經濟權力法》(IEEPA)

  美國《國際緊急經濟權力法》(International Emergency Economic Powers Act, 50 U.S.C. §1701-1708,下稱IEEPA)是美國總統針對國際經濟局勢,進行多種經濟交易相關限制之法源依據─只要外來任何威脅造成美國家安全、外交政策或者經濟出現隱憂,美國總統即可按IEEPA依職權調查、管制或限制「任何與特定國家的外國匯兌交易、透過金融機構進行任何涉及該國利益的信貸移轉或支付、輸入或輸出外幣或證券;亦可凍結與特定國家或該國人民有關的財產權」。1979年,卡特總統(Jimmy Carter)援引IEEPA因應伊朗人質危機(Iran Hostage Crisis),係迄今最長時間的經濟制裁(sanction);2001年的911空襲事件之後,美國國會大幅擴張IEEPA,同時制裁阿富汗(Blocking Property and Prohibiting Transactions with the Taliban)。近期的中美貿易戰中,IEEPA亦扮演重要角色。舉例而言,2019年5月15日,美國總統川普(Donald Trump)即以IEEPA發布〈行政命令:保護資通訊技術及服務之供應鏈〉(Executive Order on Securing the Information and Communications Technology and Services Supply Chain),並於翌日將華為及其遍布26國的68間子公司列入《出口管制規則》(Export Administration Regulations, EAR)之管制名單。   美國憲法起草時,並無談及緊急權力(emergency powers)之概念,所以在過去的兩個世紀,美國總統僅能個案處理(ad hoc)緊急狀況,國會再後續追認。20世紀以降,美國開始出現緊急權力模式─透過國會立法,將原應由國會代表人民行使的權力(delegated powers)授予總統在緊急狀況下直接行使。復有1976年的《國家緊急法》(National Emergencies Act,下稱NEA),而1977年通過的IEEPA即是依NEA為法源所設。當美國總統行使IEEPA,必須遵守NEA:立即向國會發送緊急命令公告,並且將之發布於聯邦公報(Federal Register),總統亦須闡明其發布該緊急命令所援引之法源依據。《國際緊急經濟權力法》中,公權力對於私經濟的介入,則可溯及第一次世界大戰末期的《1917年對敵貿易法》(Trading with the Enemy Act of 1917),當時出現始料未及的經濟動員(economic mobilization)與制裁。

南韓個人資料保護委員會宣布通過修訂個人資料保護法施行法

2024年3月6日,南韓個資保護委員會(Personal Information Protection Commission, PIPC)宣布通過個人資料保護法施行法(Enforcement Decree of the Personal Information Protection Act, PIPA Enforcement Decree)修正案,並於2024年3月15日正式實行。 本次修法重點如下: 1.明訂個資主體可要求公開自動化決策過程之權利及應對不利結果時可採取之措施 針對使用AI等自動化系統處理個資並做出的自動化決策,個資主體(即,個人)有權要求解釋決策過程並進行審查,尤其當決策結果對個資主體權益有重大影響時(例如:不通過其社福補助申請),個資主體可拒絕自動化決策結果,並要求改為人為決策及告知重新決策結果。另為確保透明、公平,自動化決策依據的標準與程序亦須公開,並於必要時向公眾說明決策過程。 2.確立隱私長(Chief Privacy Officers, CPOs)的資格要求及適用範圍 為確保CPO能順利開展個資保護工作,要求處理大量或敏感個資機關之CPO至少具有4年個資、資安相關經驗,且個資經驗至少2年。適用機關包括:年營業額達1,500億韓元以上、處理超過100萬人個資或超過5萬人特種資料者;學生超過2萬人的大學;處理大量特種個資的教學醫院或大型私人醫院等;疾管局、社福、交通、環保等公共系統運營機構。 3.明訂評估公共機構個資保護效能之標準及程序 依據個資法第11-2條規定,PIPC每年需對公共機構(如:中央行政機關及其所屬機關、地方政府及總統令規定者)進行個資保護程度評估,而為使評估作業有所依循,本次新增評估標準及相關程序包括:政策和業務表現及其改進情形、管理體系適當性、保護個資措施及執行情形、防範個資侵害及確保安全性措施及執行情形等。 4.調整需要承擔損害賠償責任的適用範圍及門檻 為確保機關履行個資主體損害賠償責任,將需履行投保保險等義務之適用範圍由網路業者擴大至實體店面及公共機構等。同時,調整適用門檻,將年銷售額由5千萬韓元調整為10億韓元、個資主體數由1千人調整為1萬人,以減輕小型企業負擔。另亦明訂可豁免責任的對象包括:不符合CPO資格的公共機構,公益法人或非營利組織,及已委託給已投保保險之專業機構的小型企業。 PIPC另將公布一份指引草案,內容包括自動決策權利、CPO資格要求、公共機構個資保護評估標準、賠償責任保障制度等,並舉行說明會來收集回饋意見。

英國發布人工智慧網路資安實務守則

英國政府於2025年1月31日發布「人工智慧網路資安實務守則」(Code of Practice for the Cyber Security of AI,以下簡稱「實務守則」),目的是提供人工智慧(AI)系統的網路資安指引。該實務守則為英國參考國際上主要標準、規範後所訂定之自願性指引,以期降低人工智慧所面臨的網路資安風險,並促使人工智慧系統開發者與供應商落實基本的資安措施,以確保人工智慧系統的安性和可靠性。 由於人工智慧系統在功能與運作模式上與傳統網路架構及軟體有明顯的不同,因此產生新的資安風險,主要包含以下: 1. 資料投毒(Data Poisoning):在AI系統的訓練資料中蓄意加入有害或錯誤的資料,影響模型訓練結果,導致人工智慧系統產出錯誤推論或決策。 2. 模型混淆(Model Obfuscation):攻擊者有意識地隱藏或掩飾AI模型的內部運作特徵與行為,以增加系統漏洞、引發混亂或防礙資安管理,可能導致AI系統的安全性與穩定性受損。 3. 輸入間接指令(Indirect Prompt Injection):藉由輸入經精心設計的指令,使人工智慧系統的產出未預期、錯誤或是有害的結果。 為了提升實務守則可操作性,實務守則涵蓋了人工智慧生命週期的各階段,並針對相關角色提出指導。角色界定如下: 1. 人工智慧系統開發者(Developers):負責設計和建立人工智慧系統的個人或組織。 2. 人工智慧系統供應鏈(Supply chain):涵蓋人工智慧系統開發、部署、營運過程中的的所有相關個人和組織。 實務守則希望上述角色能夠參考以下資安原則,以確保人工智慧系統的安全性與可靠性: 1. 風險評估(Risk Assessment):識別、分析和減輕人工智慧系統安全性或功能的潛在威脅的過程。 2. 資料管理(Data management):確保AI系統整個資料生命週期中的資料安全及有效利用,並採取完善管理措施。 3. 模型安全(Model Security):在模型訓練、部署和使用階段,均應符合當時的技術安全標準。 4. 供應鏈安全(Supply chain security):確保AI系統供應鏈中所有利益相關方落實適當的安全措施。 「人工智慧網路資安實務守則」藉由清晰且全面的指導方針,期望各角色能有效落實AI系統安全管控,促進人工智慧技術在網路環境中的安全性與穩健發展。

TOP