歐盟《非歐盟國家智財權保護與執法成效報告》

  歐盟執委會於2020年1月8日發布《非歐盟國家智財權保護與執法成效報告》(Report on the protection and enforcement of intellectual property rights in third countries)。該報告自2006年起,每兩年出版一次,主要目的為確定特定非歐盟國家中智財權之保護與執法狀況,並列出每兩年的「優先關注國」(priority countries)清單。報告中亦說明,所謂「優先關注國」是對歐盟智財利益造成最大侵害的國家,而非指全球中智財保護狀況最有問題的國家。

  本次報告臚列的國家中,中國為最需關注的第一級國家;第二級為印度、印尼、俄羅斯等;第三級則是阿根廷、巴西、馬來西亞、泰國、沙烏地阿拉伯等國。報告提到中國是歐盟境內仿冒品與盜版貨物的主要來源。在歐盟海關扣押的仿冒品與盜版貨物中,有百分之八十以上來自中國和香港。第二類優先國家,其智財保護與執法存在系統性問題,且問題解決上進度緩慢。而第三類優先國家智財領域表現上也有類似問題,僅在嚴重性和數量低於第二級優先國家。其中,沙烏地阿拉伯為今年新增為優先關注國家,研究報告指出該國常被作為中轉國家,傳輸歐盟境內仿冒與盜版貨物。

  報告中亦提到上述國家共同問題,包含:

  1. 強制性技術轉讓策略(特別是中國)不利於外國產業(尤其是高科技產業)投資,使外國產業失去競爭優勢;
  2. 海關執法情形不一,往往沒有依職權採取人身拘提、扣押、銷燬仿冒及盜版貨物,或是未對運輸中的盜版貨品依法採取行動;
  3. 仿冒和盜版商品通常不會被執法部門直接銷燬,甚至會回到市場;
  4. 智財侵權罰則上,許多國家的懲罰過輕,無法造成威懾作用。
  5. 因缺乏執法政治意願和資源,使國家智財權執法情況薄弱,也導致技術基礎設施、人力資源、專業能力,甚或司法、行政以及一般公眾對智財權價值認識不足。

本文為「經濟部產業技術司科技專案成果」

相關連結
相關附件
你可能會想參加
※ 歐盟《非歐盟國家智財權保護與執法成效報告》, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8407&no=16&tp=5 (最後瀏覽日:2026/02/26)
引註此篇文章
你可能還會想看
國際貨幣組織呼籲各國共同擬定監管加密貨幣之框架

  加密貨幣經濟襲捲全球,國際貨幣組織(IMF)總裁Christine Lagarde於官方網站發表對加密貨幣經濟可能涉及之風險及未來各界應如何共同應對之看法;認為加密貨幣有無限發展之潛力,其所應用之技術不僅提升金融產業發展,更為其他領域注入創新技術,惟發展之同時,潛在不法風險逐漸浮上檯面,加密貨幣不受中央銀行監管,並因其匿名性而容易成為洗錢、資恐的全新金融犯罪工具;另外,全球加密貨幣交易活動越發頻繁,交易價格的極端波動性,以及與傳統金融體系之間的關聯不明確,皆可能危害全球金融之穩定性。   Christine Lagarde認為加密貨幣交易之監管,與監管傳統金融所制定之政策並無二致,皆應以「確保金融穩定性和保護消費者」為首要政策,因此,提出幾個應對方向: 將加密貨幣創新技術用於監管行為技術中 (1)分散式帳本技術 (DLT)   為加快市場參與者與監管機構之間的訊息共享,確保用戶交易安全,可將此技術用來建立註冊標準,驗證客戶資訊及數位簽章;各政府機關亦可利用此技術所獲得之相關數據減少逃漏稅現象。 (2)生物辨識、人工智慧與加密技術   將生物辨識、人工智慧與加密等技術來強化數位安全,及時辨識可疑交易行為,有效抑止非法交易。 全球應共同發展出監管框架,跨國合作打擊不法   有鑑於加密貨幣的流通是全球性的,全球應共同發展出監管框架,2018年G20高峰會中加密貨幣也納入討論議題,藉由凝聚國際間共識,避免創新科技淪為犯罪工具。   面對加密貨幣價格的波動性,各界有不同解讀,有認為這只是一時狂熱所造成,終將泡沫化;亦有認為就如同物聯網發展初期革命一般,加密貨幣將破壞整個金融體系,取代現有的法定貨幣;惟Christine Lagarde表示事實應該是介於這兩個極端想法之間,各界不應片面否定加密貨幣,應採包容之看法迎接這項新科技,更應正視其潛在之危險。   國內現已有多家虛擬貨幣交易平台實際運營,為保護消費者權益,避免國內虛擬交易平台淪為洗錢、資恐行動之犯罪溫床,日前法務部已邀集金管會、內政部、央行、警政署、調查局等單位進行跨部會協商,擬於收集各界意見後,修訂相關規範,以利我國對於虛擬貨幣監管之政策方向與範圍能符合各方期待。

英國上訴法院法官對軟體專利之必要性表示懷疑

  英國上訴法院智慧財產法專業法官Robin Jacob於2006年1月13日對是否應該核發軟體專利感到懷疑,並對美國專利法所奉行的原則-「任何在陽光下由人類所創造之物,皆可以被賦予專利」-表示不能茍同。該法官認為,從美國軟體專利實務在搜尋既存技術(Prior Art)時之遭遇來看,將專利核發予事實上僅具一般性效能之軟體,為軟體專利不可避免的現象,如此一來,在搜尋既存技術的過程中將產生極大問題。   軟體專利存在的必要性一直受到以「自由資訊基礎建設基金會」(the Foundation for a Free Information Infrastructure,簡稱FFII)為首之社會運動團體之懷疑,但截至目前為止仍極少有針對此一爭議的研究。歐洲委員會為此補助一個「以法律、技術與經濟層面切入探討軟體專利對創新之影響」的研究計畫,惟該計畫需待2007 年方能有所成果。無獨有偶,歐洲議會於2005年7月駁回「軟體專利指令」(全名:the directive on the patentability of computer-implemented inventions,俗稱software patent directive),理由是,該指令之通過將造成歐洲軟體專利與美國一樣過度氾濫的窘境。

以色列發布人工智慧監管與道德政策

以色列創新、科學及技術部(Ministry of Innovation, Science and Technology)於2023年12月17日公布以色列首個關於人工智慧的監管和道德政策,在各行各業將人工智慧作為未來發展方向的趨勢下,以多元、協作、原則、創新的理念為其導向,為了化解偏見、人類監督、可解釋性、透明度、安全、問責和隱私所帶來的衝擊,以色列整合政府部門、民間組織、學術界及私部門互相合作制定政策,以求解決人工智慧的七個挑戰,帶領以色列與國際接軌。 該人工智慧政策提出具體政策方向以制定措施,其中具有特色的三項為: 1. 軟性監管:人工智慧政策採取軟性監管制度,以OECD人工智慧原則(OECD AI Principles)為基礎,採行制定標準、監督與自律等方式促進人工智慧永續發展,注重以人為本的道德原則,強調創新、平等、可靠性、問責性。 2. 人工智慧政策協調中心(AI Policy Coordination Center):邀集專家學者成立跨部門的人工智慧政策協調中心,進行人工智慧政策研議,向政府部門監管提出建言,為人工智慧的開發使用建立風險管理,並代表國家參與國際論壇。 3. 公眾參與及國際合作:政府機關與監管機構舉辦人工智慧論壇,提出人工智慧的議題與挑戰,邀請相關人士參與討論,並積極參與國際標準制定,進行國際合作。 我國科技部在2019年邀集各領域專家學者研議提出「人工智慧科研發展指引」,強調以人為本、永續發展、多元包容為核心,以八大指引為標竿,推動人工智慧發展。我國已有跨部會溝通會議對於人工智慧法制政策進行研討,可觀察各國軟性監管措施作為我國人工智慧風險管理及產業政策參考,與國際脈動建立連結。

美國國防部「人工智慧國防運用倫理準則」

  美國國防部(Department of Defense)於2020年2月採納由美國國防創新委員會(Defense Innovation Board, DIB)所提出之「人工智慧國防運用倫理準則(AI Principles: Recommendations on the Ethical Use of Artificial Intelligence by the Department of Defense)」,以衡平倫理與人工智慧於國防帶來之增益。   美國國防創新委員會為美國聯邦政府下之獨立委員會,設置目的在於依美國新創科技,提供意見予美國國防部,與美國國防部並無隸屬關係。有鑑於人工智慧之運用範疇日益增廣,美國國防創新委員會遂提出旨揭「人工智慧國防運用倫理準則」,以因應人工智慧於國防之應用所產生之問題。   倫理準則適用於「戰爭或非戰爭用途之人工智慧之設計以及應用」,對於「人工智慧」之定義,倫理準認為人工智慧並無精確之範疇,只要「對於資訊有所處理並旨在達到所賦予任務之資訊系統」,皆為本準則下之人工智慧。倫理準則指出,「人工智慧」與美國國防部3000.09指令下之「自動化武器系統(Autonomous Weapon System)」之定義不同,但有可能重疊,而所謂「自動化武器系統」為「一經人類選擇啟動,即可在無人類監督之情形下,自動針對目標進行鎖定或進行攻擊之自動化武器系統」。   美國國防創新委員會表示,該準則旨在切合美國既有憲法、法律、國際公約之傳統標準下,融入現代化對於人工智慧之要求,如國際公約中之戰爭法(Law of War)即為本準則之傳統標準之一,舉例而言,如人工智慧被裝置於武器中,其設計及應用應符合最小傷亡原則、避免傷及無辜原則等。   除此之外,準則亦包含以下現代化對於人工智慧之要求:(1)人類對於人工智慧系統之設計、應用以及使用應善盡判斷以及注意義務,且人類應該對於人工智慧系統因瑕疵所帶來之傷害負擔最終責任;(2)對於目標之選擇或分類,應維持公平性,且不得有歧視性;(3)對於人工智慧之設計、應用以及使用,應有明確之工程標準以及資料保存程序,此一工程標準以及資料保存程序應為一般具有專業知識之工程人員可據以理解、分析、追蹤問題所在並加以改善;(4)「戰爭或非戰爭用途之人工智慧」應有明確之應用領域,且完善之檢測、維修,應適用於該人工智慧之全部生命週期。

TOP