2016年中國大陸知識產權保護措施發展研析

2016年中國大陸知識產權保護措施發展研析

資策會科技法律研究所
法律研究員 王凱嵐
105年11月28日

一、 前言

  中國大陸為提升知識產權保護、運用、流通,於2009年開始,由其國家知識產權局每年推出知識產權戰略實施推進計畫,確立年度執行目標。根據WIPO[1]於2015年所公布的年度《世界智慧財產權指標》報告,內容中提到中國大陸在專利、商標、工業品外觀設計等智慧財產權領域的申請量均位居世界第一。顯示中國大陸在知識產權上之發展,不僅制度與環境不斷成長進步,其知識產權[2]之國際地位亦快速提升。
中國大陸2016年的知識產權推進計畫[3]持續在「嚴格保護知識產權」、「加強知識產權創造運用」、「深化知識產權領域改革」、「加大知識產權對外合作交流」、「確實知識產權發展基礎」及「加強組織實施和保障」六大面向提出政策措施。其中許多政策措施皆與保護知識產權有關,顯見中國大陸認為創造友善環境及建立保障機制為其發展知識產權並提高產值的重要基盤,因此本文擬就其中有關知識產權保護之措施進行重點說明。

二、 知識產權保護政策重點

1. 提高侵權法定賠償

  由於知識產權侵權案件中,權利被侵害之一方舉證困難,且過去案例賠償金額偏低,無法有效嚇阻侵權行為之發生,故在知識產權保護法治化上,加強侵權行為懲治力度被中國大陸視為必要手段。除加大侵權人之侵權行為懲治力度,提高侵權法定賠償上限外,並針對情節嚴重的惡意侵權行為實施懲罰性賠償。

  過去中國大陸之專利、商標訴訟案件,權利人獲得之賠償金額整體偏低,因此間接助長違法之侵權行為。因此,早在2013年已先將商標侵權的法定賠償額由50萬元提高到300萬元,使法院在審判上有更大的裁量空間,較能達到嚇阻侵權之效果,故「提高法定賠償上限」將成為中國大陸相關知識產權立法之趨勢。

2. 強化職務發明權益保護

  為加強知識產權保護,營造良好市場環境,現行中國大陸「專利法」、「著作權法」已建立職務發明之基本制度,惟在實踐上仍存有問題(如:時常發生申請案發明人為公司代表人)[4]。因此,中國大陸國家知識產權局(SIPO)於2014年3月提出「職務發明草案」[5](送審稿),內容對於發明創新的勞動者與資方間,於產出過程中所可能發生的法律議題及關係,以法律加以規範。

  草案基於權利義務平衡及約定優先原則,勞資雙方得事先對於職務發明的報酬與權利歸屬等相關細節討論約定,而在當發生無法解決的狀況時(例如無契約約定或協議),始引用本職務發明條例之規定。草案規定公司若選擇透過技術祕密保護時,發明人可以請求補償;若是申請知識產權,發明人可以請求獎勵和報酬。在權利申請過程中,若公司放棄,則應先事先通知發明人,發明人可以與公司協商,並以發明人自身名義取得申請權或是其他權利。

  關於最低保障原則,為避免資方不與勞方協議職務發明的歸屬約定狀況發生,草案中也明確訂定了最低的保障門檻,給予職務發明員工基本主張權利,讓資方不得忽視發明人在職務發明中的權利。當雙方未約定相關獎勵與報酬時,草案中規定以「月平均工資」為最低的計算標準,同時制訂四種報酬的計算方式,以供勞資雙方在爭議產生時,可以作為依循的準則。

3. 提升訴訟審判精準度

  過去司法判決常有標準不一之疑慮,造成專利判決之不確定性,因此在2016年計畫中要求地方知識產權法院總結審判實踐經驗,發布司法解釋並統一司法裁量,確保法律正確適用和有效保護知識產權之規範依據。在專利侵權判定標準上,確立專利權保護之範圍,避免壓縮創新空間、損害創新能力及公共利益。

  在審判制度上,建立司法鑒定、專家證人、技術調查等訴訟制度,鼓勵法律在專利等相關技術案件審判中,妥善利用陪審員、專家證人、專家諮詢、技術鑒定之功能,透過多種途徑和管道,有效解決專業技術事實認定之問題。有條件的發展更有效之調查方式及具體作法,使知識產權之審判能不斷提升準確度[6]

三、 結論

  中國大陸在「十三五」[7]時期樹立新的發展理念,擬藉由深化知識產權重點領域改革,加速建設知識產權強國與推動經濟轉型升級。從討論司法制度之大方向,到提高侵權賠償之上限額度等具體規範上,皆可觀察出中國大在整體知識產權保護規劃,是以有系統及縝密的分類交由不同單位部門執行,這足以顯現中國大陸對於知識產權發展其保護之重要性。

  智慧財產權在產業研發與升級扮演關鍵核心的角色,因此我國於2012年由行政院核定「智財戰略綱領」,明確指出智財相關規劃發展項目(如管理、運用、人才培育)。然而侵權訴訟賠償金額偏低、專利無效率偏高、職務發明激勵不足,仍亦為尚待解決之議題。當前我國面臨經濟轉型與產業升級的問題,在保護面更應縝密思考如何透過法令強化職務發明人的權益保障,藉此提升其研發創造意願;改善所有人的訴訟勝訴率,提升權利持有的效益,讓智財成為我國經濟發展之強大動力。



[1]世界智慧財產權組織。

[2]「知識產權」為中國大陸用語,我國稱「智慧財產權」。

[3]計劃全名為《2016年深入實施國家知識產權戰略加快建設知識產權強國推進計畫》。

[4]北美智權,<中國大陸職務發明條例草案>,2013/01/03,http://www.naipo.com/portals/1/web_tw/Knowledge_Center/Laws/CN-50.htm (最後瀏覽日:2016/10/26)

[5]中國大陸國家知識產權局,<職務發明條例制定>,2016/04/24,http://www.sipo.gov.cn/ztzl/ywzt/zlfjqssxzdscxg/xylzlfxg/201504/t20150424_1107558.html (最後瀏覽日:2016/10/12)

[6]中國最高人民法院,<最高人民法院關於貫徹實施國家知識產權戰略若干問題的意見>,2010/04/14,http://zscq.court.gov.cn/znss/201004/t20100414_4107.html (最後瀏覽日:2016/09/20)

[7]全稱是『中華人民共和國國民經濟和社會發展第十三個五年規劃綱要』,由習近平定調,也是中國大陸國家層級整體經濟與社會發展規劃之第十三個五年規劃(英文為five-year plan),規劃期間是從2016年至2020年。

你可能會想參加
※ 2016年中國大陸知識產權保護措施發展研析, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw//article-detail.aspx?d=7677&no=67&tp=1 (最後瀏覽日:2026/01/19)
引註此篇文章
你可能還會想看
歐盟發布新人工智慧規範,以風險程度判斷防止科技濫用

  歐盟執委會於2021年4月21日提出「人工智慧規則」(AI regulation)草案,成為第一個結合人工智慧法律架構及「歐盟人工智慧協調計畫」(Coordinated Plan on AI)的法律規範。規範主要係延續其2020年提出的「人工智慧白皮書」(White Paper on Artificial Intelligence)及「歐盟資料策略」(European Data Strategy),達到為避免人工智慧科技對人民基本權產生侵害,而提出此保護規範。   「人工智慧規則」也依原白皮書中所設的風險程度判斷法(risk-based approach)為標準,將科技運用依風險程度區分為:不可被接受風險(Unacceptable risk)、高風險(High-risk)、有限風險(Limited risk)及最小風險(Minimal risk)。   「不可被接受的風險」中全面禁止科技運用在任何違反歐盟價值及基本人權,或對歐盟人民有造成明顯隱私風險侵害上。如政府對人民進行「社會評分」制度或鼓勵兒童為危險行為的語音系統玩具等都屬於其範疇。   在「高風險」運用上,除了作為安全設備的系統及附件中所提出型態外,另將所有的「遠端生物辨識系統」(remote biometric identification systems)列入其中。規定原則上禁止執法機構於公眾場合使用相關的生物辨識系統,例外僅在有目的必要性時,才得使用,像尋找失蹤兒童、防止恐怖攻擊等。   而在為資料蒐集行為時,除對蒐集、分析行為有告知義務外,也應告知系統資料的準確性、安全性等,要求高度透明化(Transparency obligations)。不只是前述的不可被接受風險及高風險適用外,有限風險運用中的人工智慧聊天系統也需要在實際和系統互動前有充足的告知行為,以確保資料主體對資料蒐集及利用之情事有充足的認知。   在此新人工智慧規範中仍有許多部份需要加強與討論,但仍期望在2022年能發展到生效階段,以對人工智慧科技的應用多一層保障。

歐盟如何打擊「非現金支付」詐欺?

  有鑑於「非現金支付」(non-cash payment)──包含信用卡、電子錢包、行動支付和虛擬貨幣──之詐欺犯罪率有增加之趨勢,歐洲議會公民、司法與內政委員會 (Committee on Civil Liberties, Justice and Home Affairs)於2018年9月3日批准一修正草案,更新2001年通過之理事會框架決定(Council Framework Decision)2001/413/JHA,提高非現金支付詐欺之刑責,同時強化被害人保護。此一修正草案旨在消弭歐盟成員國間之法律落差,以強化對非現金支付詐欺之預防、偵查及懲罰。   此一草案最重要者為將虛擬貨幣交易納入犯罪之構成要件,並提高刑責。如法官認定犯罪情節該當國內非現金支付詐欺最重之罪,則最低應處以三至五年之有期徒刑。而其他新增及修正之內容包含: 改善歐盟區域內之合作,以利跨境詐欺之訴追。 強化對犯罪被害人之援助,如心理支持、財務及法律問題之諮詢,並對缺乏足夠資源者提供免費法律扶助。 透過宣導、教育與網路資源(如詐欺之實際案例)提供,提升民眾認知及預防之意識。   於委員會投票批准修正草案後,其後將待歐洲議會通過,並與歐盟理事會開啟非正式對談。

日本人工智慧(AI)發展與著作權法制互動課題之探討

  日本著作權法第2條第1項第1款規定對著作物定義中,創作性之表現必須為具有個人個性之表現,日本對於無人類行為參與之人工智慧創作物,多數意見認定此種產品無個性之表現,非現行著作權法所保護之產物。人工智慧之侵權行為在現行法的解釋上,難以將人工智慧解釋其本身具有「法人格」,有關人工智慧「締結契約」之效力為「人工智慧利用人」與「契約相對人」間發生契約之法律效果。日本政府及學者對人工智慧之探討,一般會以人工智慧學習用資料、建立資料庫人工智慧程式、人工智慧訓練/學習完成模型、人工智慧產品四個區塊加以探討。日本政策上放寬著作權之限制,使得著作物利用者可以更加靈活運用。為促進著作之流通,在未知著作權人之情況下,可利用仲裁系統。在現今資訊技術快速成長的時代,面對人工智慧的浪潮,日本亦陸續推出相關人工智慧研發等方針及規範,對於爾後之發展值得參酌借鏡。

世界衛生組織發布人工智慧於健康領域之監管考量因素文件,期能協助各國有效監管健康領域之人工智慧

世界衛生組織(World Health Organization, WHO)於2023年10月19日發布「人工智慧於健康領域之監管考量因素」(Regulatory considerations on artificial intelligence for health)文件,旨在協助各國有效監管健康領域之人工智慧,發揮其潛力同時最大限度地降低風險。本文件以下列六個領域概述健康人工智慧之監管考量因素: (1)文件化與透明度(Documentation and transparency) 開發者應預先規範(pre-specifying)以及明確記錄人工智慧系統(以下簡稱AI系統)之預期醫療目的與開發過程,如AI系統所欲解決之問題,以及資料集之選擇與利用、參考標準、參數、指標、於各開發階段與原始計畫之偏離及更新等事項,並建議以基於風險之方法(Risk-based approach),根據重要性之比例決定文件化之程度、以及AI系統之開發與確效紀錄之保持。 (2)風險管理與AI系統開發生命週期方法(Risk management and AI systems development lifecycle approaches) 開發者應在AI系統生命之所有階段,考慮整體產品生命週期方法(total product lifecycle approach),包括上市前開發管理、上市後監督與變更管理。此外,須考慮採用風險管理方法(risk management approach)來解決與AI系統相關之風險,如網路安全威脅與漏洞(vulnerabilities)、擬合不足(underfitting)、演算法偏差等。 (3)預期用途、分析及臨床確效(Intended use, and analytical and clinical validation) 開發者應考慮提供AI系統預期用途之透明化紀錄,將用於建構AI系統之訓練資料集組成(training dataset composition)之詳細資訊(包括大小、設定與族群、輸入與輸出資料及人口組成等)提供給使用者。此外,可考慮透過一獨立資料集(independent dataset)之外部分析確效(external analytical validation),展示訓練與測試資料以外之效能,並考慮將風險作為臨床確效之分級要求。最後,於AI系統之上市後監督與市場監督階段,可考慮進行一段期間密集之部署後監督(post-deployment monitoring)。 (4)資料品質(Data quality) 開發者應確認可用資料(available data)之品質,是否已足以支援AI系統之開發,且開發者應對AI系統進行嚴格之預發布評估(pre-release evaluations),以確保其不會放大訓練資料、演算法或系統設計其他元素中之偏差與錯誤等問題,且利害關係人還應考慮減輕與健康照護資料有關之品質問題與風險,並繼續努力創建資料生態系統,以促進優質資料來源之共享。 (5)隱私與資料保護(Privacy and data protection) 開發者於AI系統之設計與部署過程中,應考慮隱私與資料保護問題,並留意不同法規之適用範圍及差異,且於開發過程之早期,開發者即應充分瞭解適用之資料保護法規與隱私法規,並應確保開發過程符合或超過相關法規要求。 (6)參與及協作(Engagement and collaboration) 開發者於制定人工智慧創新與部署路線圖之期間,需考慮開發可近用且具有充足資訊之平台,以於適合與適當情況下促進利害關係人間之參與及協作;為加速人工智慧領域實務作法之進化,透過參與及協作來簡化人工智慧監管之監督流程即有必要。

TOP