因應國際立法趨勢 專利法相關制度擬大幅度鬆綁

智慧局現正積極研修專利法,其中最為重要者包括:
• 
配合國際公共衛生議題,放寬強制授權條件;
• 
修正研究實驗免責相關規定;
• 
配合司法院智慧財產專業法院之成立,研擬設置爭議審議組;
• 
新型專利整體制度改革,考量原則開放「同一人」對於同一技術可「同時」申請,以利企業作專利佈局;
• 
大幅修正新式樣專利制度,開放多種新式樣保護標的,擴大新式樣專利保護範圍,以期帶動台灣文化創意及工業設計產業發展。


  由於專利法這次修正為通盤修正,故智慧局刻正召開多場公聽會,參考各界意見及參酌國際立法趨勢為整體思考,以期建立更完善之專利制度。其中,針對新型專利制度之整體政策、專利年費逾越繳納期限產生失權後之救濟制度、以及以外文本提出申請取得申請日等三項議題,智財局已於
7 18 召開公聽會,聽取各界意見,尋求共識。


  在新型專利整體制度改革部分,智慧局擬考量原則開放「同一人」對於同一技術可「同時」申請,以提供更多權益保障,以利企業作專利佈局。因此,企業一方面可取新型形式審查之便利領證,一方面也可取發明專利實體審查權利較穩定,而且二者前後接續。



  有關專利權人逾越年費繳納期限產生專利權消滅後之救濟制度,依現行
專利法第82條 規定,發明專利第二年以後之年費,未於應繳納專利年費之期間內繳費者,得於期滿六個月內補繳之,但其年費應按規定之年費加倍繳納。根據前開規定,專利權人超過年費繳納期限,得於到期後六個月內加倍補繳年費,但專利權人超過一日與超過五個月,同樣都須加倍補繳,二者顯然有所失衡,因此,這次修法預備採取比率加繳制度,也就是說,依照超過的期限多寡,比率補繳,並非一率加倍補繳。


  另外,超過六個月補繳期後,依照現行
專利法第66條第3款 規定,專利權當然消滅,只有在專利權人超過期限未繳年費是因具有不可抗力事由時,才能依 專利法第17條第2項 申請回復原狀,但是,一些專利權人超過繳費期限,並非因為具有不可抗力事由,而是具有正當理由,若因此而喪失專利權,顯非專利法保護專利權人之意旨,故此次修正亦放寬申請回復原狀之事由,以保障專利權人之權益。


  針對外文本提出申請取得申請日部分,現行
專利法第25條第4項 規定,專利申請案允許申請人先以外文說明書提出申請,嗣後再補中文說明書,而專利法對於外文說明書之語文種類並無任何限制,以致外文本種類繁多,是否與中文譯本相符,認定上有困難。智慧局這次修正,研擬作適當限制,但是與會人員有不同意見,智慧局將再通盤考量。

本文為「經濟部產業技術司科技專案成果」

相關連結
※ 因應國際立法趨勢 專利法相關制度擬大幅度鬆綁, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=600&no=57&tp=1 (最後瀏覽日:2026/05/08)
引註此篇文章
你可能還會想看
企業監看員工網路活動法律爭議之防堵

南韓個資保護委員會發布人工智慧(AI)開發與服務處理公開個人資料指引

南韓個資保護委員會(Personal Information Protection Commission, PIPC)於2024年7月18日發布《人工智慧(AI)開發與服務處理公開個人資料指引》(인공지능(AI) 개발·서비스를 위한 공개된 개인정보 처리 안내서)(以下簡稱指引)。該指引針對AI開發與服務處理的公開個人資料(下稱個資)制定了新的處理標準,以確保這些資料在法律上合規,且在使用過程中有效保護用戶隱私。 在AI開發及服務的過程中,會使用大量從網路上收集的公開資料,這些公開資料可能包含地址、唯一識別資訊(unique identifiable information, UII)、信用卡號等個資。這些公開的個資是指任意人可藉由網路抓取技術自公開來源合法存取的個資,內容不限於個資主體自行公開的資料,還包括法律規定公開的個資、出版物和廣播媒體中包含的個資等。由於公開資料眾多,在現實中很難在處理這些公開個資以進行AI訓練之前,取得每個個資主體的單獨同意及授權,同時,南韓對於處理這些公開個資的現行法律基礎並不明確。 為解決上述問題,PIPC制定了該指引,確認了蒐集及利用公開個資的法律基礎,並為AI開發者和服務提供者提供適用的安全措施,進而最小化隱私問題及消除法律不確定性。此外,在指引的制定過程中,PIPC更參考歐盟、美國和其他主要國家的做法,期以建立在全球趨勢下可國際互通的標準。 指引的核心內容主要可分為三大部分,第一部分:應用正當利益概念;第二部分:建議的安全措施及保障個資主體權利的方法;及第三部分:促進開發AI產品或服務的企業,在開發及使用AI技術時,注意可信任性。 針對第一部分,指引中指出,只有在符合個人資料保護法(Personal Information Protection Act, PIPA)的目的(第1條)、原則(第3條)及個資主體權利(第4條)規定範圍內,並滿足正當利益條款(第15條)的合法基礎下,才允許蒐集和使用公開個資,並且需滿足以下三個要求:1.目的正當性:確保資料處理者有正當的理由處理個資,例如開發AI模型以支持醫療診斷或進行信用評級等。2.資料處理的必要性:確保所蒐集和利用的公開資料是必要且適當的。3.相關利益評估:確保資料處理者的正當利益明顯超越個資主體的權利,並採取措施保障個資主體的權利不被侵犯。 而第二部分則可區分為技術防護措施、管理和組織防護措施及尊重個資主體權利規定,其中,技術防護措施包括:檢查訓練資料來源、預防個資洩露(例如刪除或去識別化)、安全存儲及管理個資等;管理和組織防護措施包括:制定蒐集和使用訓練資料的標準,進行隱私衝擊影響評估(PIA),運營AI隱私紅隊等;尊重個資主體權利規定包括:將公開資料蒐集情形及主要來源納入隱私政策,保障個資主體的權利。 最後,在第三部分中,指引建議AI企業組建專門的AI隱私團隊,並培養隱私長(Chief Privacy Officers, CPOs)來評估指引中的要求。此外,指引亦呼籲企業定期監控技術重大變化及資料外洩風險,並制定及實施補救措施。 該指引後續將根據PIPA法規修訂、AI技術發展及國際規範動向持續更新,並透過事前適當性審查制、監管沙盒等途徑與AI企業持續溝通,並密切關注技術進步及市場情況,進而推動PIPA的現代化。

司法改革的一小步,替代性紛爭解決機制的一大步-談日本「ADR 利用促進法

OECD啟動全球首創的《開發先進人工智慧系統組織的報告框架》

2025年2月7日,經濟合作暨發展組織(Organization for Economic Cooperation and Development,OECD)正式啟動《開發先進人工智慧系統組織的報告框架》(Reporting Framework for the Hiroshima Process International Code of Conduct for Organizations Developing Advanced AI Systems,簡稱G7AI風險報告框架)。 該框架之目的是具體落實《廣島進程國際行為準則》(Hiroshima Process International Code of Conduct)的11項行動,促進開發先進人工智慧系統(Advanced AI Systems)的組織建立透明度和問責制。該框架為組織提供標準化方法,使其能夠證明自身符合《廣島進程國際行為準則》的行動,並首次讓組織可以提供有關其人工智慧風險管理實踐、風險評估、事件報告等資訊。對於從事先進人工智慧開發的企業與組織而言,該框架將成為未來風險管理、透明度揭露與國際合規的重要依據。 G7 AI風險報告框架設計,對應《廣島進程國際行為準則》的11項行動,提出七個核心關注面向,具體說明組織於AI系統開發、部署與治理過程中應採取之措施: 1. 組織如何進行AI風險識別與評估; 2. 組織如何進行AI風險管理與資訊安全; 3. 組織如何進行先進AI系統的透明度報告; 4. 組織如何將AI風險管理納入治理框架; 5. 組織如何進行內容驗證與來源追溯機制; 6. 組織如何投資、研究AI安全與如何降低AI社會風險; 7. 組織如何促進AI對人類與全球的利益。 為協助G7推動《廣島進程國際行為準則》,OECD建構G7「AI風險報告框架」網路平台,鼓勵開發先進人工智慧的組織與企業於2025年4月15日前提交首份人工智慧風險報告至該平台(https://transparency.oecd.ai/),目前已有包含OpenAI等超過15家國際企業提交報告。OECD亦呼籲企業與組織每年定期更新報告,以提升全球利益相關者之間的透明度與合作。 目前雖屬自願性報告,然考量到國際監理機關對生成式AI及高風險AI 系統透明度、可問責性(Accountability)的日益關注,G7 AI風險報告框架內容可能成為未來立法與監管的參考作法之一。建議企業組織持續觀測國際AI治理政策變化,預做合規準備。

TOP