93年國人申請發明專利數量大幅成長28.39﹪ 創新研發成果明顯躍進

 

 

  93年專利申請統計資料顯示我國受理專利申請案總數、發明申請案數量、及國人發明申請案等指標,均呈現相當幅度成長,顯示我國過去幾年官方與民間投資創新研發成果有明顯成長。


   93年專利、商標申請與核准統計出爐,全年專利新申請案件總數72,105件,較92年的65,742 件增加6,363件(9.68﹪),本國人申請案43,038件,外國人29,067件。其中屬技術強度較高的發明申請案件總數計41,930件,較前一年增加6,107件(17.05﹪);本國人發明申請案16,754件,較前一年大幅增加3,705件(28.39﹪),顯示我國產業研發技術成果有向上提昇的趨勢。93年專利發證數66,415件,比92年大幅增加24,333件(57.82﹪),此係因93年7月專利法修正實施,新型專利改採形式審查,縮短專利審查時程,及專利廢除異議制度改採繳費後公告同時發證的制度轉換短期影響。


   93年商標申請案依類別統計為72,650件,比92年申請案件數65,907件,增加6,743件(10.23﹪),;93年商標公告註冊案計54,912件,較前一年74,572件減少19,660件(-26.36﹪);依類別計55,986件,均較前一年減少。不論是在申請或公告註冊數都是以本國人佔絕大多數。商標申請於92年底開始實施一申請案多類別制度,不同類別毋需另提出一獨立申請案,因此依類別統計數會比申請案件數多。

 

本文為「經濟部產業技術司科技專案成果」

※ 93年國人申請發明專利數量大幅成長28.39﹪ 創新研發成果明顯躍進, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=277&no=55&tp=1 (最後瀏覽日:2026/04/28)
引註此篇文章
你可能還會想看
法國CNIL發布針對應用程式的隱私保護建議

在民眾越來越依賴行動裝置的應用程式進行日常活動的年代,諸如通訊、導航、購物、娛樂、健康監測等,往往要求訪問更廣泛的資料和權限,使得應用程式相較於網頁,在資料安全與隱私風險上影響較高。對此,法國國家資訊自由委員會(Commission Nationale de l'Informatique et des Libertés, CNIL)於2024年9月發布針對應用程式隱私保護建議的最終版本,目的為協助專業人士設計符合隱私友好(privacy-friendly)的應用程式。該建議的對象包含行動裝置應用程式發行者(Mobile application publishers)、應用程式開發者(Mobile application developers)、SDK供應商(Software development kit, SDK)、作業系統供應商(Operating system providers)和應用程式商店供應商(Application store providers),亦即所有行動裝置生態系中的利害關係者。以下列出建議中的幾項重要內容: 1. 劃分利害關係者於手機生態系中的角色與責任 該建議明確地將利害關係者間作出責任劃分,並提供如何管理利害關係者間合作的實用建議。 2. 改善資料使用許可權的資訊提供 該建議指出,應確保使用者瞭解應用程式所請求的許可權是運行所必需的,並且對資料使用許可的資訊,應以清晰及易於獲取的方式於適當的時機提供。 3. 確保使用者並非受強迫同意 該建議指出,使用者得拒絕並撤回同意,且拒絕或撤回同意應像給予同意一樣簡單。並再度強調應用程式僅能在取得使用者知情同意後,才能處理非必要資料,例如作為廣告目的利用。 此建議公布後,CNIL將持續透過線上研討會提供業者支援,協助其理解和落實這些建議。同時,CNIL表示預計於2025年春季起,將對市面上應用程式實行特別調查,透過行政執法確保業者遵守相關隱私規範,尤其未來在處理後續任何投訴或展開調查時,會將此建議納入考慮,且會在必要時採取糾正措施,以有效保護應用程式使用者的隱私。 .Pindent{text-indent: 2em;} .Noindent{margin-left: 2em;} .NoPindent{text-indent: 2em; margin-left: 2em;} .No2indent{margin-left: 3em;} .No2Pindent{text-indent: 2em; margin-left: 3em} .No3indent{margin-left: 4em;} .No3Pindent{text-indent: 2em; margin-left: 4em} .Psrc{text-align: center;}

實現綠色工業 政府推動PC業G計畫

  將於 2006年中實行之歐洲環保指令,規定輸入歐盟的電子產品材料、及其後續回收等作業流程,皆須符合廢電子電機設備(Waste Electronics and Electrical Equipment,WEEE)以及有毒物質禁制令(Restriction of Hazardous Substances,ROHS)兩大法規。為此,經濟部於27日宣布啟動「寰淨計畫(G計畫)」,將結合系統廠商、檢測驗證機構、資訊服務業者等單位,以系統廠商帶動下游供應商的方式,加速國內電腦廠商推出符合環保規範的產品,目前所知包括華碩、神達、大眾等電腦廠商,都已經投入了此計畫。   本次所涉廢電子電機設備 (WEEE) 法規,是關於廢棄電子、電機產品的回收再利用,規定自2005年8月13日後所生產的產品需由生產者進行回收,範圍含括家用設備、資訊通訊設備、玩具休閒與運動設備、醫療裝置等產品。   另一則是有毒物質禁制令 (ROHS),其明列自2006年7月後,製程、設備及材料處理研發禁止使用6種有毒物質,如鉛、汞、鎘等,內含六項管制物質的產品將不可在市面流通,屆時輸歐的電子、電機產品皆必須符合該標準。   另針對回收問題,經濟部表示將輔導國內廠商建立綠色產品回收體系及回收管理平台之示範系統,並在日後將 G計畫推廣對象擴及產險公司,以協助業者因應違反歐盟規範所生之求償索賠,並建立風險控管機制。

英國發布人工智慧網路資安實務守則

英國政府於2025年1月31日發布「人工智慧網路資安實務守則」(Code of Practice for the Cyber Security of AI,以下簡稱「實務守則」),目的是提供人工智慧(AI)系統的網路資安指引。該實務守則為英國參考國際上主要標準、規範後所訂定之自願性指引,以期降低人工智慧所面臨的網路資安風險,並促使人工智慧系統開發者與供應商落實基本的資安措施,以確保人工智慧系統的安性和可靠性。 由於人工智慧系統在功能與運作模式上與傳統網路架構及軟體有明顯的不同,因此產生新的資安風險,主要包含以下: 1. 資料投毒(Data Poisoning):在AI系統的訓練資料中蓄意加入有害或錯誤的資料,影響模型訓練結果,導致人工智慧系統產出錯誤推論或決策。 2. 模型混淆(Model Obfuscation):攻擊者有意識地隱藏或掩飾AI模型的內部運作特徵與行為,以增加系統漏洞、引發混亂或防礙資安管理,可能導致AI系統的安全性與穩定性受損。 3. 輸入間接指令(Indirect Prompt Injection):藉由輸入經精心設計的指令,使人工智慧系統的產出未預期、錯誤或是有害的結果。 為了提升實務守則可操作性,實務守則涵蓋了人工智慧生命週期的各階段,並針對相關角色提出指導。角色界定如下: 1. 人工智慧系統開發者(Developers):負責設計和建立人工智慧系統的個人或組織。 2. 人工智慧系統供應鏈(Supply chain):涵蓋人工智慧系統開發、部署、營運過程中的的所有相關個人和組織。 實務守則希望上述角色能夠參考以下資安原則,以確保人工智慧系統的安全性與可靠性: 1. 風險評估(Risk Assessment):識別、分析和減輕人工智慧系統安全性或功能的潛在威脅的過程。 2. 資料管理(Data management):確保AI系統整個資料生命週期中的資料安全及有效利用,並採取完善管理措施。 3. 模型安全(Model Security):在模型訓練、部署和使用階段,均應符合當時的技術安全標準。 4. 供應鏈安全(Supply chain security):確保AI系統供應鏈中所有利益相關方落實適當的安全措施。 「人工智慧網路資安實務守則」藉由清晰且全面的指導方針,期望各角色能有效落實AI系統安全管控,促進人工智慧技術在網路環境中的安全性與穩健發展。

日本發布以人為本AI社會原則

  日本內閣於2018年6月15日決議組成跨部會之統合創新戰略推進會議,並於2019年3月29日發布AI戰略,其中的倫理面向為以人為本之AI社會原則(下稱AI社會原則),希冀藉有效安全的活用AI,推動「AI-Ready 社會」,以實現兼顧經濟發展與解決社會課題的「Society5.0」為最終目標。   為構築妥善應用人工智慧的社會,AI社會原則主張應尊重之價值理念如下: (一) 尊重人類尊嚴的社會:AI應作為能激發人類發揮多樣能力和創造力的工具。 (二) 多元性和包容性的社會(Diversity & Inclusion):開發運用AI以共創多元幸福社會。 (三) 永續性的社會(Sustainability):透過AI強化科技,以創造能持續解決社會差距與環境問題的社會。   而AI社會原則核心內容為: (一) 以人為本:AI使用不得違反憲法或國際保障之基本人權。 (二) AI知識(literacy)教育:提供必要的教育機會。 (三) 保護隱私:個人資料的流通及應用應妥適處理。 (四) 安全確保:把握風險與利益間之平衡,從整體提高社會安全性。 (五) 公平競爭確保:防止AI資源過度集中。 (六) 公平性、說明責任及透明性任。 (七) 創新:人才與研究皆須國際多樣化,並且建構產官學研AI合作平台。

TOP