日本經產省提出創新政策落實方向

由於日本近年研發品質、數量停滯不前,加上企業研發效率亦落後於外國,經濟產業省(簡稱經產省)於2024年6月21日從三個面向提出政策建議,期能打造成功創新模式。重點如下:

1.發揮新創企業與大企業優勢,促進研發投資
由於研發投資具有回收期間長、獲利不確定等特徵,短時內難以看到成效,故為鼓勵企業持續投入研發,經產省擬制定研發投資效率評價指標,並將透過「新創培育五年計畫」(「スタートアップ育成5カ年計画)下之「新創推動框架」(スタートアップ推進枠),將科研預算優先分配予重點項目,以建立友善研發環境。

2.透過新創資源流動,促進商業化和創造附加價值
新創企業初期往往受限於人力、技術和設備等資源不足問題,難以快速成長及擴張。為解決上述問題,經產省擬制定「跨領域學習」指引及案例集,期能促進新創資源流動,打造創新生態系統。

3.以需求為導向之前瞻技術研發
部份具有高度發展潛力之前瞻技術,如量子和核融合等,因研發風險較高且市場需求不明,將由新能源‧產業技術綜合開發機構(新エネルギー・産業技術総合開発機構)、產業技術綜合研究所(產業技術綜合研究所)等法人進行研發。

本文為「經濟部產業技術司科技專案成果」

相關連結
你可能會想參加
※ 日本經產省提出創新政策落實方向, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=9208&no=67&tp=1 (最後瀏覽日:2026/02/17)
引註此篇文章
你可能還會想看
智慧財產權侵權風險分擔機制-歐盟專利訴訟保險制度

美國聯邦巡迴上訴法院就Myriad案判決人體基因具可專利性

  2011年7月29日美國聯邦巡迴上訴法院針對Myriad Genetics公司之單離去氧核糖核酸(isolated DNA)專利無效上訴案作出判決,認定人體基因具有可專利性。   本案緣起於Myriad Genetics公司利用單離DNA BRCA1及BRCA2兩項基因,發展出一套乳癌風險檢測技術,並成功取得7項專利。未料2009年時,美國公民自由聯盟(American Civil Liberties Union,ACLU)及美國公共專利基金會(Public Patent Foundation,PUBPAT)以「授予單離DNA專利權係違反專利法第101條規定」為由,向紐約南區聯邦地方法院提起確認專利無效之訴,並獲致勝訴判決後,全案便上訴至聯邦巡迴法院。   美國專利法第101條(35 U.S.C §101)雖規定:「任何人發明或發現新而有用的方法、設備、製品或物之組合,或新而有用的改良,皆可依本法所定條件取得專利。」但標的若屬自然產物(product of nature)者,則不應授予專利。因此,本案關鍵問題在於:單離DNA是否屬於自然產物?   針對此一問題,巡迴法院以1887年聯邦最高法院於Hartranft v. Wiegmann案中所闡明的「人為介入(human intervention)是否已賦予發明物與自然產物明顯不同的特質」原則為判斷標準,認定單離DNA雖取自於原生DNA(native DNA),但其經化學處理後可釋放出特定分子,已與人體內之原生DNA有顯著不同,故具有可專利性。此外,法院更指出,美國專利局(The US Patent and Trademark Office,USPTO)自80年代迄今已釋出40,000件以上與DNA分子相關之專利,其中有20%為人類基因,此種長年行政慣例即便有誤,亦應由國會加以變更,而非法院。   本案受矚目之處,在於Myriad公司上訴時,美國司法部即透過法庭之友建議書(friend of the court briefs),向巡迴法院表明其否認人類基因具有可專利性的立場,因此本案判決結果等同於對司法部見解之否決。美國生技業者則認為單離基因專利(isolated gene patent)是生技產業的基石,此判決結果符合專利局一貫的專利政策,而此政策正是過去催生美國生技產業的推手;惟外界預料本案極可能再上訴至聯邦最高法院,屆時將對美國生技產業造成何種影響,值得持續觀察。

新加坡網路安全局發布人工智慧系統安全指南,以降低AI系統潛在風險

新加坡網路安全局(Cyber Security Agency of Singapore, CSA)於2024年10月15日發布人工智慧系統安全指南(Guidelines on Securing AI Systems),旨在強化AI系統安全,協助組織以安全之方式運用AI,降低潛在風險。 該指南將AI系統生命週期分成五個關鍵階段,分別針對各階段的安全風險,提出相關防範措施: (1)規劃與設計:提高AI安全風險認知能力,進行安全風險評估。 (2)開發:提升訓練資料、模型、應用程式介面與軟體庫之供應安全,確保供應商遵守安全政策與國際標準或進行風險管理;並辨識、追蹤及保護AI相關資產(例如模型、資料、輸入指令),以確保AI開發環境安全。 (3)部署:適用標準安全措施(例如存取控制、日誌記錄),並建立事件管理程序。 (4)運作與維護:持續監控AI系統的輸入和輸出,偵測異常與潛在攻擊,並建立漏洞揭露流程。 (5)壽命終期:應根據相關行業標準或法規,對資料與模型進行適當之處理、銷毀,防止未經授權之存取。 CSA期待該指南發布後,將有助於預防供應鏈攻擊(supply chain attacks)、對抗式機器學習攻擊(Adversarial Machine Learning attacks)等安全風險,確保AI系統的整體安全與穩定運行。

英國因劍橋分析個資外洩事件開罰臉書

  英國資訊專員辦公室(Information Commissioner’s Office, ICO)於2018年10月24日公告針對臉書公司(Facebook Ireland Ltd. & Facebook Inc.)之劍橋分析(Cambridge Analytica)個資外洩事件,依據英國資料保護法(Data Protection Act 1998)第55A條之規範,裁罰臉書公司50萬英鎊之罰鍰。   自2018年3月劍橋分析違法取得與使用臉書個資事件爆發以來,估計約有8700萬筆臉書上的個人資料遭到違法使用,引起全球對於網路個資保護的重視。在遭到違法取得與使用的個資當中,也包含了歐盟以及英國臉書使用者的個資,因此英國ICO有權對此事件展開調查並對臉書公司進行裁罰。   根據英國ICO的調查,自2007年至2014年間,臉書公司對於其平台上的個資處理(processed)有所不當,違反資料保護法之資料保護原則(Data Protection Principle,DPP),包含未適當處理個人資料(DPP1),以及未採取足夠的技術與作為防止未經授權或違法使用個資(DPP7),致使劍橋分析得以透過臉書公司提供之API違法取用臉書使用者個資。   由於劍橋分析事件發生時,歐盟GDPR(General Data Protection Regulation)尚未正式上路,因此英國ICO依據事件發生時之法律,亦即基於歐盟資料保護指令(Directive 95/46/EC)所訂定之英國資料保護法,裁處臉書公司50萬英鎊的罰款;若依據基於GDPR之新版英國資料保護法(Data Protection Act 2018),臉書公司將可被裁處最高1700萬英鎊或年度全球營業額4%之罰款。

TOP