美國專利商標局(USPTO)與歐洲專利局(EPO)簽署協議,合作開發「以歐洲專利分類系統為基礎,並納入兩局分類實務特點」的共同分類系統:「合作專利分類」(Cooperative Patent Classification, CPC)系統,該系統為全球性的專利文件分類系統。USPTO與EPO為促進專利調合化,積極努力並共同合作建立CPC系統,該系統結合了兩局最好的分類作法,為專利技術文件建立一個共同且為國際間相容的分類系統,供專利審查使用。CPC於2013年1月1日宣布正式啟用,EPO開始使用CPC,不再使用歐洲專利分類(ECLA);2015年1月1日,USPTO正式宣告成功由美國專利分類(USPC)轉換至CPC。目前已有超過45個專利局與超過 25,000名審查人員使用CPC作為檢索工具,使CPC成為國際性的分類標準。
本文為「經濟部產業技術司科技專案成果」
美國聯邦貿易委員會(Federal Trade Commission, FTC)於2024年2月6日針對「介入權指引草案」(Draft Interagency Guidance Framework for Considering the Exercise of March-In Rights)提交意見書。介入權指引草案由美國國家標準技術研究院(National Institute of Standards and Technology, NIST)2023年12月8日公布於聯邦公報(Federal Register),旨在訂立政府機關發動《拜杜法》(Bayh-Dole Act)第203條「介入權」(March-in rights)之判斷流程與標準,以確保介入權發動具一致性。根據草案內容,當受政府補助之研發成果若經商業運用後被以「不合理價格」販售,而未滿足民眾健康與安全需求時,提供補助之政府機關應適時介入。 然而,介入權指引草案將「價格合理性」納入介入權發動要件,被美國各界質疑係為達成拜登政府打擊藥價之政策目的,亦即透過擴大、強化介入權之方式,將「受政府補助之專利藥」強制再授權專利,以降低藥品價格。 FTC於意見書中亦對此爭議提出看法,認為美國人民就處方藥須支付不斷上漲之昂貴價格,雖然賦予各機關審查「價格合理性」,將使得介入權發動更為廣泛且靈活,並得以監督藥品價格。惟擴大、強化介入權仍有隱患,尤其製藥公司恐為了保護其藥品專利,因此擴大申請專利權範圍導致專利叢林(patent thicket)現象產生,例如除將活性成分申請專利外,另將製程、劑型亦申請專利,此為未來各政府機關應該共同解決之問題。
歐盟科技策略新趨勢-生物經濟策略為引領歐盟各會員國邁向以生物發展為導向之經濟體時代,歐盟指委會(European Commission)乃於2012年2月13日通過歐盟永續生物經濟體策略計畫-Innovation for Sustainable Growth-a Bioeconomy for Europe,期待藉此引導歐盟邁想一個創新且低排放之永續發展經濟體。 隨著全球人口逐年增長,並預計於2050年邁向全球9億總人口數之關卡,但自然資源之相對有限,因此歐盟指委會認為歐盟經濟體需隨著時代變遷趨勢及早轉型,並且強化其發展永續性。為協助歐盟各會員國因應全球局勢變化,歐盟指委員進一步於其永續生物經濟體策略計畫中提出三大重點策略-1.強化創新,並發展新興科技,進而為生物經濟體做準備;2.建置並強化生物經濟體相關市場與競爭力;3.透過相關政策之研擬,加強立法者與產業間之聯結性。而除了透過前述之三大重點策略以做為發展生物經濟體之基礎外,歐盟指委會亦希望能藉由歐盟Horizon 2020計畫下之各相關配套措施,以及各項研發經費之投注,進行各項生物和綠色科技,如能源、奈米科技、和資通訊技術(ICT)等相關領域之創新研發,進而導引歐盟經濟體邁向一個全新永續新境界。 目前歐盟會員國如丹麥、芬蘭、德國、愛爾蘭、和荷蘭皆已提出相關生物經濟體策略,而國際間如加拿大、中國、美國、和南非對此議題,亦位處於發展中或是已發展階段。以生物科技為主之知識經濟發展導向乃為當前全球經濟發展趨勢,如何連結科技研發創新,進而發展永續經濟,實為一值得關注與思考之問題。
英國發布人工智慧網路資安實務守則英國政府於2025年1月31日發布「人工智慧網路資安實務守則」(Code of Practice for the Cyber Security of AI,以下簡稱「實務守則」),目的是提供人工智慧(AI)系統的網路資安指引。該實務守則為英國參考國際上主要標準、規範後所訂定之自願性指引,以期降低人工智慧所面臨的網路資安風險,並促使人工智慧系統開發者與供應商落實基本的資安措施,以確保人工智慧系統的安性和可靠性。 由於人工智慧系統在功能與運作模式上與傳統網路架構及軟體有明顯的不同,因此產生新的資安風險,主要包含以下: 1. 資料投毒(Data Poisoning):在AI系統的訓練資料中蓄意加入有害或錯誤的資料,影響模型訓練結果,導致人工智慧系統產出錯誤推論或決策。 2. 模型混淆(Model Obfuscation):攻擊者有意識地隱藏或掩飾AI模型的內部運作特徵與行為,以增加系統漏洞、引發混亂或防礙資安管理,可能導致AI系統的安全性與穩定性受損。 3. 輸入間接指令(Indirect Prompt Injection):藉由輸入經精心設計的指令,使人工智慧系統的產出未預期、錯誤或是有害的結果。 為了提升實務守則可操作性,實務守則涵蓋了人工智慧生命週期的各階段,並針對相關角色提出指導。角色界定如下: 1. 人工智慧系統開發者(Developers):負責設計和建立人工智慧系統的個人或組織。 2. 人工智慧系統供應鏈(Supply chain):涵蓋人工智慧系統開發、部署、營運過程中的的所有相關個人和組織。 實務守則希望上述角色能夠參考以下資安原則,以確保人工智慧系統的安全性與可靠性: 1. 風險評估(Risk Assessment):識別、分析和減輕人工智慧系統安全性或功能的潛在威脅的過程。 2. 資料管理(Data management):確保AI系統整個資料生命週期中的資料安全及有效利用,並採取完善管理措施。 3. 模型安全(Model Security):在模型訓練、部署和使用階段,均應符合當時的技術安全標準。 4. 供應鏈安全(Supply chain security):確保AI系統供應鏈中所有利益相關方落實適當的安全措施。 「人工智慧網路資安實務守則」藉由清晰且全面的指導方針,期望各角色能有效落實AI系統安全管控,促進人工智慧技術在網路環境中的安全性與穩健發展。