歐洲專利局(European Patent Office, 下稱EPO)於2018年11月1日發佈新版專利審查指南已正式生效。此次新版的焦點為Part G, Chapter II, 3.3.1關於人工智慧(Artificial Intelligence, AI)與機器學習(Machine Learning, ML)的可專利性審查細則。
在新版審查指南Part G, Chapter II, 3.3中指出數學方法本身為法定不予專利事項,然而人工智慧和機器學習是利用運算模型和演算法來進行分類、聚類、迴歸、降維等發明,例如:神經網路、遺傳演算法、支援向量機(Support Vector Machines, SVM)、K-Means演算法、核迴歸和判別分析,不論它們是否能夠藉由數據加以訓練,此類運算模型和演算法本身,因具有抽象的數學性質而不具專利適格性。
其中,EPO亦針對人工智慧和機器學習相關應用舉例下列特殊情形,說明可否具備發明技術特徵:
(一)可能具技術性
(二)可能不具技術性
在新版審查指南中亦指出,當分類方法用於技術目的,其產生之訓練集(training set)和訓練分類器(training the classifier)的步驟,則能被視為發明的技術特徵。
近年來,人工智慧技術的應用分佈在我們的生活中,無論是自駕車、新藥開發、語音辨識、醫療診斷等,隨著人工智慧和機器學習技術快速發展,新版的審查指南將為此技術訂定可專利性標準,EPO未來要如何評判人工智慧和機器學習相關技術,將可透過申請案之審查結果持續進行關注。
「本文同步刊登於TIPS網站(https://www.tips.org.tw )」
中央研究院院士鄭永齊研發的中草藥新藥 PHY906 ,宣布將與國家衛生研究院合作進行大腸直腸癌第一/二期臨床試驗,這項藥物由美國 PhytoCeutica 公司及台灣的順天堂製藥共同合作,預計四年後進入市場。 PHY906 係從一千八百年前的傳統古方大棗、芍藥、黃耆、甘草等四種中草藥中找到的複方產品,經動物實驗證明可治療下瀉、噁心、發燒及疼痛等徵狀,積極療效方面,將測試癌症化療所引發的副作用。 此學名為 PHY906 的藥物係由耶魯大學授權給其衍生公司 Phyceotica 後,透過「 Phytomics 」的品管專利技術,除了在美國繼續進行一/二期肝癌試驗外,也將在台灣執行大腸直腸癌的第一/二期臨床試驗,預定明年底可申請在美國執行第三期臨床試驗,順利的話,可在三年內完成人體臨床試驗。 據了解, Phyceotica 公司於一九九八年成立,主要股東包括香港及台灣的中華開發工銀,同時和順天堂中藥廠成為生產合作夥伴。 國家衛生研究院日前舉辦「中藥全球化聯盟」第四次會議,全世界五十一個會員參與,會議重點在探討四大技術平台,包括建立中藥品質管制、中藥來源鑑定及栽培標準化、建立中藥資料庫及推動國際中心臨床試驗;希望藉由該會議讓更多國家業者共同參與該藥的臨床試驗工作。
英國發布人工智慧網路資安實務守則英國政府於2025年1月31日發布「人工智慧網路資安實務守則」(Code of Practice for the Cyber Security of AI,以下簡稱「實務守則」),目的是提供人工智慧(AI)系統的網路資安指引。該實務守則為英國參考國際上主要標準、規範後所訂定之自願性指引,以期降低人工智慧所面臨的網路資安風險,並促使人工智慧系統開發者與供應商落實基本的資安措施,以確保人工智慧系統的安性和可靠性。 由於人工智慧系統在功能與運作模式上與傳統網路架構及軟體有明顯的不同,因此產生新的資安風險,主要包含以下: 1. 資料投毒(Data Poisoning):在AI系統的訓練資料中蓄意加入有害或錯誤的資料,影響模型訓練結果,導致人工智慧系統產出錯誤推論或決策。 2. 模型混淆(Model Obfuscation):攻擊者有意識地隱藏或掩飾AI模型的內部運作特徵與行為,以增加系統漏洞、引發混亂或防礙資安管理,可能導致AI系統的安全性與穩定性受損。 3. 輸入間接指令(Indirect Prompt Injection):藉由輸入經精心設計的指令,使人工智慧系統的產出未預期、錯誤或是有害的結果。 為了提升實務守則可操作性,實務守則涵蓋了人工智慧生命週期的各階段,並針對相關角色提出指導。角色界定如下: 1. 人工智慧系統開發者(Developers):負責設計和建立人工智慧系統的個人或組織。 2. 人工智慧系統供應鏈(Supply chain):涵蓋人工智慧系統開發、部署、營運過程中的的所有相關個人和組織。 實務守則希望上述角色能夠參考以下資安原則,以確保人工智慧系統的安全性與可靠性: 1. 風險評估(Risk Assessment):識別、分析和減輕人工智慧系統安全性或功能的潛在威脅的過程。 2. 資料管理(Data management):確保AI系統整個資料生命週期中的資料安全及有效利用,並採取完善管理措施。 3. 模型安全(Model Security):在模型訓練、部署和使用階段,均應符合當時的技術安全標準。 4. 供應鏈安全(Supply chain security):確保AI系統供應鏈中所有利益相關方落實適當的安全措施。 「人工智慧網路資安實務守則」藉由清晰且全面的指導方針,期望各角色能有效落實AI系統安全管控,促進人工智慧技術在網路環境中的安全性與穩健發展。
新興網路音樂流通模式之法律政策趨勢與實例研討