美國眾議院法制委員會於七月十八日全體一致通過「專利法2007年改革法案」( Patent Reform Act of 2007),根據美國軟體與資訊工業協會( Software & Information Industry Association,簡稱SIIA)的總裁Ken Wasch表示,該修正案的通過是美國專利制度現代化的重要指標,而一個有效率且公正的專利制度對於繼續美國國內經濟發展並領導全世界經濟時具有舉足輕重的地位。眾議院的議員Howard Berman表示,對於美國專利核發品質低落、花費高昂及時間冗長的訴訟程序已經嚴重地阻礙到創新力與創造力。這次修法的目的在於改善專利的品質、嚇阻專利所有人權利的濫用、以異議專利的有效性的方式以提供更有意義且低花費的替代式專利訴訟、並讓美國專利法能與其他國家的專利法調合。
該法案除了通過的部分包括「不正當行為」(Inequitable Conduct )、「犯罪地的限制」(Restrictions on Venue)、「損害賠償的取得」(Awards of Damage)修正。最令人注意的是,刪除了最具爭議的「專利權核准後審查程序」( Posted- granted Review),該程序並無時間的限制,而始得專利侵權訴訟中之被告能夠對專利之有效性向美國專利商標局提出再審的請求。法制委員會對此程序舉行多次公聽會,但修正案仍以增加現有「專利再審制度」( Reexamination)的方式取代之。
實務界認為,本修正案會使得專利的價值降低,而使得一些非以製造產品為公司營運目的,但專事經營擁有並實施專利權為主要歲收來源的「專利巨人」(Patent Tolls)公司生存困難。
產業創新條例於106年11月3日經立法院三讀通過部分條文修正草案,以因應國際產業發展趨勢,積極推動產業轉型及創新;其中修正重點之一為第27條之增修-推動創新採購彈性機制,即透過政府採購龐大市場之購買力量,作為產業創新能量發展之拉力。所推動之創新採購彈性機制,其一為以「政策需求」訂定軟體、創新及綠色產品或服務之共通需求;其二為政府機關得以「優先採購」辦理創新及綠色產品或服務。爰本文聚焦於第27條增修重點、創新採購彈性機制之推動,以及本條配套子法即「創新產品或服務優先採購辦法」草案之訂定方向。
日本農業數據協作平台WAGRI開始自主營運「日本農業數據協作平台」(簡稱WAGRI)於2017年內閣府計畫的支持下,委由慶應義塾大學建立,該平台具備農業數據相容、數據共有與數據提供三大機能,日本IT企業NTT、富士通、農機大廠久保田、洋馬等均已加入WAGRI試營使用行列。今(2019)年該平台將移轉予國立研究開發法人農業食品產業技術總合研究機構(下簡稱農研機構),正式開始進入商業模式營運。欲利用WAGRI之機關除須向WAGRI協議會(由農業法人、農機製造商、ICT供應商、學研機構組成,以提出建議改善、普及WAGRI為其立會宗旨)遞交「入會申請書」外,亦須向農研機構遞交「利用規約」、「數據提供利用規約」與「規約同意書兼利用申請書」。 自主營運後,原先不收費方式已變更,欲利用WAGRI之機關依據以下兩種利用平台方式,須繳納不同的費用: 數據利用(利用WAGRI數據者)、數據利用提供者(利用WAGRI數據且提供數據予WAGRI者) 平台利用月費5萬日圓 若利用有償數據時,須另外支付數據使用費 數據提供者(提供數據予WAGRI者) 平台利用月費3萬日圓 僅提供無償數據的數據提供機關,原則上不需要繳納平台利用費 我國為發展智慧農業,智慧農業共通資訊平台有提供免費OPEN DATA介接功能,近年發展智慧農業之農企/機關團體,亦有建立平台作為內部蒐集、利用數據之用,例如弘昌碾米工廠建置水稻健康管理與倉儲資訊服務平臺,未來該類平台均有可能朝商業模式發展。WAGRI建立一套商業模式嘗試自主營運,後續將持續追蹤WAGRI營運狀況作為我國智慧農業平台之運作參考。 「本文同步刊登於TIPS網站(https://www.tips.org.tw)」
英國發布人工智慧網路資安實務守則英國政府於2025年1月31日發布「人工智慧網路資安實務守則」(Code of Practice for the Cyber Security of AI,以下簡稱「實務守則」),目的是提供人工智慧(AI)系統的網路資安指引。該實務守則為英國參考國際上主要標準、規範後所訂定之自願性指引,以期降低人工智慧所面臨的網路資安風險,並促使人工智慧系統開發者與供應商落實基本的資安措施,以確保人工智慧系統的安性和可靠性。 由於人工智慧系統在功能與運作模式上與傳統網路架構及軟體有明顯的不同,因此產生新的資安風險,主要包含以下: 1. 資料投毒(Data Poisoning):在AI系統的訓練資料中蓄意加入有害或錯誤的資料,影響模型訓練結果,導致人工智慧系統產出錯誤推論或決策。 2. 模型混淆(Model Obfuscation):攻擊者有意識地隱藏或掩飾AI模型的內部運作特徵與行為,以增加系統漏洞、引發混亂或防礙資安管理,可能導致AI系統的安全性與穩定性受損。 3. 輸入間接指令(Indirect Prompt Injection):藉由輸入經精心設計的指令,使人工智慧系統的產出未預期、錯誤或是有害的結果。 為了提升實務守則可操作性,實務守則涵蓋了人工智慧生命週期的各階段,並針對相關角色提出指導。角色界定如下: 1. 人工智慧系統開發者(Developers):負責設計和建立人工智慧系統的個人或組織。 2. 人工智慧系統供應鏈(Supply chain):涵蓋人工智慧系統開發、部署、營運過程中的的所有相關個人和組織。 實務守則希望上述角色能夠參考以下資安原則,以確保人工智慧系統的安全性與可靠性: 1. 風險評估(Risk Assessment):識別、分析和減輕人工智慧系統安全性或功能的潛在威脅的過程。 2. 資料管理(Data management):確保AI系統整個資料生命週期中的資料安全及有效利用,並採取完善管理措施。 3. 模型安全(Model Security):在模型訓練、部署和使用階段,均應符合當時的技術安全標準。 4. 供應鏈安全(Supply chain security):確保AI系統供應鏈中所有利益相關方落實適當的安全措施。 「人工智慧網路資安實務守則」藉由清晰且全面的指導方針,期望各角色能有效落實AI系統安全管控,促進人工智慧技術在網路環境中的安全性與穩健發展。