根據國際間重要農糧組織ISAAA(International Service for the Acquisition of Agri-Biotech Applications)所公布的2004年統計報告,全球基改作物栽種面積已達八千一百萬公頃,在2003年僅有六千七百萬公頃,成長幅度高達20%,尤其是在開發中國家。菲律賓是亞洲第一個支持商業化生產基因改造食物的國家,從2000年起即開始商業交易基因改造作物。由於其所研發之轉殖”IR-72”稻米品種栽培並不普遍,也未被消費者、農夫及麵粉業者廣泛地接受,因此不合適商業化生產,雖然菲律賓嘗試其他較受歡迎的品種來進行基改轉殖,但迄今尚未成功。 基於基因稻米對於環境安全和人體健康所帶來的影響是無法預知的,綠色和平組織抗議菲律賓政府加速推動生技農作物的計畫。菲律賓所面臨的挑戰不單僅是綠色和平的抗議,另一個因素因為氣候的不穩定而影響了稻米的產量,今年生產量僅148萬噸,距離目標?151萬噸,因此仍需仰賴進口稻米來彌補這不足的差距。 菲律賓稻米研究中心執行長Leo Sebastian認為,基改稻米並不是解決稻米供應不足的唯一方式,引介栽種高生產量的稻米品種或者改善灌溉系統等都是可行的方式。
歐洲航空安全局EASA將制訂無人機管理草案近來無人機使用越來越普遍,歐洲各國無人機管理制度不同,例如在德國,無人機不得超過25公斤,英國則規定重量超過20公斤以上的無人機視同一般民航機管理。法國雖禁止飛行器未經核准不得在巴黎上空飛行,但日前頻傳有無人機圍繞著艾菲爾鐵塔、美國大使館、羅浮宮和巴士底獄紀念碑,一度造成恐慌。至於美國,聯邦航空總署(Federal Aviation Administration,FAA)原則上禁止大部份商用無人機飛行,但業者可以申請豁免。 因此,為了統一無人機相關管理辦法,歐洲航空安全局(European Aviation Safety Agency, 以下簡稱EASA)目前已擬管理草案,並將無人機分為三種等級,最低風險無人機是指低耗能飛行器(aircraft),包括模型飛機,該類飛機無須任何形式的證照,只能在操作者視線內且不得在機場與自然保護區使用,其最高飛行高度為150公尺,並禁止在人群上空使用。然而,最高風險無人機管理範圍則將與現行飛行器相關管理規則一樣,必須取得多種飛行證明。此外,無人機帶來的隱私與安全憂慮,EASA表示,這是國家層面議題,例如各國政府可要求無人機上加裝SIM卡的方式解決。 歐盟委員會(European Commission)希望無人機基本規範架構能於今年年底前到位。有關最低風險無人機相關管理草案預計於12月提出,以便業者經營無人機明年可以上路。EASA局長Patrick Ky在一份聲明中表示:「這些規定將確保無人機產業可在安全與可成長的環境下發展。」
美國專利商標局與以色列專利局宣布以色列專利局參與合作專利分類美國專利商標局(The United States Patent and Trademark Office,簡稱USPTO)與以色列專利局(The Israel Patent Office,簡稱ILPO)宣布以色列專利局將參與合作專利分類(The Cooperative Classification Patent,以下簡稱CPC)系統。以色列專利局是以色列智慧財產權審查及註冊的主管機關,主要負責智慧財產權如專利、設計、商標的審查、註冊及異議。 CPC已於2013年1月正式啟用。美國專利商標局及歐洲專利局(European Patent Office,簡稱EPO)自2010年10月共同發展一個可用於雙方不同審查程序的相容分類系統,降低工作上不必要的重複作業以強化效率。美國專利商標局局長Michelle K. Lee.表示:「合作專利分類系統了除證明美國專利商標局與以色列專利局良好的關係及合作精神外,更能夠幫助國內外申請專利的創新者與企業。」 美國專利商標局已於2016年7月提供以色列專利局CPC的相關訓練。美國專利商標局及以色列專利局預計進一步著手進行更深入的CPC相關訓練與交流事宜。以色列專利局及美國專利商標局之間的合作正持續擴展當中,並已達到以CPC為以色列專利局所收藏之專利進行分類的目標。以色列專利局局長Asa Kling表示:「隨著新系統的轉變,以色列專利局將強化審查專業及效率,並改善提供給以色列申請人的服務。」
英國發布人工智慧網路資安實務守則英國政府於2025年1月31日發布「人工智慧網路資安實務守則」(Code of Practice for the Cyber Security of AI,以下簡稱「實務守則」),目的是提供人工智慧(AI)系統的網路資安指引。該實務守則為英國參考國際上主要標準、規範後所訂定之自願性指引,以期降低人工智慧所面臨的網路資安風險,並促使人工智慧系統開發者與供應商落實基本的資安措施,以確保人工智慧系統的安性和可靠性。 由於人工智慧系統在功能與運作模式上與傳統網路架構及軟體有明顯的不同,因此產生新的資安風險,主要包含以下: 1. 資料投毒(Data Poisoning):在AI系統的訓練資料中蓄意加入有害或錯誤的資料,影響模型訓練結果,導致人工智慧系統產出錯誤推論或決策。 2. 模型混淆(Model Obfuscation):攻擊者有意識地隱藏或掩飾AI模型的內部運作特徵與行為,以增加系統漏洞、引發混亂或防礙資安管理,可能導致AI系統的安全性與穩定性受損。 3. 輸入間接指令(Indirect Prompt Injection):藉由輸入經精心設計的指令,使人工智慧系統的產出未預期、錯誤或是有害的結果。 為了提升實務守則可操作性,實務守則涵蓋了人工智慧生命週期的各階段,並針對相關角色提出指導。角色界定如下: 1. 人工智慧系統開發者(Developers):負責設計和建立人工智慧系統的個人或組織。 2. 人工智慧系統供應鏈(Supply chain):涵蓋人工智慧系統開發、部署、營運過程中的的所有相關個人和組織。 實務守則希望上述角色能夠參考以下資安原則,以確保人工智慧系統的安全性與可靠性: 1. 風險評估(Risk Assessment):識別、分析和減輕人工智慧系統安全性或功能的潛在威脅的過程。 2. 資料管理(Data management):確保AI系統整個資料生命週期中的資料安全及有效利用,並採取完善管理措施。 3. 模型安全(Model Security):在模型訓練、部署和使用階段,均應符合當時的技術安全標準。 4. 供應鏈安全(Supply chain security):確保AI系統供應鏈中所有利益相關方落實適當的安全措施。 「人工智慧網路資安實務守則」藉由清晰且全面的指導方針,期望各角色能有效落實AI系統安全管控,促進人工智慧技術在網路環境中的安全性與穩健發展。