歐盟科技策略新趨勢-生物經濟策略

  為引領歐盟各會員國邁向以生物發展為導向之經濟體時代,歐盟指委會(European Commission)乃於2012年2月13日通過歐盟永續生物經濟體策略計畫-Innovation for Sustainable Growth-a Bioeconomy for Europe,期待藉此引導歐盟邁想一個創新且低排放之永續發展經濟體。

  隨著全球人口逐年增長,並預計於2050年邁向全球9億總人口數之關卡,但自然資源之相對有限,因此歐盟指委會認為歐盟經濟體需隨著時代變遷趨勢及早轉型,並且強化其發展永續性。為協助歐盟各會員國因應全球局勢變化,歐盟指委員進一步於其永續生物經濟體策略計畫中提出三大重點策略-1.強化創新,並發展新興科技,進而為生物經濟體做準備;2.建置並強化生物經濟體相關市場與競爭力;3.透過相關政策之研擬,加強立法者與產業間之聯結性。而除了透過前述之三大重點策略以做為發展生物經濟體之基礎外,歐盟指委會亦希望能藉由歐盟Horizon 2020計畫下之各相關配套措施,以及各項研發經費之投注,進行各項生物和綠色科技,如能源、奈米科技、和資通訊技術(ICT)等相關領域之創新研發,進而導引歐盟經濟體邁向一個全新永續新境界。

  目前歐盟會員國如丹麥、芬蘭、德國、愛爾蘭、和荷蘭皆已提出相關生物經濟體策略,而國際間如加拿大、中國、美國、和南非對此議題,亦位處於發展中或是已發展階段。以生物科技為主之知識經濟發展導向乃為當前全球經濟發展趨勢,如何連結科技研發創新,進而發展永續經濟,實為一值得關注與思考之問題。

本文為「經濟部產業技術司科技專案成果」

相關連結
※ 歐盟科技策略新趨勢-生物經濟策略, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=5637&no=55&tp=1 (最後瀏覽日:2026/05/04)
引註此篇文章
你可能還會想看
再工業化!?美國推動先進製造知基礎法制政策研析

美國倡建無人機系統整合先導計畫

  考量無人機系統與國家空域系統及有人駕駛飛機的有效協作,除能提升產業效能與生產力外,同時也強化國家公領域安全的管理。基此,美國總統川普遂發布總統備忘錄倡議建立無人機系統整合先導計畫,期能透過該計畫促進創新應用,並以公私協力的方式進行無人機系統與國家空域系統之整合。

西班牙AEPD增加關於健康和個人資料保護關注領域

  西班牙個資監管機關(Agencia Española de Protección de Datos, AEPD)於2022年5月3日增加健康和個人資料保護有關的關注領域。觀2021年,計有680件與健康資料相關之爭議案件,與2020年相比增長了75%,又因健康資料為特殊類型之個人資料,故更應嚴加保障。   該領域的內容適用於公民、資料控制者、資料保護專業人員、健康中心或製藥行業等,共分六小節: 一、第一小節概述了與健康資料有關的權利,解釋了歐盟一般個人資料保護規則(General Data Protection Regulation, GDPR)第9條及西班牙當地規範有關處理健康資料定義、如何行使醫療記錄近用權(Right to access),以及與醫學研究相關的問題,其中規定了患者在使用資料和臨床文件方面權利和義務、在近用權被拒絕情況下如何向AEPD申訴、臨床病史保留及刪除權利之限制等。 二、第二小節重點介紹AEPD公布的相關報告和指南,包括勞資關係中之個人資料保護指南,及有關臨床病史、臨床試驗等相關主題之報告。 三、第三小節則著重在AEPD於新型冠狀病毒肺炎(COVID-19)爆發後,製作大量與COVID-19相關之聲明文件及法律報告,故在此彙整相關資料,以協助落實個人資料之保障。 四、第四小節健康研究和臨床試驗,其中彙編了相關指南,以及規範臨床試驗和其他臨床研究以及藥物安全監視所涉個人資料保護行為準則。 五、第五小節講述與健康狀況有關之申訴、賠償紀錄部分,其中包括AEPD收到多項涉及已故患者直系親屬近用醫療記錄之權利或醫療專業人員非法獲取臨床病史和醫療記錄之投訴。 六、第六小節側重於醫療組織洩露個人資料議題,概述了資料控制者之義務以及為確保遵循GDPR而應採取之措施,另強調以特殊方式處理健康資料之活動,如電子健康紀錄、物聯網醫療所使用之行動裝置或雲端等存取設備,皆存在外洩之風險因子。

英國發布人工智慧網路資安實務守則

英國政府於2025年1月31日發布「人工智慧網路資安實務守則」(Code of Practice for the Cyber Security of AI,以下簡稱「實務守則」),目的是提供人工智慧(AI)系統的網路資安指引。該實務守則為英國參考國際上主要標準、規範後所訂定之自願性指引,以期降低人工智慧所面臨的網路資安風險,並促使人工智慧系統開發者與供應商落實基本的資安措施,以確保人工智慧系統的安性和可靠性。 由於人工智慧系統在功能與運作模式上與傳統網路架構及軟體有明顯的不同,因此產生新的資安風險,主要包含以下: 1. 資料投毒(Data Poisoning):在AI系統的訓練資料中蓄意加入有害或錯誤的資料,影響模型訓練結果,導致人工智慧系統產出錯誤推論或決策。 2. 模型混淆(Model Obfuscation):攻擊者有意識地隱藏或掩飾AI模型的內部運作特徵與行為,以增加系統漏洞、引發混亂或防礙資安管理,可能導致AI系統的安全性與穩定性受損。 3. 輸入間接指令(Indirect Prompt Injection):藉由輸入經精心設計的指令,使人工智慧系統的產出未預期、錯誤或是有害的結果。 為了提升實務守則可操作性,實務守則涵蓋了人工智慧生命週期的各階段,並針對相關角色提出指導。角色界定如下: 1. 人工智慧系統開發者(Developers):負責設計和建立人工智慧系統的個人或組織。 2. 人工智慧系統供應鏈(Supply chain):涵蓋人工智慧系統開發、部署、營運過程中的的所有相關個人和組織。 實務守則希望上述角色能夠參考以下資安原則,以確保人工智慧系統的安全性與可靠性: 1. 風險評估(Risk Assessment):識別、分析和減輕人工智慧系統安全性或功能的潛在威脅的過程。 2. 資料管理(Data management):確保AI系統整個資料生命週期中的資料安全及有效利用,並採取完善管理措施。 3. 模型安全(Model Security):在模型訓練、部署和使用階段,均應符合當時的技術安全標準。 4. 供應鏈安全(Supply chain security):確保AI系統供應鏈中所有利益相關方落實適當的安全措施。 「人工智慧網路資安實務守則」藉由清晰且全面的指導方針,期望各角色能有效落實AI系統安全管控,促進人工智慧技術在網路環境中的安全性與穩健發展。

TOP