何謂「歐盟防禦基金」?

  歐盟防禦基金(European Defence Fund)係於2016年,由歐盟執委會主席Juncker所宣布成立,旨在促進成員國之技術與設備合作、鼓勵中小企業參與項目,促進突破性創新(breakthrough innovation)解決方案,俾達協調、供給並擴大國防設施投資、捍衛歐盟戰略自主之目的。

  歐盟防禦基金之進程目前可分為兩階段。第一階段係於2017-2020年,透過「國防研究籌備行動」與「歐盟防禦工業發展項目」等兩個項目,對歐盟成員國間之防禦合作進行測試。其後,為進一步強化戰略自主與抵禦之能力,歐盟執委會於2018年6月13日決議增加基金2021-2027年之預算至130億歐元,與成員國共同進行防禦科技與設備之研發,是為第二階段。

  於130億歐元之預算中,89億歐元將以共同投資之方式,讓歐盟與成員國共同投入發展計畫,包含原型(prototype)之開發(占20%)、認證與測試(占80%)。而為確保、鼓勵研發成果之可用性,共同投資係以成員國承諾採購研發成果為前提。具體而言,此一共同投資計畫具下述特點:

  1. 投資項目需有助於歐盟國防安全、符合《共同安全與防禦政策》(Common Security and Defence Policy)之優先項目,並經其成員國與NATO等國際組織同意。
  2. 以突破性創新為目標,提撥5%的資金專用於破壞式創新技術和設備之研發,以提升、鞏固歐盟長期之技術領先地位。
  3. 合作項目需有三個以上、來自不同成員國之參與者;並以優惠利率為誘因,吸引中小型企業跨境參與。
  4. 參與之成員國需承諾採購最終之研發成果。

本文為「經濟部產業技術司科技專案成果」

※ 何謂「歐盟防禦基金」?, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8142&no=66&tp=1 (最後瀏覽日:2026/04/16)
引註此篇文章
你可能還會想看
大學研發成果商業化評估方法初探

日本經產省和總務省共同發布AI業者指引草案,公開徵集意見

因應生成式AI(Generative AI)快速發展,日本經產省和總務省彙整及更新自2017年起陸續發布之各項AI指引,於2024年1月19日共同公布「AI業者指引草案」(AI事業者ガイドライン案,以下簡稱指引),公開向民眾徵集意見。上述草案除提出AI業者應遵守以人為本、安全性、公平性、隱私保護、透明性、問責性、公平競爭、創新等共通性原則外,並進一步針對AI開發者(AI Developer)、AI提供者(AI Provider)及AI利用者(AI Business User)提出具體注意事項,簡述如下: (1)AI開發者:研發AI系統之業者。由於在開發階段設計或變更AI模型將影響後續使用,故指引認為開發者應事先採取可能對策,並在倫理和風險之間進行權衡,避免因重視正確性而侵害隱私或公平性,或因過度在意隱私保護而影響透明性。此外,開發者應盡量保留紀錄,以便於預期外事故發生時可以進行說明。 (2)AI提供者:向AI使用者或非業務上使用者提供AI系統、產品或服務之業者。提供者應以系統順利運作及正常使用為前提,提供AI系統和服務,並避免侵害利害關係人之利益。 (3)AI使用者:基於商業活動使用AI系統或服務之業者。使用者應於提供者所設定之範圍內使用AI,以最大限度發揮AI效益,提高業務效率及生產力。

歐盟人工智慧辦公室發布「通用人工智慧實踐守則」草案,更進一步闡釋《人工智慧法》之監管規範

.Pindent{text-indent: 2em;} .Noindent{margin-left: 2em;} .NoPindent{text-indent: 2em; margin-left: 2em;} .No2indent{margin-left: 3em;} .No2Pindent{text-indent: 2em; margin-left: 3em} .No3indent{margin-left: 4em;} .No3Pindent{text-indent: 2em; margin-left: 4em} 歐盟人工智慧辦公室(European AI Office)於2024 年 11 月 14 日發布「通用人工智慧實踐守則」(General-Purpose AI Code of Practice)草案,針對《人工智慧法》(Artificial Intelligence Act, AIA)當中有關通用人工智慧(General Purpose Artificial Intelligence, GPAI)之部分,更進一步闡釋相關規範。 本實踐守則草案主要分為4大部分,分別簡介如下: (1)緒論:描述本守則之4個基本目標,包含協助GPAI模型提供者履行義務、促進理解人工智慧價值鏈(value chain)、妥適保障智慧財產權、有效評估且緩解系統性風險(systemic risks)。 (2)GPAI模型提供者:有鑒於GPAI模型對於下游系統而言相當重要,此部分針對模型提供者訂定具體責任。不僅要求其提供訓練資料、模型架構、測試程序等說明文件,亦要求制定政策以規範模型用途防止濫用。另於智慧財產權方面,則要求GPAI模型提供者遵守「歐盟數位單一市場著作權指令」(Directive 2019/790/EC)之規定。 (3)系統性風險分類法(taxonomy):此部分定義GPAI模型之多種風險類別,諸如可能造成攻擊之資訊安全風險、影響民主之虛假資訊、特定族群之歧視、超出預期應用範圍之失控情形。 (4)高風險GPAI模型提供者:為防範系統性風險之危害,針對高風險GPAI模型提供者,本守則對其設立更高標準之義務。例如要求其於GPAI模型完整生命週期內持續評估風險並設計緩解措施。 本守則發布之次週,近千名利害關係人、歐盟成員國代表、國際觀察員即展開討論,透過參考此等回饋意見,預計將於2025年5月確定最終版本。

FDA允許第一個可以直接對消費者進行個人基因遺傳的健康風險服務測試法-GHR

  「美國食品和藥物管理局(FDA)」於2017年4月6日准許「23and me個人基因遺傳健康風險服務測試(簡稱GHR)」進行行銷,FDA要求該測試方法可以一定準確度檢測出十種疾病及可能條件。GHR是第一個被美國食品藥物管理局授權允許直接對消費者進行測試並提供個人遺傳傾向及醫療疾病條件資訊給消費者的測試。   GHR試圖提供遺傳風險資訊給消費者,但這個測試無法確定人們發展成疾病或發病條件的總體風險,因為除了某些遺傳變體的存在,還有很多因素會影響健康條件的發展,包含環境以及生活方式的因素,因此該檢測可能可以幫助人們做選擇生活方式的決定或告知消費者專業的健康照護。   23and me的GHR測試是運作自隔離唾液樣品中的DNA,此檢測被測試超過500000個遺傳變體,其檢測關於發展成以下十種疾病或發病條件增加風險的存在與否,包括帕金森氏症(Parkinson’s disease)、阿茲海默症(Late-onset Alzheimer’s disease)、自體免疫問題(Celiac disease)、α-1抗胰蛋白酶缺乏症、早發性原發性肌張力障礙(early-onset primary dystomia)、因子XI缺乏症(factor XI deficiency)、高血病1型(gaucher disease type1)、葡萄糖6-磷酸脫氫酶缺乏症(glucose 6- phosphate dehydrogenase defiency)、遺傳性血色素沉著症(hereditary hemochromatosis)、遺傳性血栓形成(hereditary thrombophilia)。   此外,FDA更要求所有DTC測試在醫療用途目的上之使用必需要能跟消費者溝通,使消費者可以充分了解該測試法後選用。其中一個研究顯示,23andMe的GHR測試的相關資訊是容易被理解的,有90%的人能夠了解報告中所呈現的資訊。

TOP