歐盟執委會發布「民用、國防與航太產業之協同行動計畫」,強調前瞻技術的產業研發協作與成果運用

  歐盟執委會(European Commission)於2021年2月22日發布「民用、國防與航太產業之協同行動計畫」(Action Plan on Synergies between Civil, Defence And Space Industries),作為進一步加強歐盟前瞻科技與和相關基礎產業的行動方針。這也是歐盟首次以歐盟防禦基金(European Defence Fund)策畫補助民用、國防與航太產業領域中具有泛用性及破壞式潛力的前瞻科技(例如雲端、處理器、網路、量子和人工智慧等),以強化歐盟創新能力。

  該行動計畫之目標為:(1)the synergies(協作):強化歐盟相關計畫與研究工具的互補性,使其得以涵蓋研究(research)、開發(development)和部署(deployment)三個區塊,並增加投資效益和成果有效性;(2)the spin-offs(衍生企業):本行動計畫鼓勵國防投資以促進國防研究衍生企業,使國防和太空的創新研究成果得以作為民用,持續發展相關技術;(3)the spin-ins(內部創新):前瞻領域的創新往往來自新創事業、中小企業和民間科研機構,因此本行動計畫促進歐洲各國國防合作計畫執行時運用民用產業創新研發成果,避免重複研究耗費資源。

  為達到前述目標,該行動計畫臚列11個民用、國防與航太產業共同協作行動,並可綜整為四大方向:(1)創建框架以加強歐盟在相關計畫和研究工具間的協同作用和互惠(cross-fertilisation),例如在數位、雲端和處理器等產業領域建立共通框架;(2)關鍵技術(critical technologies)開發應確保系統一致,包含初步確認關鍵技術與未來相容性要求、進一步共同確認技術發展藍圖、最後確定旗艦計畫(flagship projects)間應減少依賴性並增加標準化和互操作性(interoperability),同時促進跨境與跨域合作;(3)建立創新孵化器(innovation incubator)網路支持新創事業、中小企業和科研機構(Research & Technology Organisation, RTO)的創新;(4)發展三大旗艦計畫,分別為無人機技術(drone technologies)、以航太為架構的安全連結技術(space-based secure connectivity)、以及太空交通管理技術(space traffic management),並藉由計畫發展相關產業使歐盟成為改變世界規則之領導者。

  此外,該行動計畫雖然目前僅限於使用在歐盟級計畫和研究工具,但也可能積極影響並觸發歐盟各國仿效類似行動,進一步影響歐盟境外合作夥伴共同支持該行動。

本文為「經濟部產業技術司科技專案成果」

相關連結
你可能會想參加
※ 歐盟執委會發布「民用、國防與航太產業之協同行動計畫」,強調前瞻技術的產業研發協作與成果運用, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8625&no=64&tp=1 (最後瀏覽日:2025/11/29)
引註此篇文章
你可能還會想看
德國資料保護會議通過「哈姆巴爾宣言」,針對人工智慧之運用提出七大個資保護要求

  德國聯邦及各邦獨立資料保護監督機關(unabhängige Datenschutzaufsichtsbehörden)共同於2019年4月3日,召開第97屆資料保護會議通過哈姆巴爾宣言(Hambacher Erklärung,以下簡稱「Hambacher宣言」)。該宣言指出人工智慧雖然為人類帶來福祉,但同時對法律秩序內自由及民主體制造成巨大的威脅,特別是人工智慧系統可以透過自主學習不斷蒐集、處理與利用大量個人資料,並且透過自動化的演算系統,干預個人的權利與自由。   諸如人工智慧系統被運用於判讀應徵者履歷,其篩選結果給予女性較不利的評價時,則暴露出人工智慧處理大量資料時所產生的性別歧視,且該歧視結果無法藉由修正資料予以去除,否則將無法呈現原始資料之真實性。由於保護人民基本權利屬於國家之重要任務,國家有義務使人工智慧的發展與應用,符合民主法治國之制度框架。Hambacher宣言認為透過人工智慧系統運用個人資料時,應符合歐盟一般資料保護規則(The General Data Protection Regulation,以下簡稱GDPR)第5條個人資料蒐集、處理與利用之原則,並基於該原則針對人工智慧提出以下七點個資保護之要求: (1)人工智慧不應使個人成為客體:依據德國基本法第1條第1項人性尊嚴之保障,資料主體得不受自動化利用後所做成,具有法律效果或類似重大不利影響之決策拘束。 (2)人工智慧應符合目的限制原則:透過人工智慧系統蒐集、處理與利用個人資料時,即使後續擴張利用亦應與原始目的具有一致性。 (3)人工智慧運用處理須透明、易於理解及具有可解釋性:人工智慧在蒐集、處理與利用個人資料時,其過程應保持透明且決策結果易於理解及可解釋,以利於追溯及識別決策流程與結果。 (4)人工智慧應避免產生歧視結果:人工智慧應避免蒐集資料不足或錯誤資料等原因,而產生具有歧視性之決策結果,控管者或處理者使用人工智慧前,應評估對人的權利或自由之風險並控管之。 (5)應遵循資料最少蒐集原則:人工智慧系統通常會蒐集大量資料,蒐集或處理個人資料應於必要範圍內為之,且不得逾越特定目的之必要範圍,並應檢查個人資料是否完全匿名化。 (6)人工智慧須設置問責機關進行監督:依據GDPR第12條、第32條及第35條規定,人工智慧系統內的控管者或處理者應識別風險、溝通責任及採取必要防範措施,以確保蒐集、處理與利用個人資料之安全性。 (7)人工智慧應採取適當技術與組織上的措施管理之:為了符合GDPR第24條及第25條規定,聯邦資料保護監督機關應確認,控管者或處理者採用適當的現有技術及組織措施予以保障個人資料。   綜上所述,Hambacher宣言內容旨在要求,人工智慧在蒐集、處理及利用個人資料時,除遵守歐盟一般資料保護規則之規範外,亦應遵守上述提出之七點原則,以避免其運用結果干預資料主體之基本權利。

日本擬以金融商品交易法對虛擬貨幣之首次代幣發行予以監管

  由日本金融廳(FSA)與各界相關人士組成的「虛擬貨幣交換產業相關研究會」(仮想通貨交換業等に関する研究会)於2018年11月2日再度召開會議,本次會議主要針對是否需就ICO監管予以討論。   按ICO,乃是指虛擬貨幣之首次代幣發行(Initial Coin Offering),即向社會大眾發行數位代幣(token),並收取主流虛擬貨幣之籌資行為。在過去,日本僅以向金融廳諮詢會報的方式督導,對於虛擬貨幣之交易所僅課予註冊義務,並未對於ICO行為予以規範。而ICO因其大量之籌資行為可能產生之風險如詐欺、非法募資或洗錢,從而日本金融廳研擬將ICO列入「金融商品交易法」規範之。   而就ICO是否有受到金融監管之必要,會議中主要之考量有以下兩點: 使用虛擬貨幣之行為是否具有金錢上融資之功能,會議中對於不具權利性質之虛擬貨幣認為無監管必要; 引入金融監督機制是否符合社會期待。   另外,會議中並就ICO和首次公開募股(Initial Public Offerings,以下簡稱IPO)進行比較,有認為,倘若ICO具有如同IPO籌集資金之經濟功能,並且也可能產生如同IPO之相同風險,理應受到相同之規範。可為之規範例如對於賣家進行最低度審查,避免透過籌資為詐欺之可能;限制權利內容模糊不清之虛擬貨幣流通,並對發行人之財務和業務狀況進行篩選;課予ICO負有如同IPO之揭露義務,並須在網站上公布對於投資人有影響性之資訊;使發行價格更有衡量基準。另外JVCEA(日本仮想通貨交換業協会)作為監管機構,擬對於ICO在銷售開始、銷售結束,甚至銷售結束後仍課予持續的情報提供義務。   而於後續2018年11月26日召開之第十次會議中,表示對於ICO在未來不會採取禁止之態度,仍保持鼓勵之立場,但對於投資人之保護需要更全面予以考量,減少利用ICO詐欺之情形。另外,對於虛擬貨幣交換業者,需要加強對客戶財產之管理和維護,亦可能對其施加信託義務,俾利加強投資人信心。   ICO在日本非常盛行,但也因此詐欺案件頻傳,對於日本將以何種方式監管ICO;對於虛擬貨幣交換業者之規範,對投資人之保護是否足夠;又或是此類規範將形成交換業者反抗,依目前會議頻繁討論之程度應很快會有定論。惟對於此種新創之產業,往往需在監管與鼓勵發展間求取平衡,而日本在虛擬貨幣之發展上,又領先亞洲各國,對於此次監管議題後續發展,實值關注,並得以借鏡我國,作為我國在相同議題上之參考。

加拿大政府提交予國會《人工智慧資料法案》

  加拿大政府由創新、科學和工業部長(Minister of Innovation, Science and Industry)代表,於2022年6月16日提交C-27號草案,內容包括聯邦的私部門隱私權制度更新,以及新訂的《人工智慧資料法案》(Artificial Intelligence and Data Act, 下稱AIDA)。如獲通過,AIDA將是加拿大第一部規範人工智慧系統使用的法規,其內容環繞「在加拿大制定符合國家及國際標準的人工智慧設計、開發與應用要求」及「禁止某些可能對個人或其利益造成嚴重損害的人工智慧操作行為」兩大目的。雖然AIDA的一般性規則相當簡單易懂,但唯有在正式發布這部包含絕大多數應用狀況的法規後,才能實際了解其所造成的影響。   AIDA為人工智慧監管所設立的框架包含以下六項: (1)方法 以類似於歐盟《人工智慧法案》採用的方式,建立適用於人工智慧系統具「高影響力」的應用方式的規範,關注具有較高損害與偏見風險的領域。 (2)適用範圍 AIDA將適用於在國際與省際貿易及商業行動中,設計、發展或提供人工智慧系統使用管道的私部門組織。「人工智慧系統」的定義則涵蓋任何「透過基因演算法、神經網路、機器學習或其他技術,自動或半自動處理與人類活動相關的資料,以產生結果、做出決策、建議或預測」的技術性系統。 (3)一般性義務 I 評估及緩和風險的措施 負責人工智慧系統的人員應評估它是否是一個「高影響系統」(將在後續法規中詳細定義),並制定措施以辨識、評估與減輕使用該系統可能造成的傷害風險或具有偏見的結果。 II 監控 對該「高影響系統」負責的人員應建立準則,以監控風險緩解措施的遵守情況。 III 透明度 提供使用管道或管理「高影響系統」運作的人員應在公開網站上,以清晰的英語揭露   i 系統如何或打算如何使用。   ii 系統所生成果的類型及它所做出的決策、建議與預測。   iii 為辨識、評估與減輕使用該系統可能造成的傷害風險或具有偏見的結果,而制定的緩解措施。   iv 法規明定應揭露的其他訊息。 IV 記錄保存 執行受規範活動的人員應遵守紀錄保存要求。 V 通知 若使用該系統將導致或可能導致重大傷害,「高影響系統」的負責人應通知部門首長。 VI 匿名資料的使用 從事法案所規定的活動及在活動過程中使用或提供匿名資料的人員,必須依據規範制定關於(a)資料被匿名化處理的方式(b)被匿名化資料的使用與管理,兩方面的措施。 (4)部長命令 部門首長可以透過命令要求(a)製作紀錄(b)從事審計或聘請一位獨立的審計師執行(c)成立一個專責執行審計程序的組織(d)成立一個在有理由相信「高影響系統」之使用可能造成急迫重大傷害風險時負責進行終止或准許的組織。 (5)行政管理 AIDA為部門首長制定一項,可指定其所管轄部門中一名高級官員為「人工智慧與資料專員」的權利,其職責在協助部門首長管理與執行AIDA。 (6)罰則 違反AIDA規範之罰則主要為按公司、個人之收入衡量的罰款。特定嚴重狀況如以非法方式取得人工智慧訓練用資料、明知或故意欺騙大眾造成嚴重或心理傷害或財產上重大損失,亦可能判處刑事監禁。

美國能源部協助企業投入再生能源研發,及促進商業化應用

  美國為鼓勵與促進企業進行再生能源之研發,能源部(Department of Energy,DOE)規劃協助企業投入再生能源研發,並期加速商業化應用。為此,能源部將推出協助措施及推動計畫,其計畫經費一部分由美國復甦與再投資法案(American Recovery and Reinvestment Act)出資,另一部分來自於今年度的預算撥款。其中,三十億美元資金協助計畫將建置將近五千項涵蓋生質能、太陽能、風力發電以及其他再生能源之生產設備,另一項七億五千萬美元資金協助將改善電力傳輸系統。能源部期盼這兩項資金協助計畫,將帶動再生能源之研發,並促進新興能源科技的商業化應用。   有關美國協助民間發展再生能源計畫,今(2009)年七月底,美國能源部已公佈相關資金協助申請作業程序,預計每項提出申請計畫平均約可獲得六十萬美元額度,目前尚未對一家公司的申請額度設有上限,也並未對其可動用之資金額度設有總額限制,預計這些計畫將鼓勵私人投資再生能源,創造未來就業機會,協助帶動美國經濟。   能源部部長Steven Chu表示,這些協助計畫將激發綠色能源科技的創新,確保未來再生能源的輸送更為安全有效率,並將帶來相關就業機會。政府方面已設定目標,預計未來三年內將增加再生能源生產至目前的雙倍。為達成此一目標,必須確保有效地資金挹注才能加速再生能源的發展,同時設置完備的電力傳輸系統,整合各類型的再生能源,如太陽能與風力發電,便於日後將所生產的能源傳送至各地。

TOP