美國2020年國防太空戰略(Defense Space Strategy)

  美國國防部於2020年6月17日發布「國防太空戰略」(Defense Space Strategy),作為確保美國維持其太空戰略優勢的發展藍圖。國防部長Mark T. Esper指出,一個安全、穩定且開放的太空領域是美國用以支持其國家安全、繁榮科學發展的基礎,然而在各國太空技術競逐之下,太空已儼然成為新的作戰領域(warfighting domain),對此美國應針對政策、策略、任務、投資、能力與專業等面向實施全面性的改革,「國防太空戰略」擘劃出美國如何在接下來的10年內達成其確保美國太空戰略優勢的目標。

  「國防太空戰略」提出三大目標:首先,國防部將支持並捍衛美國在太空中的軍事行動自由(freedom of operations),並遏止任何具有敵對意圖的使用以維持美國的太空優勢;其次,美國太空軍(U.S. Space Force)將運用其先進的國防太空技術優勢以協助美國及其盟友的太空軍事行動,並支持民間與商用太空技術產業發展;最後,美國將與盟友共同維持太空領域的穩定,防止任何侵略性的太空活動、建構國際公認的太空行為準則,並支持美國在太空交通與長期外太空活動的領導地位。

  為了達成上述三大目標,「國防太空戰略」提出四個優先行動方向,分別為:(1)藉由太空軍的組織改造整合資源,以應對敵對勢力的太空軍事行動並建立全面性的太空軍事優勢。(2)提升作戰層次,整合太空軍事力量包含任務、情報、技能與人員於國家與國際聯合軍事行動當中。(3)提升國際對於太空潛在威脅的重視,推動國際太空行為準則以打造太空戰略環境。(4)透過情報共享、研發與採購(research, development, and acquisition, RD&A)與盟友、合作夥伴、產業及其他政府部門合作,提出對於國家太空政策與國際太空行為準則的建議。

本文為「經濟部產業技術司科技專案成果」

相關連結
相關附件
※ 美國2020年國防太空戰略(Defense Space Strategy), 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8518&no=64&tp=5 (最後瀏覽日:2026/02/13)
引註此篇文章
你可能還會想看
FDA發佈人工智慧/機器學習行動計畫

  美國食品藥物管理署(U.S. Food & Drug Administration, FDA)在2021年1月12日發布有關人工智慧醫療器材上市管理的「人工智慧/機器學習行動計畫」(Artificial Intelligence/Machine Learning (AI/ML)-Based Software as a Medical Device (SaMD) Action Plan)。該行動計畫的制定背景係FDA認為上市後持續不斷更新演算法的機器學習醫療器材軟體(Software as Medical Device, SaMD),具有極高的診療潛力,將可有效改善醫療品質與病患福祉,因此自2019年以來,FDA嘗試提出新的上市後的監管框架構想,以突破現有醫療器材軟體需要「上市前鎖定演算法、上市後不得任意變更」的監管規定。   2019年4月,FDA發表了「使用人工智慧/機器學習演算法之醫療器材軟體變更之管理架構—討論文件」(Proposed Regulatory Framework for Modifications to Artificial Intelligence/Machine earning (AI/ML)-Based Software as a Medical Device (SaMD) - Discussion Paper and Request for Feedback)。此一諮詢性質的文件當中提出,將來廠商可在上市前審查階段提交「事先訂定之變更控制計畫」(pre-determined change control plan),闡明以下內容:(1)SaMD預先規範(SaMD Pre-Specification, SPS):包含此產品未來可能的變更類型(如:輸入資料、性能、適應症)、變更範圍;(2)演算法變更程序(Algorithm Change Protocol, ACP):包含變更對應之處理流程、風險控制措施,以及如何確保軟體變更後之安全及有效性。   根據「人工智慧/機器學習行動計畫」內容所述,「事先訂定之變更控制計畫」構想被多數(包含病患團體在內)的利害關係人肯認,並於相關諮詢會議當中提出完善的細部建言。FDA將根據收到的反饋意見,於2021年以前正式提出有關人工智慧/機器學習上市後監管的指引草案(Draft Guidance),並持續研究提高演算法透明度、避免演算法偏見的方法。

歐盟理事會將嚴格執行資料保護基本權

  歐洲理事會修訂「保護個人有關個人資料處理及自由流通規則(一般資料保護規則)」(Proposal for a Regulation of the European Parliament and of the Council on the protection of individuals with regard to the processing of personal data and on the free movement of such data (General Data Protection Regulation), GDPR),該草案內容包括行政罰鍰三審制(three-tiered system)。凡故意或過失違反歐洲資料保護基本權之企業,情節重大者,可能招致鉅額行政罰鍰,草案之裁罰性措施將讓從業者更加重視資料保護法益。   是否對違反GDPR之侵權行為裁處罰鍰,會員國政府有裁量權限;已受刑事制裁者,政府亦得免除罰鍰以避免重複處罰。資料保護主管機關(data protection authorities, DPAs)依三審制判斷,確保所裁處罰鍰具有效性、比例性及嚇阻性。三審制包括:第一審,是否對資料當事人之資料要求延遲、變更回應;第二審,是否對資料當事人、DPAs盡資訊透明義務;第三審,各種具體侵權行為,包括對於資料取得缺乏法律依據、未能即時告知資料違反情事,或未採取適當安全防衛措施於歐盟以外區域傳遞資料等。   依草案,DPAs審酌罰鍰額度時,應依下列計算罰鍰:   (1) 企業故意或過失未能於一定期間內,回應資料當事人之資料查閱請求者,裁處上一會計年度全球總年營業額0.5%罰鍰。   (2) 企業故意或過失未能提供任何或所有符合資料當事人要求之必要資訊;或未能對消費者充分揭露個人資料蒐集、處理的目的者,裁處上一會計年度全球總年營業額1%罰鍰。   (3) 企業故意或過失未能維護消費者權益,更正或刪除消費者資料,違反GDPR所保障之消費者「被遺忘權」者,裁處上一會計年度全球總年營業額1%罰鍰。   (4) 企業故意或過失處理個人資料,行為不具適法性、違反法規、沒有對當事人通知資料違反或將個人資料傳遞自歐盟以外區域,該區域沒有適當安全資料保護者,就企業上一會計年度全球總年營業額裁處2%罰鍰。   六月中旬,歐盟各部長將就歐洲議會、歐盟理事會的提案,就罰鍰額度進行最後協商,未來將持續關注草案協商後續發展。

美國參議院通過幹細胞研究加強法案,惟仍難逃被布希總統否決之命運

  美國參議院近日就是否開放聯邦經費挹注於胚胎幹細胞研究進行激辯,並於 17 日通過幹細胞研究加強法( Stem Cell Research Enhancement Act of 2005, HR 810) 及其他兩項亦涉及胚胎幹細胞研究的類似法案。其中最引人注目者為 HR 810 ,該法案允許以聯邦經費資助使用人工授精之剩餘胚或病患自願捐贈之胚胎,進行幹細胞研究。這些法案的通過顯示,美國參議院打算挑戰布希政府自 2001 年所立下禁止聯邦經費挹注於胚胎幹細胞研究的禁令。   其實早在去年五月,眾議院即以 238 票贊成、 194 票反對通過 HR 810 ,布希政府在眾議院通過 HR 810 後,隨即表示一旦本法在國會立法通過,將會動用否決權推翻此一法案。根據美國法律,法案唯有經參眾議院以三分之二以上多數通過,總統始不能否決之。日前參議院係以 63 票贊成、 37 票反對通過 HR 810 ,並未達三分之二多數通過,因此本法案未來恐難逃被布希總統否決的命運。白宮發言人業已表示,該法案強迫所有的美國納稅義務人出錢資助以故意破壞人類胚胎為基礎的研究行為,法案一旦送交總統,布希總統將會行使否決權,這將會是布希總統任內首度針對國會所通過的法案動用表決權。   儘管布希總統仍持一貫反對胚胎幹細胞研究的立場,不過,美國民眾卻有支持胚胎幹細胞研究的趨勢。一項最新民調顯示,每四名受訪者中,就有三名贊成將聯邦經費用於資助胚胎幹細胞的研究。隨著美國國會大選將於十一月中旬展開,預料胚胎幹細胞研究議題將會再度成為焦點。

歐盟執委會通過關於《人工智慧責任指令》之立法提案

  歐盟執委會(European Commission)於2022年9月28日通過《人工智慧責任指令》(AI Liability Directive)之立法提案,以補充2021年4月通過之《人工智慧法》草案(Artificial Intelligence Act)。鑑於人工智慧產品之不透明性、複雜性且具自主行為等多項特徵,受損害者往往難以舉證並獲得因人工智慧所造成之損害賠償,《人工智慧責任指令》立法提案即為促使因人工智慧而受有損害者,得以更容易獲得賠償,並減輕受損害者請求損害賠償之舉證責任。   《人工智慧責任指令》透過引入兩個主要方式:(一)可推翻之推定(rebuttable presumptions):人工智慧責任指令透過「因果關係推定(presumption of causality)」來減輕受損害者之舉證責任(burden of proof)。受損害者(不論是個人、企業或組織)若能證明人工智慧系統因過失或不遵守法規要求之義務,致其受有損害(包括基本權利在內之生命、健康、財產或隱私等),並且該損害與人工智慧系統之表現具有因果關係,法院即可推定該過失或不遵守義務之行為造成受損害者之損害。相對的,人工智慧之供應商或開發商等也可提供相關證據證明其過失不可能造成損害,或該損害係由其他原因所致,以推翻該損害之推定。(二)證據揭露機制(disclosure of evidence mechanism):若受害者之損害涉及高風險人工智慧時,得要求自該供應商或開發商等處獲取證據之權利。受害者透過證據揭露機制能夠較容易地尋求法律賠償,並得以找出究責的對象。   歐盟執委會認為以安全為導向的《人工智慧法》,為人工智慧訂定橫向規則,旨在降低風險和防止損害,但仍需要《人工智慧責任指令》之責任規定,以確保損害風險出現時,相關賠償得以被實現。但歐盟執委會仍選擇了較小的干預手段,《人工智慧責任指令》針對過失之責任制度進行改革,並未採取舉證責任倒置(a reversal of the burden of proof)之作法,而是透過「可推翻之推定」,一方面減輕受損害者之舉證責任,使受損害者得對影響人工智慧系統並產生過失或侵害行為之人提出損害賠償;另一方面賦予人工智慧之供應商或開發商等有機會推翻前揭造成損害之推定,以避免人工智慧系統之供應商或開發商面臨更高的責任風險,可能阻礙人工智慧產品和服務創新。

TOP