美國國防部5G戰略

  因應5G通訊技術快速發展與關鍵應用逐漸普及之趨勢,美國國防部於2020年5月2日由部長批准「國防部5G戰略」(Department of Defense 5G Strategy,以下簡稱5G戰略);同月發布之公開版(unclassified)5G戰略,為美國軍方第一份公開發布的5G戰略性指導文件,主要內容包含指出國防部面對5G帶來的挑戰、設定5G技術發展目標、擬定5G發展行動計畫(lines of effort)等,以確保美國在軍事與經濟上的優勢地位。

  5G戰略指出,5G技術對於維持美國軍事與經濟優勢至關重要,為關鍵戰略性科技(critical strategic technology)。5G技術為產業與軍事帶來重大變革的契機,同時也帶來對資通安全的挑戰,特別是由於美國潛在的競爭對手國家,正試圖在美國的關鍵合作夥伴國家的5G市場占據主導地位,使得5G基礎建設供應鏈成為競爭對手利用有害元件、惡意軟體或非法存取等方式入侵美國與其合作夥伴的破口,最終將損害美國的國家安全與利益。

  因此美國國防部將鼎力協助美國與其合作夥伴提升5G技術力、提高對5G的風險意識至國安層級、開發保護5G基礎設施與技術之措施。具體行動計畫包含:一、藉由大量的實驗場域驗證5G應用,推動技術發展;二、掌握5G資安威脅情報與威脅,評估、識別資安風險採取必要措施,並採取零信任(Zero Trust)反覆驗證之資安模式;三、積極加入5G技術相關標準訂定與規劃5G國防政策;四、吸引國際組織、國家與相關產業的合作夥伴,積極溝通協調以維持美國與合作夥伴間的共同利益,協助美國的盟友與合作夥伴識別5G風險。

本文為「經濟部產業技術司科技專案成果」

相關連結
相關附件
你可能會想參加
※ 美國國防部5G戰略, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8498&no=86&tp=1 (最後瀏覽日:2026/04/03)
引註此篇文章
你可能還會想看
歐盟執委會正式提案,授權各國決定是否開放種植基因改造作物

  歐盟執委會於7月13日正式提案,會員國得在各自領土範圍內決定准許、限制或全面禁止基因改造作物的栽種。執委會的提案內容包括對於基因改造作物與非基因改造作物的共存(在同一區域內栽種)管制建議,同時也提出修正條文草案建議供各國於修正各國內有關基因改造作物相關法律的參考。執委會的提案修正了歐盟2001/18/EC指令(Directive 2001/18/EC)使得各會員國可因地制宜考量,自行決定基因改造作物的允許栽種與否。   執委會的提案源自今年三月時對會員國的承諾。歐盟健康與消費政策委員會的主席表示,執委會此提案兌現了當時要在今年夏天結束歐盟各國對基因改造作物的爭議的承諾,此同時他也強調歐盟現行以科學為基礎的授權機制並非完全廢除,全面性的安全評估與監控系統仍繼續運作,這也是歐盟對基因改造作物耕種給予各國彈性措施的同時對安全基本把關的表現。   歐盟原有的規定訂有基因改造作物與非基因改造作物0.9%共存門檻(labellingthreshold,指由受驗作物全部基因中所含改造基因的比例判斷是否為基因改造作物的標準),各會員國必須立法採行有關措施(如作物田的間距)以符合該項要求。 但過去幾年的運作經驗發現,耕作非基因改造作物農民的潛在損失並不限於因為所產作物超過該門檻,某些案例中,基因改造有機物殘存於食品中,反而使得想要將食品以不含基因改造有機物產品販賣者造成損失。執委會新的建議案給予各國調整該共存門檻的權力,同時,各國也可以成立非基因改造專區等。2001/18/EC指令的修正條文(第26b條)將適用於所有的基因改造有機物,各國得自行決定限制或禁止其境內的基因改造作物耕種,無須執委會的授權,但須在境內措施施行一個月內通知歐盟各國及執委會。執委會的提案將在歐洲議會及歐洲理事會通過後正式施行。   對於此一即將於歐盟施行的新基因改造作物耕種規範,生技產業顯然有不同意見,依照生技業者協會EuropaBio的聲明,他們認為新規範充滿對新科學的偏見且阻礙農民的自由選擇權。基於產業的觀點,新的規範架構也有疑慮,例如:0.9%的門檻下放各國自行決定調整,往後將引起權責機關以及農民、買家、以及有關產業製造商之間的爭議;新措施也造成對歐盟內部市場的壁壘—造成歐盟境內國家的或區域的限制林立,而與歐盟的基本原則相悖;最後,對於科學的偏見與歐洲食品安全局(EFSA)的聲譽之影響也是一大隱憂。   歐盟對基因改造作物的立場一直尚未定調,新規範亦僅只是採取「下放」給各國自行決定的作法,惟實際上的運作,綜合當前對基因改造作物之安全性充滿疑慮與爭議的氛圍下,各國未來自行訂定規範將更寬或更嚴,後續發展如何有待密切觀察。

用ChatGPT找法院判決?從Roberto Mata v. Avianca, Inc.案淺析生成式AI之侷限

用ChatGPT找法院判決?從Roberto Mata v. Avianca, Inc.案淺析生成式AI之侷限 資訊工業策進會科技法律研究所 2023年09月08日 生成式AI是透過研究過去資料,以創造新內容和想法的AI技術,其應用領域包括文字、圖像及影音。以ChatGPT為例,OpenAI自2022年11月30日發布ChatGPT後,短短二個月內,全球月均用戶數即達到1億人,無疑成為民眾日常生活中最容易近用的AI科技。 惟,生成式AI大量使用後,其中的問題也逐漸浮現。例如,ChatGPT提供的回答僅是從所學習的資料中統整歸納,無法保證資料的正確性。Roberto Mata v. Avianca, Inc.案即是因律師利用ChatGPT撰寫訴狀,卻未重新審視其所提供判決之正確性,以致後續引發訴狀中所描述的判決不存在爭議。 壹、事件摘要 Roberto Mata v. Avianca, Inc.案[1]中,原告Roberto Mata於2019年8月搭乘哥倫比亞航空從薩爾瓦多飛往紐約,飛行過程中膝蓋遭空服員的推車撞傷,並於2022年2月向法院提起訴訟,要求哥倫比亞航空為空服員的疏失作出賠償;哥倫比亞航空則主張已超過《蒙特婁公約》(Montreal Convention)第35條所訂之航空器抵達日起兩年內向法院提出損害賠償之請求時效。 R然而,法院審理過程中發現原告訴狀內引用之六個判決無法從判決系統中查詢,進而質疑判決之真實性。原告律師Steven A. Schwartz因而坦承訴狀中引用的六個判決是ChatGPT所提供,並宣稱針對ChatGPT所提供的判決,曾多次向ChatGPT確認該判決之正確性[2]。 貳、生成式AI應用之潛在風險 雖然運用生成式AI技術並結合自身專業知識執行特定任務,可能有助於提升效率,惟,從前述Roberto Mata v. Avianca, Inc.案亦可看出,依目前生成式AI技術之發展,仍可能產生資訊正確性疑慮。以下彙整生成式AI應用之8大潛在風險[3]: 一、能源使用及對環境危害 相較於傳統機器學習,生成式AI模型訓練將耗費更多運算資源與能源。根據波士頓大學電腦科學系Kate Saenko副教授表示,OpenAI的GPT-3模型擁有1,750億個參數,約會消耗1,287兆瓦/時的電力,並排放552噸二氧化碳。亦即,每當向生成式AI下一個指令,其所消耗的能源量相較於一般搜尋引擎將可能高出4至5倍[4]。 二、能力超出預期(Capability Overhang) 運算系統的黑盒子可能發展出超乎開發人員或使用者想像的隱藏功能,此發展將會對人類帶來新的助力還是成為危險的阻力,則會隨著使用者之間的相互作用而定。 三、輸出結果有偏見 生成式AI通常是利用公開資料進行訓練,若輸入資料在訓練時未受監督,而帶有真實世界既存的刻板印象(如語言、種族、性別、性取向、能力、文化等),據此建立之AI模型輸出結果可能帶有偏見。 四、智慧財產權疑慮 生成式AI進行模型訓練時,需仰賴大量網路資料或從其他大型資料庫蒐集訓練資料。然而,若原始資料來源不明確,可能引發取得資料未經同意或違反授權條款之疑慮,導致生成的內容存在侵權風險。 五、缺乏驗證事實功能 生成式AI時常提供看似正確卻與實際情形不符的回覆,若使用者誤信該答案即可能帶來風險。另外,生成式AI屬於持續動態發展的資訊生態系統,當產出結果有偏誤時,若沒有大規模的人為干預恐難以有效解決此問題。 六、數位犯罪增加與資安攻擊 過去由人工產製的釣魚郵件或網站可能受限於技術限制而容易被識破,然而,生成式AI能夠快速建立具高度說服力的各種擬真資料,降低詐騙的進入門檻。又,駭客亦有可能在不熟悉技術的情況下,利用AI進一步找出資安弱點或攻擊方法,增加防禦難度。 七、敏感資料外洩 使用雲端服務提供商所建立的生成式AI時,由於輸入的資料存儲於外部伺服器,若要追蹤或刪除有一定難度,若遭有心人士利用而導致濫用、攻擊或竄改,將可能產生資料外洩的風險。 八、影子AI(Shadow AI) 影子AI係指開發者未知或無法控制之AI使用情境。隨著AI模型複雜性增加,若開發人員與使用者未進行充分溝通,或使用者在未經充分指導下使用 AI 工具,將可能產生無法預期之風險。 參、事件評析 在Roberto Mata v. Avianca, Inc.案中,法院關注的焦點在於律師的行為,而非對AI技術使用的批判。法院認為,隨著技術的進步,利用可信賴的AI工具作為協助用途並無不當,惟,律師應踐行其專業素養,確保所提交文件之正確性[5]。 當AI科技發展逐漸朝向自主與獨立的方向前進,仍需注意生成式AI使用上之侷限。當個人在使用生成式AI時,需具備獨立思考判斷的能力,並驗證產出結果之正確性,不宜全盤接受生成式AI提供之回答。針對企業或具高度專業領域人士使用生成式AI時,除確認結果正確性外,更需注意資料保護及治理議題,例如建立AI工具合理使用情境及加強員工使用相關工具之教育訓練。在成本能負擔的情況下,可選擇透過企業內部的基礎設施訓練AI模型,或是在訓練模型前確保敏感資料已經加密或匿名。並應注意自身行業領域相關法規之更新或頒布,以適時調整資料使用之方式。 雖目前生成式AI仍有其使用之侷限,仍應抱持開放的態度,在技術使用與風險預防之間取得平衡,以能夠在技術發展的同時,更好地學習新興科技工具之使用。 [1]Mata v. Avianca, Inc., 1:22-cv-01461, (S.D.N.Y.). [2]Benjamin Weiser, Here’s What Happens When Your Lawyer Uses ChatGPT, The New York Times, May 27, 2023, https://www.nytimes.com/2023/05/27/nyregion/avianca-airline-lawsuit-chatgpt.html (last visited Aug. 4, 2023). [3]Boston Consulting Group [BCG], The CEO’s Roadmap on Generative AI (Mar. 2023), https://media-publications.bcg.com/BCG-Executive-Perspectives-CEOs-Roadmap-on-Generative-AI.pdf (last visited Aug. 29, 2023). [4]Kate Saenko, Is generative AI bad for the environment? A computer scientist explains the carbon footprint of ChatGPT and its cousins, The Conversation (May 23, 2023.), https://theconversation.com/is-generative-ai-bad-for-the-environment-a-computer-scientist-explains-the-carbon-footprint-of-chatgpt-and-its-cousins-204096 (last visited Sep. 7, 2023). [5]Robert Lufrano, ChatGPT and the Limits of AI in Legal Research, National Law Review, Volume XIII, Number 195 (Mar. 2023), https://www.natlawreview.com/article/chatgpt-and-limits-ai-legal-research (last visited Aug. 29, 2023).

歐盟將修正公部門資訊再利用(PSI)指令

  2019年1月22日,歐盟執委會(European Commission)、歐洲議會(European Parliament)與歐盟理事會(Council of the EU)就修正「公部門資訊再利用指令」(The Directive on the re-use of public sector information,PSI Directive)的提案達成協議。歐洲議會則於4月4日通過提案,待歐盟理事會簽署正式的指令。   PSI Directive經過2003年制定(Directive 2003/98/EC)、2013年修正(Directive 2013/37/EU),於2017年為了履行指令規定的定期審查義務,召開了公眾線上諮詢,之後歐盟執委會根據諮詢結果及對指令的影響評估,於2018年4月25日通過修訂指令的提案,並於2019年1月達成協議。   此次修正將該指令更名為「開放資料與公部門資訊指令」(The Directive on the Open Data and Public Sector Information,以下稱新指令),預計能排除目前仍存在的公部門資訊取得障礙,並且要求將政府資助研究所產出的研究資料(publicly funded research data)也開放給公眾。此次修正的重點內容如下: 1、所有依據國家取用文件規定(national access to documents rules)下可取用的公部門資訊,原則上可以免費再利用,或者公部門可以收取為了提供、傳播資料所產出的費用,但該費用以不超過邊際成本(marginal costs)為限。這項改變,將使更多的中小企業和新成立公司能順利進入資料經濟市場。 2、新指令特別指出統計資料或地理空間資料屬於高價值資料集(high-value datasets),這些資料集具有高商業潛力,可以加速各種資訊產品或增值服務的產出,例如人工智慧。而新指令特別要求這些資料集應免費提供、使機器可讀,且透過應用程式介面(APIs)使他人能取用。但經評估後發現免費提供會造成市場競爭扭曲時,則不在此限。 3、關於公營事業及公共運輸所產生的有價值資料,不在現行PSI Directive規範範圍內,而各國對於是否必須提供資料有著不同的規定,但現在都必須依照新指令的規定使公眾可以免費再利用,不過仍可設定合理規費來收回相關行政費用。 4、有些公部門與私人企業制定了複雜的資料協定,導致公部門資訊被壟斷,新指令則要求各會員國應落實資訊透明,以及限制公部門與私部門訂立排除其他人可再利用公部門資訊的協定。 5、促進公部門資訊以動態即時資料方式發布,並透過使用者介面(APIs)使更多動態即時資料能被使用。而這也將使企業發展創新產品或服務,例如行動APP。 6、關於政府資助的研究,新指令將促進「政府資助研究而產出的研究資料」能更容易的被再利用,故各成員國被要求建立一致的再利用政策,使這些研究資料能透過資料庫(repository)被開放取用(open access),包含先前已經存入該資料庫的資料。   總而言之,本次修正將能夠降低中小企業進入市場的障礙,並增加公部門資訊的透明度和即時流通,也使公營事業資訊及政府出資研究所產出的研究資料能納入開放資料的範疇。

新加坡以親商政策及稅務優惠等措施提升新創生態系競爭力位居亞洲第一

全球創新研究平台StartupBlink 於2025年5月20日發布《2025全球新創生態系指數》(Global Startup Ecosystem Index 2025),分析與評比全球118個國家及1,473座城市新創生態系之數量、品質與商業環境。其中新加坡自2021年起全球排名不斷攀升,於2022年起佔據亞洲第1之寶座,截至2025年更躍升全球第4,僅位居美國、英國及以色列之後。 新加坡新創生態系之競爭力優勢如下: 1、穩定金融環境:企業與銀行具備充足流動資本與健康償債能力。 2、親商環境制度:新加坡政府以全球創業者計畫(Global Founder Programme, GFP),提供便利簽證、產業人脈引介等多方面支持,吸引經驗豐富之創辦人至新加坡創業。 3、優惠稅務措施:因應全球最低稅負制度,增訂「可退還投資抵減」(Refundable Investment Credit, RIC),針對促進新加坡經濟或提升新興產業成長為重大投資之公司,可扣抵企業應納之稅負。 4、推動產學合作:新加坡學術界除了積極培育高素質人才進行研發外,亦提供專業知識諮詢、產業交流機會,及海外業務拓展之協助,積極推動產學合作,使校園成為創業之溫床。 2025年全球新創生態系面臨兩大衝擊,即AI技術的崛起與迅速更跌,與複雜多變的地緣政治,促使政府須在詭譎的全球局勢中,因應情勢調整國家發展策略,推動新創持續成長。而新加坡政府及學術研究機關均致力推動新創政策,加上充足的基礎設施,吸引大量國際人才與投資,進而促使該國新創生態系之蓬勃發展。

TOP