由於美國近年來透過太空系統進行通訊、定位導航、太空探索及國防等多方面應用,為避免太空系統受到網路威脅,白宮於2020年9月4日發布《太空政策第5號指令》(Space Policy Directive-5,SPD-5),該指令主要關注太空系統的網路安全,將現有地面使用的網路安全政策應用在太空系統中,旨在提高美國太空設施網路安全。
SPD-5指令建立以下五項太空網路安全原則,作為指導政府及民間單位提高太空系統網路安全的方法:
一、太空系統及相關軟硬體設施,應使用以風險等級為基礎的方式,進行開發運作並建構其網路安全系統。
二、太空系統營運商應制定太空系統網路安全計畫(應包含防止未經授權的存取行為、防止通訊干擾、確保地面接收系統免受網路威脅、供應鏈的風險管理等功能),以確保能掌握對太空系統的控制權。
三、監管機構應訂定規則或監管指南來實施SPD-5指令的原則。
四、太空系統的營運商及其合作對象應共同推動SPD-5指令,並盡力減少網路威脅的發生。
五、太空系統營運商在執行太空系統網路安全的保護措施時,應管理其風險承擔能力。
儘管SPD-5指令並未指示特定機構執行上開原則,但已有美國聯邦通信委員會將SPD-5之網路安全原則納入其法規中,未來SPD-5指令將有可能作為美國太空網路安全措施及法規訂定的基礎。
歐盟執委會(European Commission)在2014年5月28日提出源安全政策,此係歐洲針對各個會員國的能源依賴程度進行調查後所提出之政策。 歐洲多數國家對於能源需求有超過50%仰賴進口,且近來烏克蘭與俄羅斯政治紛爭引起許多的關注,尤其在天然氣使用部分,多半從俄羅斯透過管線運送方式進口,因此可能產生的能源短缺危機不容忽視。為此,歐盟再次針對能源使用的安全性問題提出政策方針。 政策訂定之目標可分為八項,分別為短期、中期及長期三個階段,每階段皆應採取具體執行措施,以因應能源安全問題: 強化能力,克服2014年及2015年冬天將面臨的能源短缺問題。 加強緊急應變措施,包括風險評估、偶發事件計畫以及維持既有的公共設施。 減緩能源的需求 建構具良好功能與全面整合的內部市場 增加歐盟地區的能源產出 進一步發展能源科技 使提供能源的來源國家以及相關公共設施多樣化 促進國家間能源政策的合作,並和外部交流。 其中,具體的措施包括執委會利用能源安全壓力測試(energy security stress test)模擬仿冬天天然氣供應短缺的問題,採用逆流(reverse flows)輸送、使用化石燃料替代能源、增加可提供出口能源的國家,不再侷限俄羅斯、阿爾及利亞、利比亞以及挪威國家等等。 此項政策後續的相關計畫內容已於6月26日及27日由歐盟由各國代表出席歐盟執委會會議討論,其是否能解決歐洲能源短缺問題,作為其他國家之參考借鏡,值得觀察。
日本內閣府公開徵集「研究安全和風險管理系統開發支援計畫」,加強研究安全保障日本內閣府公開徵集「研究安全和風險管理系統開發支援計畫」,加強研究安全保障 資訊工業策進會科技法律研究所 2025年03月10日 壹、事件摘要 內閣府科學技術創新推進事務局(科学技術・イノベーション推進事務局),於2025年2月19日發布公告,自2025年2月19日至3月24日公開徵集國內負責經濟安全重要技術的補助機關和研究機構加入「研究安全和風險管理系統開發支援計畫」 [1](研究セキュリティ・インテグリティに関するリスクマネジメント体制整備支援事業,下簡稱研究安全計畫),以加強研究安全之保障。 貳、重點說明 日本曾發生研究者在不知情的情形下與北韓研究者共著論文而危害研究安全事件,根據日本經濟新聞2024年11月28日報導,自2016年底北韓受到聯合國加強制裁以來,共有八篇北韓研究機構的國際共著論文發表,包含東京大學、名古屋大學等日本五所大學的研究者皆在共同著作者之列,雖研究者皆表示與北韓無聯繫,但此行為仍可能違反聯合國制裁規定,且一名涉及本事件的研究者在論文發表後,仍被任命為國內主導研究計畫的主持人,負責百億日圓預算及先進技術的管理,顯示日本研究安全管理問題[2]。 為避免類似事件發生及提升日本科技實力,以及配合G7國家關於研究安全與誠信的政策,內閣府公開徵集負責經濟安全重要技術的補助機關和研究機構加入研究安全計畫。該計畫將蒐集與分析國際合作研究所需的公開資訊,並整合後於2025年出版「研究安全與誠信程序手冊」(RS/RI に関する手順書)。 所謂經濟安全重要技術,係指《促進特定重要技術研發及適當運用成果基本指南》(特定重要技術の研究開発の促進及びその成果の適切な活用に関する基本指針)所列,包含AI、生物技術等先進技術領域[3],內閣府將透過此計畫驗證學研機構所實施之研究安全與誠信措施是否得宜,並與學研機構分享典範實務,參考政府制定的研究安全與誠信規範,提出分析與改善方法。 研究安全計畫將支援日本國內研究機構和其他處理對經濟安全重要技術的機關,在國內外開展聯合研究時採取必要的技術外流防止措施,一方面提供分析資源,如協助分析研究人員及研究機構的公開資訊(職業經歷、其他工作以及研究資金流向等),另一方面支援實施風險管理的相關費用,並針對整體防止技術外流的風險控管體系進行評估後給予建議[4]。 研究安全計畫參與對象為補助研發之機關及領取補助進行研究開發的機構(如公立研究機構、研究開發公司、大學等),且應有足夠能力執行完整風險控管計畫。另計畫評選期間,研究機構不得有內閣府所定停止補助、停止推薦等情形[5]。 內閣府為結合國家政策與國際標準,全面提升日本在經濟安全重要技術領域的研究安全與誠信管理能力,透過分析與資金支援,協助研究機構構建完善的風險控管體系,確保研究中的技術外流防範措施得以落實。此舉不僅為日本科技實力的長期發展奠定基石,亦為維護國家經濟安全及國際信譽提供堅實保障。 參、事件評析 近年研究安全成為國際間之重要議題,為防止技術外流,各國亦有許多政策,如美國國家科學基金會(National Science Foundation, NSF)啟動「保護美國研究生態系統社群 」[6](Safeguarding the Entire Community of the U.S. Research Ecosystem, SECURE)計畫,並成立 SECURE 中心;加拿大政府公告「三機構關於敏感技術研究和關注從屬性政策指南」[7](Tri agency guidance on the Policy on Sensitive Technology Research and Affiliations of Concern, STRAC Policy)等,在如此趨勢下,日本亦開始注重研究安全之保障。 日本內閣府此次推動研究安全計畫,顯示日本政府已深刻意識到研究安全議題的迫切性與重要性。隨著全球科技競爭日益激烈,國際間的技術交流與合作頻繁,但也伴隨著技術外流、竊取敏感研究資訊等風險。尤其是北韓等受國際制裁國家,可能透過隱匿身分或間接合作的方式,取得敏感資訊,對國際社會的安全構成潛在威脅。 日本政府推動研究安全計畫,透過提供分析資源、資金支援及風險控管體系的評估建議,協助研究機構建立完善的防範機制,期望透過以上防範機制,全面提升日本在研究安全管理能力,並確保技術外流防範措施得以落實。 然而,此計畫的推動仍存在一些挑戰與考量。首先,如何在確保研究安全與維護學術自由之間取得平衡,避免過度限制造成研究自主性與創新能力的損害,將是重要課題。此外,背景審查與資訊分析機制的建置,需注意個人隱私保護,避免引發研究人員的反彈與抵制。再者,國際合作研究的審查程序若過於繁瑣,也可能影響日本研究機構與國際間的合作意願,甚至對國際學術地位造成負面影響。 因此,日本政府在推動此項政策時,應積極參考美國、加拿大等國的經驗,建立透明且具彈性的管理制度,並與國際夥伴保持密切溝通,協調一致的研究安全標準,避免孤立於國際科研社群之外。綜上所述,日本此次行動對於提升國內研究安全與誠信管理能力,並維護國家經濟安全,具有正面且積極的意義,未來仍需持續關注政策推行的成效與後續調整方向,以達成長期穩健的發展目標。 [1]〈研究セキュリティ・インテグリティに関するリスクマネジメント体制整備支援事業の公募について〉,內閣府,https://www8.cao.go.jp/cstp/kokusaiteki/integrity/kobo_r7.html (最後瀏覽日:2025/3/10)。 [2]日本経済新聞,〈東大など5大学、知らずに北朝鮮と共同研究 「寝耳に水」〉, 20254/11/28,https://www.nikkei.com/article/DGXZQOUE293WI0Z20C24A1000000/ (最後瀏覽日:2025/3/10)。 [3]〈特定重要技術の研究開発の促進及びその成果の適切な活用に関する基本指針〉,內閣府,https://www.cao.go.jp/keizai_anzen_hosho/suishinhou/doc/kihonshishin3.pdf (最後瀏覽日:2025/3/10)。 [4]〈研究セキュリティ・インテグリティに関するリスクマネジメント体制整備支援事業公募要領〉,內閣府,頁3,https://www8.cao.go.jp/cstp/kokusaiteki/integrity/kobo_r7/kobo_r7.pdf (最後瀏覽日:2025/3/10)。 [5]同前註,頁4。 [6]NSF-backed SECURE Center will support research security, international collaboration, US National Science Foundation, https://www.nsf.gov/news/nsf-backed-secure-center-will-support-research (last visited Mar. 10, 2025). [7]Tri-agency guidance on the Policy on Sensitive Technology Research and Affiliations of Concern (STRAC Policy), Natural Sciences and Engineering Research Council of Canada, https://www.nserc-crsng.gc.ca/InterAgency-Interorganismes/RS-SR/strac-rtsap_eng.asp (last visited Mar. 10, 2025).
數位資產正式納入美國懷俄明州州法,並將虛擬貨幣視為金錢美國懷俄明州(Wyoming)於2019年1月18日提出S.F. 0125法案,經參眾議院三讀及州長簽署通過後,將在同年7月1日生效,代表數位資產(digital assets)正式納入懷俄明州州法第34編第29章。該法定義數位資產為表彰經濟性、所有權或近用權,並儲存於可供電腦讀取之格式(computer readable format)中,又區分為數位消費資產(digital consumer assets)、數位證券(digital securities)及虛擬貨幣(virtual currency)等三類。 數位消費資產,是指為了消費、個人或家用目的使用或購買的數位資產,包含:(1)除法律另有規定外,開放區塊鏈代幣(open blockchain tokens)視為個人無形資產(intangible personal property),(2)非屬本章數位證券和虛擬貨幣範圍內之數位資產;數位證券則是指符合懷俄明州州法第17編第4章有價證券定義的數位資產,但排除數位消費資產及虛擬貨幣;又,虛擬貨幣是指使用數位資產作為交易媒介(medium of exchange)、記帳單位(unit of account)或具儲存價值(store of value),且尚未被美國政府視為法定貨幣(legal tender)。 本次修法規定數位資產均為個人無形資產,另將數位消費資產視為該州州法下之一般無形資產,數位證券視為該州州法下之有價證券及投資性財產,虛擬貨幣則視為金錢,有論者表示本次修法有助於促進數位資產流通,並鼓勵各州跟進修法。然此舉是否有助於該州推行數位資產產業,尚待持續觀測,始能得知其對業界與政府監管所造成之影響。
用ChatGPT找法院判決?從Roberto Mata v. Avianca, Inc.案淺析生成式AI之侷限用ChatGPT找法院判決?從Roberto Mata v. Avianca, Inc.案淺析生成式AI之侷限 資訊工業策進會科技法律研究所 2023年09月08日 生成式AI是透過研究過去資料,以創造新內容和想法的AI技術,其應用領域包括文字、圖像及影音。以ChatGPT為例,OpenAI自2022年11月30日發布ChatGPT後,短短二個月內,全球月均用戶數即達到1億人,無疑成為民眾日常生活中最容易近用的AI科技。 惟,生成式AI大量使用後,其中的問題也逐漸浮現。例如,ChatGPT提供的回答僅是從所學習的資料中統整歸納,無法保證資料的正確性。Roberto Mata v. Avianca, Inc.案即是因律師利用ChatGPT撰寫訴狀,卻未重新審視其所提供判決之正確性,以致後續引發訴狀中所描述的判決不存在爭議。 壹、事件摘要 Roberto Mata v. Avianca, Inc.案[1]中,原告Roberto Mata於2019年8月搭乘哥倫比亞航空從薩爾瓦多飛往紐約,飛行過程中膝蓋遭空服員的推車撞傷,並於2022年2月向法院提起訴訟,要求哥倫比亞航空為空服員的疏失作出賠償;哥倫比亞航空則主張已超過《蒙特婁公約》(Montreal Convention)第35條所訂之航空器抵達日起兩年內向法院提出損害賠償之請求時效。 R然而,法院審理過程中發現原告訴狀內引用之六個判決無法從判決系統中查詢,進而質疑判決之真實性。原告律師Steven A. Schwartz因而坦承訴狀中引用的六個判決是ChatGPT所提供,並宣稱針對ChatGPT所提供的判決,曾多次向ChatGPT確認該判決之正確性[2]。 貳、生成式AI應用之潛在風險 雖然運用生成式AI技術並結合自身專業知識執行特定任務,可能有助於提升效率,惟,從前述Roberto Mata v. Avianca, Inc.案亦可看出,依目前生成式AI技術之發展,仍可能產生資訊正確性疑慮。以下彙整生成式AI應用之8大潛在風險[3]: 一、能源使用及對環境危害 相較於傳統機器學習,生成式AI模型訓練將耗費更多運算資源與能源。根據波士頓大學電腦科學系Kate Saenko副教授表示,OpenAI的GPT-3模型擁有1,750億個參數,約會消耗1,287兆瓦/時的電力,並排放552噸二氧化碳。亦即,每當向生成式AI下一個指令,其所消耗的能源量相較於一般搜尋引擎將可能高出4至5倍[4]。 二、能力超出預期(Capability Overhang) 運算系統的黑盒子可能發展出超乎開發人員或使用者想像的隱藏功能,此發展將會對人類帶來新的助力還是成為危險的阻力,則會隨著使用者之間的相互作用而定。 三、輸出結果有偏見 生成式AI通常是利用公開資料進行訓練,若輸入資料在訓練時未受監督,而帶有真實世界既存的刻板印象(如語言、種族、性別、性取向、能力、文化等),據此建立之AI模型輸出結果可能帶有偏見。 四、智慧財產權疑慮 生成式AI進行模型訓練時,需仰賴大量網路資料或從其他大型資料庫蒐集訓練資料。然而,若原始資料來源不明確,可能引發取得資料未經同意或違反授權條款之疑慮,導致生成的內容存在侵權風險。 五、缺乏驗證事實功能 生成式AI時常提供看似正確卻與實際情形不符的回覆,若使用者誤信該答案即可能帶來風險。另外,生成式AI屬於持續動態發展的資訊生態系統,當產出結果有偏誤時,若沒有大規模的人為干預恐難以有效解決此問題。 六、數位犯罪增加與資安攻擊 過去由人工產製的釣魚郵件或網站可能受限於技術限制而容易被識破,然而,生成式AI能夠快速建立具高度說服力的各種擬真資料,降低詐騙的進入門檻。又,駭客亦有可能在不熟悉技術的情況下,利用AI進一步找出資安弱點或攻擊方法,增加防禦難度。 七、敏感資料外洩 使用雲端服務提供商所建立的生成式AI時,由於輸入的資料存儲於外部伺服器,若要追蹤或刪除有一定難度,若遭有心人士利用而導致濫用、攻擊或竄改,將可能產生資料外洩的風險。 八、影子AI(Shadow AI) 影子AI係指開發者未知或無法控制之AI使用情境。隨著AI模型複雜性增加,若開發人員與使用者未進行充分溝通,或使用者在未經充分指導下使用 AI 工具,將可能產生無法預期之風險。 參、事件評析 在Roberto Mata v. Avianca, Inc.案中,法院關注的焦點在於律師的行為,而非對AI技術使用的批判。法院認為,隨著技術的進步,利用可信賴的AI工具作為協助用途並無不當,惟,律師應踐行其專業素養,確保所提交文件之正確性[5]。 當AI科技發展逐漸朝向自主與獨立的方向前進,仍需注意生成式AI使用上之侷限。當個人在使用生成式AI時,需具備獨立思考判斷的能力,並驗證產出結果之正確性,不宜全盤接受生成式AI提供之回答。針對企業或具高度專業領域人士使用生成式AI時,除確認結果正確性外,更需注意資料保護及治理議題,例如建立AI工具合理使用情境及加強員工使用相關工具之教育訓練。在成本能負擔的情況下,可選擇透過企業內部的基礎設施訓練AI模型,或是在訓練模型前確保敏感資料已經加密或匿名。並應注意自身行業領域相關法規之更新或頒布,以適時調整資料使用之方式。 雖目前生成式AI仍有其使用之侷限,仍應抱持開放的態度,在技術使用與風險預防之間取得平衡,以能夠在技術發展的同時,更好地學習新興科技工具之使用。 [1]Mata v. Avianca, Inc., 1:22-cv-01461, (S.D.N.Y.). [2]Benjamin Weiser, Here’s What Happens When Your Lawyer Uses ChatGPT, The New York Times, May 27, 2023, https://www.nytimes.com/2023/05/27/nyregion/avianca-airline-lawsuit-chatgpt.html (last visited Aug. 4, 2023). [3]Boston Consulting Group [BCG], The CEO’s Roadmap on Generative AI (Mar. 2023), https://media-publications.bcg.com/BCG-Executive-Perspectives-CEOs-Roadmap-on-Generative-AI.pdf (last visited Aug. 29, 2023). [4]Kate Saenko, Is generative AI bad for the environment? A computer scientist explains the carbon footprint of ChatGPT and its cousins, The Conversation (May 23, 2023.), https://theconversation.com/is-generative-ai-bad-for-the-environment-a-computer-scientist-explains-the-carbon-footprint-of-chatgpt-and-its-cousins-204096 (last visited Sep. 7, 2023). [5]Robert Lufrano, ChatGPT and the Limits of AI in Legal Research, National Law Review, Volume XIII, Number 195 (Mar. 2023), https://www.natlawreview.com/article/chatgpt-and-limits-ai-legal-research (last visited Aug. 29, 2023).