歐盟執委會提出《歐盟數位十年網路安全戰略》

  歐盟執委會於2020年12月16日針對未來十年歐盟數位發展,提出《歐盟數位十年網路安全戰略》(The EU's Cybersecurity Strategy for the Digital Decade),以支持塑造歐盟的數位未來(Shaping Europe's Digital Future)、歐洲復甦計畫(Recovery Plan for Europe)和歐洲安全聯盟(EU Security Union Strategy)。該戰略說明應如何加強歐盟共同抵禦面對網路攻擊的應變能力,並確保民眾及企業都能在可信賴的數位服務中受益。

  由於COVID-19大流行,加速工作模式的變化,2020年歐盟約有40%的民眾遠距辦公,而同年網路犯罪對全球經濟造成的影響估計達到5.5億歐元。因此,為維護全球開放網路的穩定運作,在保護網路安全的同時,亦應保護歐盟的共同價值觀與人民的基本權利,在監管、投資與政策上提出三點建議:

  1. 韌性、技術主權和領導(Resilience, Technological Sovereignty and Leadership):根據網路與資訊系統安全指令(Directive on Security of Network and Information Systems, NIS Directive)修訂更嚴格的監管措施,改善網路和資訊系統的安全。並建立由AI推動的資安監控中心(AI-enabled Security Operation Centres),及時避免網路攻擊。
  2. 建立防禦、嚇阻和應變能力(Building Operational Capacity to Prevent, Deter and Respond):逐步建立歐盟聯合網路安全部門,加強歐盟各成員國之間的合作,以提高面對跨境網路攻擊時的應變能力。
  3. 透過加強合作促進全球開放網路空間(Advancing a Global and Open Cyberspace):希望與聯合國等國際組織合作,透過外部力量共同建立全球網路安全政策,以維護全球網路空間的穩定及安全。

相關連結
你可能會想參加
※ 歐盟執委會提出《歐盟數位十年網路安全戰略》, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8602&no=57&tp=1 (最後瀏覽日:2026/01/25)
引註此篇文章
你可能還會想看
聯合國討論網路身份管理計畫

  聯合國國家安全組織(U.N. National Security Agency)計畫於一項名為Q6/17之「網路使用者身份管理計畫」提案中,討論如何以修改網路架構之方式,確保網路通訊來源之真實性與可追溯性。此項計畫被認為可能對網路匿名性產生極大衝擊。   目前網路所賴以溝通訊息之TCP/IP通訊架構,仍允許使用者於一定範圍內保有於網路上匿名發言或活動之可能,例如Tor線上匿名軟體(Tor: anonymity online)之運作即是。然而,此種匿名式的運作架構,被抨擊可能威脅網路安全,例如駭客可利用大量偽造來源地址(spoofed source IP addresses),發動分散式阻斷服務(DDoS)攻擊。   有鑑於此,Q6/17提案乃嘗試藉由網路連線技術架構的調整,確保未來任何網路上之活動皆可追蹤出原始網路通訊來源(“IP Trackback”)。然而,此種作法被批評為將摧毀網路匿名特性,並對個人隱私造成侵害,或成為各國政府打擊政治異議人士的工具。發表匿名言論權利曾受許多國家憲法或國際條約的肯認,例如1995年美國最高法院於McIntyre v. Ohio Elections Commission一案,做出「匿名發表權乃受憲法保護之人民基本權」見解,歐盟亦有「網路通訊自由宣言(Declaration on Freedom of Communication on the Internet)」。故Q6/17嘗試消弭發表網路匿名言論之技術突破,是否能通過世界各國憲法之嚴格檢驗,仍值得後續關注研究。

澳洲政府發布國家區塊鏈路線圖,建立澳洲區塊鏈技術發展策略與目標

  澳洲產業創新科技部(Department of Industry, Innovation and Science)於2020年2月7日發布「國家區塊鏈路線圖:向區塊鏈賦能之未來前進(National Blockchain Roadmap: Progressing towards a blockchain-empowered future)」政策文件。此路線圖為澳洲政府為彰顯其對區塊鏈技術之重視,並認知到區塊鏈與其他科技結合後將可進一步增進工作機會、促進經濟成長、減少商業成本與提升整體生產力,因此提出之區塊鏈發展方向規劃。   本路線圖文件指出,為實現區塊鏈技術,澳洲政府將於三個關鍵領域建立相關策略:一、建立有效且合理的規範與標準;二、建立可驅動創新之技術與能力;以及三、促進國際投資與合作。   路線圖文件並針對2020至2025年之區塊鏈發展進行規劃,相關措施包含: 重新命名國家區塊鏈諮詢委員會為國家區塊鏈路線圖推動委員會,並使其具有監督路線圖推動之職權。 建立由產業、研究團隊以及政府合作之團隊,以分析未來可能之應用案例。 對目前使用案例進行經濟分析與研究可能措施選項。 建立與連結政府端區塊鏈使用者,以促進學習交流與進一步應用。 進行國際研究以辨識出其他國家中適合學習做為政府服務之實際案例。 與區塊鏈服務提供商密切合作進行商業創新研究,以提出可供實際案例運用之解決方案。 確保區塊鏈發展涵蓋於整體國家策略中以促進數位科技能力管理。 使產業與教育機構合作發展關於區塊鏈資格技能之共同框架與課程內容。 為澳洲區塊鏈新創公司提出能力發展協助計畫,使其可向全球擴張並與支持合格企業。 引導外資投資以促進澳洲區塊鏈生態系建立。 引導既有雙邊協議進行區塊鏈前端計畫之合作與發展。 增加政府部門合作以確保澳洲企業可與發展中之新興數位貿易基礎設施進行連結等。   澳洲政府期待透過推動本路線圖與結合先前提出之AI路線圖政策,達成於2030年前成為數位經濟國家之目標。

協助產業因應歐盟EuP指令之推動情形

  繼歐盟實施 WEEE 和 RoHS 指令掀起一股綠色風潮之後,歐盟又將啟動能源使用產品生態化設計指令 (Directive of Eco-design Requirements of Energy-using Products ,簡稱 EuP 指令),該指令協調歐盟產品環保設計的通則與標準,要求耗能產品(運輸工具除外)採取以內部設計管制或管理系統評估的方式,進行評鑑以證明其符合這項指令之規定,並取得 CE Marking 的符合性宣告,產品方能在歐盟境內上市。歐盟要求各會員國應於 2007 年 8 月前完成國內立法。   EuP 指令要求產品製造商須採用生命週期( Life Cycle )的思考方式,將生態化設計的要求 (Rrequirement of Eco-Design) 融入產品設計開發之中,藉此提高產品效能,增加能源供應的安全性,並達到高度環保要求。雖然目前歐盟尚未公告各項產品之生態化設計要求,但初期已列出包括:加熱與鍋爐設備、辦公事務設備、消費電子、照明、通風與空調、電動馬達、家用電器等 14 項優先管制產品,該等產品實施方法仍在研擬中,未來將逐步擴大管制項目。   依海關統計資料, 2005 年我國輸歐盟 14 類產品之總金額達 2,127 億元台幣。預期 EuP 指令的實施,將對我國產業帶來新的挑戰和機會。為協助我國廠商預先準備因應 EuP 指令,經濟部工業局已逐步協助並輔導業界建立 EuP 符合性評估之基礎,期帶領廠商面對 EuP 指令的挑戰,進而於綠色採購與綠色消費的潮流中持有競爭力。

用ChatGPT找法院判決?從Roberto Mata v. Avianca, Inc.案淺析生成式AI之侷限

用ChatGPT找法院判決?從Roberto Mata v. Avianca, Inc.案淺析生成式AI之侷限 資訊工業策進會科技法律研究所 2023年09月08日 生成式AI是透過研究過去資料,以創造新內容和想法的AI技術,其應用領域包括文字、圖像及影音。以ChatGPT為例,OpenAI自2022年11月30日發布ChatGPT後,短短二個月內,全球月均用戶數即達到1億人,無疑成為民眾日常生活中最容易近用的AI科技。 惟,生成式AI大量使用後,其中的問題也逐漸浮現。例如,ChatGPT提供的回答僅是從所學習的資料中統整歸納,無法保證資料的正確性。Roberto Mata v. Avianca, Inc.案即是因律師利用ChatGPT撰寫訴狀,卻未重新審視其所提供判決之正確性,以致後續引發訴狀中所描述的判決不存在爭議。 壹、事件摘要 Roberto Mata v. Avianca, Inc.案[1]中,原告Roberto Mata於2019年8月搭乘哥倫比亞航空從薩爾瓦多飛往紐約,飛行過程中膝蓋遭空服員的推車撞傷,並於2022年2月向法院提起訴訟,要求哥倫比亞航空為空服員的疏失作出賠償;哥倫比亞航空則主張已超過《蒙特婁公約》(Montreal Convention)第35條所訂之航空器抵達日起兩年內向法院提出損害賠償之請求時效。 R然而,法院審理過程中發現原告訴狀內引用之六個判決無法從判決系統中查詢,進而質疑判決之真實性。原告律師Steven A. Schwartz因而坦承訴狀中引用的六個判決是ChatGPT所提供,並宣稱針對ChatGPT所提供的判決,曾多次向ChatGPT確認該判決之正確性[2]。 貳、生成式AI應用之潛在風險 雖然運用生成式AI技術並結合自身專業知識執行特定任務,可能有助於提升效率,惟,從前述Roberto Mata v. Avianca, Inc.案亦可看出,依目前生成式AI技術之發展,仍可能產生資訊正確性疑慮。以下彙整生成式AI應用之8大潛在風險[3]: 一、能源使用及對環境危害 相較於傳統機器學習,生成式AI模型訓練將耗費更多運算資源與能源。根據波士頓大學電腦科學系Kate Saenko副教授表示,OpenAI的GPT-3模型擁有1,750億個參數,約會消耗1,287兆瓦/時的電力,並排放552噸二氧化碳。亦即,每當向生成式AI下一個指令,其所消耗的能源量相較於一般搜尋引擎將可能高出4至5倍[4]。 二、能力超出預期(Capability Overhang) 運算系統的黑盒子可能發展出超乎開發人員或使用者想像的隱藏功能,此發展將會對人類帶來新的助力還是成為危險的阻力,則會隨著使用者之間的相互作用而定。 三、輸出結果有偏見 生成式AI通常是利用公開資料進行訓練,若輸入資料在訓練時未受監督,而帶有真實世界既存的刻板印象(如語言、種族、性別、性取向、能力、文化等),據此建立之AI模型輸出結果可能帶有偏見。 四、智慧財產權疑慮 生成式AI進行模型訓練時,需仰賴大量網路資料或從其他大型資料庫蒐集訓練資料。然而,若原始資料來源不明確,可能引發取得資料未經同意或違反授權條款之疑慮,導致生成的內容存在侵權風險。 五、缺乏驗證事實功能 生成式AI時常提供看似正確卻與實際情形不符的回覆,若使用者誤信該答案即可能帶來風險。另外,生成式AI屬於持續動態發展的資訊生態系統,當產出結果有偏誤時,若沒有大規模的人為干預恐難以有效解決此問題。 六、數位犯罪增加與資安攻擊 過去由人工產製的釣魚郵件或網站可能受限於技術限制而容易被識破,然而,生成式AI能夠快速建立具高度說服力的各種擬真資料,降低詐騙的進入門檻。又,駭客亦有可能在不熟悉技術的情況下,利用AI進一步找出資安弱點或攻擊方法,增加防禦難度。 七、敏感資料外洩 使用雲端服務提供商所建立的生成式AI時,由於輸入的資料存儲於外部伺服器,若要追蹤或刪除有一定難度,若遭有心人士利用而導致濫用、攻擊或竄改,將可能產生資料外洩的風險。 八、影子AI(Shadow AI) 影子AI係指開發者未知或無法控制之AI使用情境。隨著AI模型複雜性增加,若開發人員與使用者未進行充分溝通,或使用者在未經充分指導下使用 AI 工具,將可能產生無法預期之風險。 參、事件評析 在Roberto Mata v. Avianca, Inc.案中,法院關注的焦點在於律師的行為,而非對AI技術使用的批判。法院認為,隨著技術的進步,利用可信賴的AI工具作為協助用途並無不當,惟,律師應踐行其專業素養,確保所提交文件之正確性[5]。 當AI科技發展逐漸朝向自主與獨立的方向前進,仍需注意生成式AI使用上之侷限。當個人在使用生成式AI時,需具備獨立思考判斷的能力,並驗證產出結果之正確性,不宜全盤接受生成式AI提供之回答。針對企業或具高度專業領域人士使用生成式AI時,除確認結果正確性外,更需注意資料保護及治理議題,例如建立AI工具合理使用情境及加強員工使用相關工具之教育訓練。在成本能負擔的情況下,可選擇透過企業內部的基礎設施訓練AI模型,或是在訓練模型前確保敏感資料已經加密或匿名。並應注意自身行業領域相關法規之更新或頒布,以適時調整資料使用之方式。 雖目前生成式AI仍有其使用之侷限,仍應抱持開放的態度,在技術使用與風險預防之間取得平衡,以能夠在技術發展的同時,更好地學習新興科技工具之使用。 [1]Mata v. Avianca, Inc., 1:22-cv-01461, (S.D.N.Y.). [2]Benjamin Weiser, Here’s What Happens When Your Lawyer Uses ChatGPT, The New York Times, May 27, 2023, https://www.nytimes.com/2023/05/27/nyregion/avianca-airline-lawsuit-chatgpt.html (last visited Aug. 4, 2023). [3]Boston Consulting Group [BCG], The CEO’s Roadmap on Generative AI (Mar. 2023), https://media-publications.bcg.com/BCG-Executive-Perspectives-CEOs-Roadmap-on-Generative-AI.pdf (last visited Aug. 29, 2023). [4]Kate Saenko, Is generative AI bad for the environment? A computer scientist explains the carbon footprint of ChatGPT and its cousins, The Conversation (May 23, 2023.), https://theconversation.com/is-generative-ai-bad-for-the-environment-a-computer-scientist-explains-the-carbon-footprint-of-chatgpt-and-its-cousins-204096 (last visited Sep. 7, 2023). [5]Robert Lufrano, ChatGPT and the Limits of AI in Legal Research, National Law Review, Volume XIII, Number 195 (Mar. 2023), https://www.natlawreview.com/article/chatgpt-and-limits-ai-legal-research (last visited Aug. 29, 2023).

TOP