歐盟執委會通過數位歐洲計畫2023~2024年工作計畫

為促進歐洲的數位轉型,歐盟執委會(European Commission)在2023年3月24日於通過數位歐洲計畫(Digital Europe programme, DEP)下的2023~2024年工作計畫,預計投入12.84億歐元於「主要數位歐洲計畫工作計畫」(Main DEP programme)(下稱「主要工作計畫」)及「網路安全工作計畫」(Cybersecurity Work Programme),以延續之前投入之成果,並加強歐盟對抗網路威脅的集體韌性。

實際上歐盟於2018年即提出第一個數位歐洲計畫,並透過數位單一市場策略(Digital Single Market strategy)嘗試建立符合數位特性的監管框架,藉以提高歐盟的國際競爭力,發展及加強歐洲的數位能力。數位歐洲計畫包括五個重點領域:超級電腦(Supercomputers)、人工智慧(Artificial intelligence, AI)、網路安全及信任(Cybersecurity and trust)、數位技能(Digital skills),以及確保數位技術在經濟及社會中被廣泛使用。

前述所說的主要工作計畫,其投入資金為9.095億歐元,重要工作有三。首先,藉由關注氣候和環境保護技術、數據資料、人工智慧、雲端、網路安全、先進數位技能及部署此些技術之最佳方法,並加強歐盟的關鍵數位能力。第二,關注數位公共服務,強調具跨境互操作性(cross-border interoperability)的公部門解決方案(例如歐洲數位身份)。此外,也將透過歐洲數位媒體觀測站(European Digital Media Observatory, EDMO)打擊假訊息,並以InvestEU計畫下的策略數位技術投資平台,重點支持中小及新創企業關注網路安全。

其次,網路安全工作計畫的投入資金為3.75億歐元,由歐洲網路安全能力中心(European Cybersecurity Competence Centre)負責執行,將支援建立國家和跨境安全操作中心的能力,以打造最先進的威脅檢測及網路事件分析生態系統。網路安全工作計畫還將資助產業(特別是中小及新創企業)遵守網路安全法規要求的項目,特別是網路及資訊系統安全指令(Directive on Security of Network and Information Systems, NIS2)或網路韌性法案(Cyber Resilience Act)所要求的內容。

歐盟已在加強數位公共服務、數位技能及網路安全等方面投入許多資源,其中網路安全、資安威脅和打擊假消息等議題因其不受地區限制而更受到注目,未來仍待持續關注此些議題之發展。

相關連結
你可能會想參加
※ 歐盟執委會通過數位歐洲計畫2023~2024年工作計畫, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8987&no=16&tp=1 (最後瀏覽日:2025/04/06)
引註此篇文章
你可能還會想看
「自動駕駛車(self-driving car)」可否合法上路?

  「自動駕駛車(self-driving car)」一般而言係指於汽車安裝感測器(sensors)以及軟體以偵測行人、腳踏車騎士以及其他動力交通工具,透過控制系統將感測到的資料轉換成導航道路,並以安全適當的方式行駛。其目前可分為兩類:「全自動駕駛車(full autonomous)」以及「半自動駕駛車(fully autonomous)」,全自動駕駛車係指可於指定地點出發後不需駕駛人(driver)在車上而到達目的地者之謂。全自動駕駛車又可為「用戶操作(user-operated)」與「無人駕駛車(driverless car)」。   目前包含賓士(Mercedes)、BMW、特斯拉(Tesla)等公司均預期於不久將來會發布一些具備自動駕駛特徵的車種,科技公司如Google亦對於自動駕駛車的科技研發不留餘力。   而從2012年開始,美國有17州以及哥倫比亞特區便開始在討論允許自動駕駛車上路的相關法規,而只有加利福尼亞州(California)、佛羅里達州(Florida)、內達華州(Nevada)及華盛頓哥倫比亞特區(Washington, D.C.)有相關法律的施行,其他州則尚未表態。而大部分的州傾向認為應由人類來操控(operating)汽車,但對於具體上到底有多少比例之汽車任務需由人類操控而多少比例可交由機器則尚有模糊空間。而是否肯認「人工智慧操控」符合法規之「人類操控」亦不明朗。不過在法律存有這樣灰色地帶時刻,Google搶先於加利福尼亞州進行測試其自動控制系統,期望之後於自動駕駛車逐漸上市普及後能搶占商機。

日本通過數位社會形成基本法

  日本國會於2021年5月12日,通過由内閣官房資通訊技術總合戰略室提出之數位社會形成基本法(デジタル社会形成基本法)。數位社會之形成,將有助於提升國際競爭力與國民便利性,因應少子化、高齡化與其他重要課題,本法之立法目的係為推動數位社會形成,使日本國內經濟健全發展,幫助國民幸福之實現。   本法之重點概如下述: 數位社會之定義係指藉由先進資通訊技術,適當有效活用各式各樣大量之電磁紀錄資訊,使各領域均得創新蓬勃發展之社會。 數位社會形成之理念係為了使國民生活能切實感受到寬裕和富足,實現國民得安全安心生活之社會,降低數位落差,並確保在數位社會下,個人與法人權利以及其他法律所保護之利益。 國家須制定數位社會形成之政策,具體包含確保高度資訊通訊網路與資通訊技術之可及性、整合國家與地方自治團體資訊系統、使國民得活用國家與地方自治團體之資訊、建立公部門基礎資訊資料庫、確保資通安全等。 為形成數位社會,明定國家、地方政府及企業之相關責任義務。 依數位廳設置法設置由內閣管轄之數位廳,並制定數位社會形成相關之重點計畫。 廢止高度資通訊網路社會形成基本法(IT基本法),以數位社會形成基本法為新資通訊技術戰略。

美國OMB發布人工智慧應用監管指南備忘錄草案

  美國行政管理預算局(United States Office of Management and Budget, OMB)於2020年1月發布「人工智慧應用監管指南(Guidance for Regulation of Artificial Intelligence Applications)」備忘錄草案。該備忘錄草案係基於維護美國人工智慧(AI)領導地位之目的,而依據美國總統川普(Donald John Trump)於2019年2月簽署之「維持美國人工智慧領導地位(Maintaining American Leadership in Artificial Intelligence)─行政命令13859號」,並在啟動美國人工智慧計畫後180天內,經OMB偕同科技政策辦公室(Office of Science and Technology Policy, OSTP)、美國國內政策委員會(United States Domestic Policy Council)與美國國家經濟委員會(National Economic Council)與其他相關機構進行協商,最後再由OMB發布人工智慧應用監管指南備忘錄草案,以徵詢公眾意見。   該備忘錄草案不僅是為了規範新型態AI應用技術,更希望相關的聯邦機構,在制定AI應用產業授權技術、監管與非監管方法上,能採取彈性的制定方向,以避免過度嚴苛的規定,反而阻礙AI應用的創新與科技發展,繼而保護公民自由、隱私權、基本權與自治權等價值。同時,為兼顧AI創新與政策之平衡,應以十大管理原則為規範制定之依據,十大管理原則分別為: 培養AI公眾信任(Public Trust in AI); 公眾參與(Public Participation); 科學研究倫理與資訊品質(Scientific Integrity and Information Quality); AI風險評估與管理(Risk Assessment and Management); 獲益與成本原則(Benefits and Costs); 彈性原則(Flexibility); 公平與反歧視(Fairness and Non-Discrimination); AI應用之揭露與透明化(Disclosure and Transparency); AI系統防護與措施安全性(Safety and Security); 機構間之相互協調(Interagency Coordination)。   此外,為減少AI應用之阻礙,機構制定AI規則時,應採取降低AI技術障礙的方法,例如透過聯邦資料與模型方法來發展AI研發(Federal Data and Models for AI R&D)、公眾溝通(Communication to the Public)、自發性共識標準(Voluntary Consensus Standards)之制定及符合性評鑑(Conformity Assessment)活動,或國際監管合作(International Regulatory Cooperation)等,以創造一個接納並利於AI運作的環境。

美國科羅拉多州通過《人工智慧消費者保護法》

2024年5月17日,科羅拉多州州長簽署了《人工智慧消費者保護法》(Consumer Protections for Artificial Intelligence Act,Colorado AI Act,下簡稱本法),其內容將增訂於《科羅拉多州修訂法規》(Colorado Revised Statutes,簡稱CRS)第6篇第17部分,是美國第一部廣泛對AI規範的法律,將於2026年2月1日生效。 本法旨在解決「高風險人工智慧系統」的演算法歧視(Algorithmic Discrimination)的問題 ,避免消費者權益因為演算法之偏見而受到歧視。是以,本法將高風險AI系統(High-risk Artificial Intelligence System)定義為「部署後作出關鍵決策(Consequential Decision)或在關鍵決策中起到重要作用的任何AI系統」。 而後,本法藉由要求AI系統開發者(Developers)與部署者(Deployers)遵守「透明度原則」與「禁止歧視原則」,來保護消費者免受演算法歧視。規定如下: (一)系統透明度: 1.開發者應向部署者或其他開發者提供該系統訓練所使用的資料、系統限制、預期用途、測試演算法歧視之文件以及其他風險評估文件。 2.部署者應向消費者揭露高風險人工智慧系統的預期用途,也應在高風險人工智慧系統做出決策之前向消費者提供聲明,聲明內容應該包含部署者之聯絡方式、該系統的基本介紹、部署者如何管理該系統可預見之風險等資訊。 (二)禁止歧視: 1.開發者應實施降低演算法歧視之措施,並應協助部署者理解高風險人工智慧系統。此外,開發者也應該持續測試與分析高風險人工智慧系統可能產生之演算法歧視風險。若開發者有意修改該系統,應將更新後的系統資訊更新於開發者網站,並須同步提供給部署者。 2.部署者應該實施風險管理計畫,該風險管理計畫應包含部署者用於識別、紀錄降低演算法歧視風險之措施與負責人員,且風險管理計畫應定期更新。在制定風險管理計畫時,必須參考美國商務部國家標準暨技術研究院(National Institute of Standards and Technology, NIST)的《人工智慧風險管理框架》(AI Risk Management Framework, AI RMF 2.0)與ISO/IEC 42001等風險管理文件。 美國普遍認為科羅拉多州的《人工智慧消費者保護法》為目前針對人工智慧系統最全面之監管法規,可作為其他州有關人工智慧法規的立法參考,美國各州立法情況與作法值得持續關注。

TOP