歐盟執委會(The European Commission)於05月23日釋出一份關於歐洲數位化進展的報告。 歐洲數位進度報告(Europe's Digital Progress Report ,EDPR)首先以2016年02月公佈的「數位經濟社會指標」(Digital Economy and Society Index ,DESI) 為基礎,分析歐盟會員國的數位發展情況。數位公共服務(Digital Public Services)方面,報告指出, 當前各國政府數位化服務越來越複雜,歐盟現在的挑戰是要讓52%目前還偏好實體互動的民眾進入數位世界。此外,這份報告也提出一些歐盟會員國中數位公共服務還不錯的進度,像是義大利跟匈牙利的eID,奧地利的OpenData,比利時跟羅馬尼亞的協同電子政府 (collaborative eGovernment),以及斯洛伐克電子政府的雲端方案等。 其次,歐盟執委會調查了各國的數位改革方案實施情況,並公佈歐盟會員國與世界上其他15個國家的「數位表現國際指標」完整報告 (full report on a new international index, iDESI),「數位表現指標」指的是連結性(connectivity)、數位能力( digital skills)、網路使用(use of Internet)、企業數位科技整合( Integration of Digital Technology by businesses),以及數位公共服務(Digital Public Services)。這份數據顯示,歐盟領先國(瑞典、丹麥以及芬蘭)在國際上也是處於領先地位,緊接在韓國以及美國之後,但其他歐盟會員國仍有很長一段路要追趕。 最後,歐盟執委會同時發布了「歐洲電子通訊量表研究」( Eurobarometer study on e-communications),這份研究發現使用網路通訊的歐洲民眾逐漸增多,且行動網路普及率大幅增加。 歐盟官方表示,未來將會根據這幾份調查報告提出具體建議,盼能改善多數會員國的數位表現並有益於其經濟與社會,持續朝創造歐盟「數位單一市場」(Digital Single Market)的目標邁進。
澳洲政府制定ISP反垃圾郵件從業規則澳洲政府於 3 月 28 日 發布了反垃圾郵件( anti-spam )從業規則( code of practice ),強制網路服務提供者( ISP )採取反制措施,以防堵大量、不請自來的電子郵件;業者若未配合新法的要求,將面臨鉅額的罰款。 繼 2003 年頒布的「垃圾郵件法」( Spam Act )後,澳洲通訊及媒體局( Communications and Media Authority )此次依據垃圾郵件法規定,針對 ISP 業者進一步制定了從業規則,成為對抗垃圾郵件的另一項重要工具。新法課予 ISP 業者的主要義務包括了: (1) 向用戶提供過濾垃圾郵件的服務選項; (2) 合理限制用戶電子郵件的發送;及 (3) 設立相關的投訴機制等。 為給予業者相當的緩衝時間,新法將自今年的 7 月 16 日 實施,屆時主管機關將針對澳洲當地近 700 家 ISP 業者進行檢查。一旦發現有違規情事,澳洲聯邦法院可對之處以 1,000 萬澳幣以下的罰款。
中國電子簽名法將於四月一日正式生效去年八月甫通過的中國電子簽名法在今年四月一日正式生效,而中國首家對外提供電子簽章服務的憑證機構(電子印章中心)在三月三十日成立。 中國電子簽名法對於電子簽名的定義指出,電子簽名是指數據電文中以電子形式所含、所附用於識別簽名人身分並表明簽名人認可其中內容的數據。而電子簽名的適用範圍,除了在涉及婚姻、收養、繼承等人身關係、土地房屋等不動產權益轉讓、停止供水、供熱、供氣、供電等公用事業服務或法律、行政法規規定不適用電子文書的其他情形外,均可使用電子簽名。
英國發布人工智慧網路資安實務守則英國政府於2025年1月31日發布「人工智慧網路資安實務守則」(Code of Practice for the Cyber Security of AI,以下簡稱「實務守則」),目的是提供人工智慧(AI)系統的網路資安指引。該實務守則為英國參考國際上主要標準、規範後所訂定之自願性指引,以期降低人工智慧所面臨的網路資安風險,並促使人工智慧系統開發者與供應商落實基本的資安措施,以確保人工智慧系統的安性和可靠性。 由於人工智慧系統在功能與運作模式上與傳統網路架構及軟體有明顯的不同,因此產生新的資安風險,主要包含以下: 1. 資料投毒(Data Poisoning):在AI系統的訓練資料中蓄意加入有害或錯誤的資料,影響模型訓練結果,導致人工智慧系統產出錯誤推論或決策。 2. 模型混淆(Model Obfuscation):攻擊者有意識地隱藏或掩飾AI模型的內部運作特徵與行為,以增加系統漏洞、引發混亂或防礙資安管理,可能導致AI系統的安全性與穩定性受損。 3. 輸入間接指令(Indirect Prompt Injection):藉由輸入經精心設計的指令,使人工智慧系統的產出未預期、錯誤或是有害的結果。 為了提升實務守則可操作性,實務守則涵蓋了人工智慧生命週期的各階段,並針對相關角色提出指導。角色界定如下: 1. 人工智慧系統開發者(Developers):負責設計和建立人工智慧系統的個人或組織。 2. 人工智慧系統供應鏈(Supply chain):涵蓋人工智慧系統開發、部署、營運過程中的的所有相關個人和組織。 實務守則希望上述角色能夠參考以下資安原則,以確保人工智慧系統的安全性與可靠性: 1. 風險評估(Risk Assessment):識別、分析和減輕人工智慧系統安全性或功能的潛在威脅的過程。 2. 資料管理(Data management):確保AI系統整個資料生命週期中的資料安全及有效利用,並採取完善管理措施。 3. 模型安全(Model Security):在模型訓練、部署和使用階段,均應符合當時的技術安全標準。 4. 供應鏈安全(Supply chain security):確保AI系統供應鏈中所有利益相關方落實適當的安全措施。 「人工智慧網路資安實務守則」藉由清晰且全面的指導方針,期望各角色能有效落實AI系統安全管控,促進人工智慧技術在網路環境中的安全性與穩健發展。