為降低歐盟民眾在歐盟各國家間往來之行動通訊漫遊費用,歐盟在去年七月提出歐盟境內大眾行動網路漫遊規則,以期將歐盟各國間的行動漫遊費用減少70%。該草案迅速得到各會員國之認同,於今年六月通過,並在今年6月30日正式公布歐盟漫遊規則(EU Roaming Regulation),該規則於公布後,歐盟27個會員國家之行動通訊業者均受其拘束。
根據該規則第3條之規定,歐盟各會員國內提供漫遊服務之行動通訊業者向本國業者收取之漫遊批發價格不得超過每分鐘0.3歐元。未來兩年內,價格上限將逐年下降至0.28歐元及0.26歐元。至於零售價格部分,業者向消費者收取之漫遊費率為撥出電話不得超過每分鐘0.49歐元,接聽電話不得超過每分鐘0.24歐元。未來兩年內,該費率將逐年下降至0.46歐元/0.22歐元以及0.43歐元/0.19歐元。另外,原則上本國之行動通訊業者均應在消費者進入歐盟其他會員國的同時,以簡訊或語音的方式自動且免費的提供漫遊費率相關資訊。
目前該規則將實施三年,歐盟執委會將於實施18個月後對於實施成果加以檢討,以決定是否延長漫遊規則之實施期間以及是否將費率管制規則延伸至簡訊及資料漫遊服務。
英國政府於2025年1月31日發布「人工智慧網路資安實務守則」(Code of Practice for the Cyber Security of AI,以下簡稱「實務守則」),目的是提供人工智慧(AI)系統的網路資安指引。該實務守則為英國參考國際上主要標準、規範後所訂定之自願性指引,以期降低人工智慧所面臨的網路資安風險,並促使人工智慧系統開發者與供應商落實基本的資安措施,以確保人工智慧系統的安性和可靠性。 由於人工智慧系統在功能與運作模式上與傳統網路架構及軟體有明顯的不同,因此產生新的資安風險,主要包含以下: 1. 資料投毒(Data Poisoning):在AI系統的訓練資料中蓄意加入有害或錯誤的資料,影響模型訓練結果,導致人工智慧系統產出錯誤推論或決策。 2. 模型混淆(Model Obfuscation):攻擊者有意識地隱藏或掩飾AI模型的內部運作特徵與行為,以增加系統漏洞、引發混亂或防礙資安管理,可能導致AI系統的安全性與穩定性受損。 3. 輸入間接指令(Indirect Prompt Injection):藉由輸入經精心設計的指令,使人工智慧系統的產出未預期、錯誤或是有害的結果。 為了提升實務守則可操作性,實務守則涵蓋了人工智慧生命週期的各階段,並針對相關角色提出指導。角色界定如下: 1. 人工智慧系統開發者(Developers):負責設計和建立人工智慧系統的個人或組織。 2. 人工智慧系統供應鏈(Supply chain):涵蓋人工智慧系統開發、部署、營運過程中的的所有相關個人和組織。 實務守則希望上述角色能夠參考以下資安原則,以確保人工智慧系統的安全性與可靠性: 1. 風險評估(Risk Assessment):識別、分析和減輕人工智慧系統安全性或功能的潛在威脅的過程。 2. 資料管理(Data management):確保AI系統整個資料生命週期中的資料安全及有效利用,並採取完善管理措施。 3. 模型安全(Model Security):在模型訓練、部署和使用階段,均應符合當時的技術安全標準。 4. 供應鏈安全(Supply chain security):確保AI系統供應鏈中所有利益相關方落實適當的安全措施。 「人工智慧網路資安實務守則」藉由清晰且全面的指導方針,期望各角色能有效落實AI系統安全管控,促進人工智慧技術在網路環境中的安全性與穩健發展。
德國資料保護會議通過「哈姆巴爾宣言」,針對人工智慧之運用提出七大個資保護要求德國聯邦及各邦獨立資料保護監督機關(unabhängige Datenschutzaufsichtsbehörden)共同於2019年4月3日,召開第97屆資料保護會議通過哈姆巴爾宣言(Hambacher Erklärung,以下簡稱「Hambacher宣言」)。該宣言指出人工智慧雖然為人類帶來福祉,但同時對法律秩序內自由及民主體制造成巨大的威脅,特別是人工智慧系統可以透過自主學習不斷蒐集、處理與利用大量個人資料,並且透過自動化的演算系統,干預個人的權利與自由。 諸如人工智慧系統被運用於判讀應徵者履歷,其篩選結果給予女性較不利的評價時,則暴露出人工智慧處理大量資料時所產生的性別歧視,且該歧視結果無法藉由修正資料予以去除,否則將無法呈現原始資料之真實性。由於保護人民基本權利屬於國家之重要任務,國家有義務使人工智慧的發展與應用,符合民主法治國之制度框架。Hambacher宣言認為透過人工智慧系統運用個人資料時,應符合歐盟一般資料保護規則(The General Data Protection Regulation,以下簡稱GDPR)第5條個人資料蒐集、處理與利用之原則,並基於該原則針對人工智慧提出以下七點個資保護之要求: (1)人工智慧不應使個人成為客體:依據德國基本法第1條第1項人性尊嚴之保障,資料主體得不受自動化利用後所做成,具有法律效果或類似重大不利影響之決策拘束。 (2)人工智慧應符合目的限制原則:透過人工智慧系統蒐集、處理與利用個人資料時,即使後續擴張利用亦應與原始目的具有一致性。 (3)人工智慧運用處理須透明、易於理解及具有可解釋性:人工智慧在蒐集、處理與利用個人資料時,其過程應保持透明且決策結果易於理解及可解釋,以利於追溯及識別決策流程與結果。 (4)人工智慧應避免產生歧視結果:人工智慧應避免蒐集資料不足或錯誤資料等原因,而產生具有歧視性之決策結果,控管者或處理者使用人工智慧前,應評估對人的權利或自由之風險並控管之。 (5)應遵循資料最少蒐集原則:人工智慧系統通常會蒐集大量資料,蒐集或處理個人資料應於必要範圍內為之,且不得逾越特定目的之必要範圍,並應檢查個人資料是否完全匿名化。 (6)人工智慧須設置問責機關進行監督:依據GDPR第12條、第32條及第35條規定,人工智慧系統內的控管者或處理者應識別風險、溝通責任及採取必要防範措施,以確保蒐集、處理與利用個人資料之安全性。 (7)人工智慧應採取適當技術與組織上的措施管理之:為了符合GDPR第24條及第25條規定,聯邦資料保護監督機關應確認,控管者或處理者採用適當的現有技術及組織措施予以保障個人資料。 綜上所述,Hambacher宣言內容旨在要求,人工智慧在蒐集、處理及利用個人資料時,除遵守歐盟一般資料保護規則之規範外,亦應遵守上述提出之七點原則,以避免其運用結果干預資料主體之基本權利。
臉書(Facebook)被控告違反和解協議臉書(Facebook)在2011年11月與美國聯邦貿易委員會(Federal Trade Commission, FTC)針對用戶資料的隱私權問題達成和解,包括第一:臉書必須遵守其自行提出的隱私權政策;第二:臉書必須要事先得到使用者的同意,才能更改其資訊分享的設定;第三:當使用者刪除其帳號的三十天內,臉書必須實際上使任何人不能再取得相關資訊;第四:必須對新產品或服務建立並維護其隱私權保障的計畫;第五:在未來二十年內,臉書必須由獨立的第三人稽查其隱私政策,以維護使用者的資訊隱私保護。 但是公益團體電子隱私資訊中心(Electronic Privacy Information Center, EPIC)最近指控臉書的Timeline功能違反和解協議的第二條。在EPIC的指控中表示:臉書必須要事先得到使用者的同意,才能更改其資訊分享的設定。而Timeline的功能在2011年12月6日上線後,完全改變了使用者揭露其資訊的方式,強化使用者張貼的重要事件,並回溯資料至該使用者第一次登入臉書時(甚至更早至第一次輸入相關資料時)。雖然臉書提供七天時間給使用者可以編輯Timeline,刪除不希望公開的照片或貼文,但幾乎沒有人知道。EPIC因而要求FTC介入調查。
日本監理沙盒制度推動趨勢—簡介生產性向上特別措施法草案與產業競爭力強化法修法內容我國自2017年12月通過《金融科技發展與創新實驗條例》建立金融監理沙盒制度後,各界時有呼籲其他非金融領域亦有沙盒制度之需要。觀察國際上目前於金融產業以外採取類似沙盒制度之國家,當以日本為代表,且日本相關制度亦為我國《中小企業發展條例》修法時之參考對象。 本文針對日本近期提出之《生產性向上特別措施法》(草案)以及日本《產業競爭力強化法》新近之修法等兩項日本近來有關沙盒制度之修法為觀察對象,針對其整體立(修)法背景、《產業競爭力強化法》中灰色地帶解消制度及企業實證特例制度修正重點以及《生產性向上特別措施法》(草案)中「專案型沙盒」之制度內涵進行整理,並比較企業實證特例制度及專案刑沙盒兩者制度上之異同。 本文最後發現,日本之沙盒制度設計上確實符合其減少事前管制、強調事後確認與評估、建立風險控管制度、課與主管機關提供資訊與建議之義務以及強化業者與主管機關聯繫等目標。同時,本文認為日本沙盒制度中有兩項制度特色值得我國關注及參考。第一,日本成立了包含外部專家的「評價委員會」,協助政府單位了解創新事業之內容及法規制度之觀察。第二,日本未來將提高實證制度之協調層級,在日本內閣府下設立單一窗口協助申請者決定其可適用之實證制度。