歐盟在2015年9月11日至2015年12月7日期間進行電子通訊網路及服務法規架構檢視公共諮詢,檢討目前電子通訊法規發展方向。2016年3月3日歐盟提出摘要報告,諮詢主題可分為五項,分別為:網路接取規範、頻譜管理與無線連結、電信服務產業管制、普及服務規範、以及機構設立與監理等。在此次公共諮詢當中,可歸納出幾項發展趨勢,包括:
一、基於消費者或市場需求,網路已成為促進數位社會、經濟發展之主要方式。
二、網路連線品質待改善。多數認為應支持基礎建設來因應未來廣泛的需求。
三、多數認為目前法規架構無法促進內部市場發展,未來應朝向電信市場自由化方向進行,特別是基於使用者利益以及市場競爭考量。
四、頻譜管理部分,無線寬頻網路固然重要,但未來仍應朝向促進新行動通訊技術發展,如5G技術等。
五、未來對於頻譜的規劃與應用應更具彈性,且進行技術領域調和。
六、許多會員國因應科技技術的進步更新電信法規,透過促進下世代基礎建設投資以及其他方式,未來希望能使電信法規更具有彈性與簡化。
七、未來將著重考量長期投資研發帶來的效益。
八、消費者希望未來能重視服務競爭,而非僅強調基礎建設。且針對基礎建設本身,亦應重視基礎建設投資的成本分擔。
九、重新思考普及服務,亦即給予會員國更多的彈性來決定如何進行資金補助與履行服務。
十、消費者組織立場認為需要進行產業管制,以及設定使用者保護規範,而基於電信事業立場,特別是在服務部分,則需要整合性規範。部分也認為電信法規亦適用於相同性質之服務,例如OTT。
十一、多數認為,歐盟層級的管制機構應該重新檢視,以協助未來法規的修正。
歐盟執委會(European Commission,下稱執委會)於2022年9月16日通過《歐洲媒體自由法(European Media Freedom Act)》草案,旨在保護歐盟媒體多元化和獨立性。其立法目標一方面確保媒體多元化與編輯獨立性,讓歐盟公民能夠獲得廣泛且多樣的媒體服務。另一方面防止成員國對媒體的政治干預,要求以公平、公正、公開方式分配國家資源。此外,執委會建議成立歐洲媒體服務委員會作為媒體自由主管機關。 《媒體自由法》要點如下: 1.保護編輯獨立性:要求成員國尊重媒體服務提供商的編輯自由,並加強對新聞來源的保護,防止媒體決策受政治干擾。 2.不得對媒體使用間諜或監視軟體:包括針對媒體、記者及其家人使用。 3.獨立的公共服務媒體:其資金應充足且穩定,以確保編輯獨立。負責人和理事會必須以透明、公開和非歧視的方式任命。公共服務媒體提供者應當根據其公共服務使命,公正地提供多種訊息和意見。 4.媒體多元化測試:要求成員國評估媒體市場集中度對媒體多元化和編輯獨立性的影響。成員國採取的任何可能影響媒體的立法、監管或行政措施都應有正當理由。 5.透明的國家廣告:公開透明的國家廣告資源分配與受眾衡量系統(audience measurement)。該法特別關注數位廣告之收入。 6.線上媒體內容的保護:以《數位服務法》為基礎,該法包括防止不合理刪除合法的媒體內容。在不涉及虛假訊息的情況下,大型數位平臺有意移除某些被認為違反平臺政策的合法媒體內容時,必須告知原因,媒體提出的任何投訴都必須優先處理。 7.使用者自行定制媒體偏好:用戶能更改默認設置以反映自己的偏好。 8.提高媒體所有權的透明度 本文同步刊登於TIPS網站(https://www.tips.org.tw)
英國發布人工智慧網路資安實務守則英國政府於2025年1月31日發布「人工智慧網路資安實務守則」(Code of Practice for the Cyber Security of AI,以下簡稱「實務守則」),目的是提供人工智慧(AI)系統的網路資安指引。該實務守則為英國參考國際上主要標準、規範後所訂定之自願性指引,以期降低人工智慧所面臨的網路資安風險,並促使人工智慧系統開發者與供應商落實基本的資安措施,以確保人工智慧系統的安性和可靠性。 由於人工智慧系統在功能與運作模式上與傳統網路架構及軟體有明顯的不同,因此產生新的資安風險,主要包含以下: 1. 資料投毒(Data Poisoning):在AI系統的訓練資料中蓄意加入有害或錯誤的資料,影響模型訓練結果,導致人工智慧系統產出錯誤推論或決策。 2. 模型混淆(Model Obfuscation):攻擊者有意識地隱藏或掩飾AI模型的內部運作特徵與行為,以增加系統漏洞、引發混亂或防礙資安管理,可能導致AI系統的安全性與穩定性受損。 3. 輸入間接指令(Indirect Prompt Injection):藉由輸入經精心設計的指令,使人工智慧系統的產出未預期、錯誤或是有害的結果。 為了提升實務守則可操作性,實務守則涵蓋了人工智慧生命週期的各階段,並針對相關角色提出指導。角色界定如下: 1. 人工智慧系統開發者(Developers):負責設計和建立人工智慧系統的個人或組織。 2. 人工智慧系統供應鏈(Supply chain):涵蓋人工智慧系統開發、部署、營運過程中的的所有相關個人和組織。 實務守則希望上述角色能夠參考以下資安原則,以確保人工智慧系統的安全性與可靠性: 1. 風險評估(Risk Assessment):識別、分析和減輕人工智慧系統安全性或功能的潛在威脅的過程。 2. 資料管理(Data management):確保AI系統整個資料生命週期中的資料安全及有效利用,並採取完善管理措施。 3. 模型安全(Model Security):在模型訓練、部署和使用階段,均應符合當時的技術安全標準。 4. 供應鏈安全(Supply chain security):確保AI系統供應鏈中所有利益相關方落實適當的安全措施。 「人工智慧網路資安實務守則」藉由清晰且全面的指導方針,期望各角色能有效落實AI系統安全管控,促進人工智慧技術在網路環境中的安全性與穩健發展。
產業競爭力強化法新發展-以企業實證特例制度實例為中心 中研院開發「奈米質譜檢測技術」1小時知道是否罹癌「蛋白質體學」是醫學研究的新領域,透過對「蛋白質變異」的研究來瞭解疾病的機制,現在已經可以成功診斷出許多疾病。不過,因為血液中跟疾病有關的「標記蛋白質」,含量往往很低;傳統「酵素免疫法」( ELISA )的檢測流程總得進行個大半天,往往造成時間的浪費。 中央研究院發表獨步全球的「磁性奈米粒子」質譜驗血技術,只要使用小學生使用的磁鐵,就可以迅速「大海撈針」,從血液中吸出和SARS、癌症、中風等病症相關的標記蛋白質,可以在一小時內診斷病情。這項研究成果正在申請國內外專利,臨床實驗、認證後,民眾未來只要多花幾百塊錢,就能夠享受這項最新的奈米科技。不管胃癌、乳癌或大腸癌,只要 ELISA 能夠檢測的項目,這套技術都可以更有效率地完成。不過因為「質譜儀」價格昂貴,臨床運用又需相關認證,普及化可能還得再等一段時間。