歐盟執委會於2025年7月發布《確保未成年網路高度隱私、安全和保障的措施指引》(Guidelines on measures to ensure a high level of privacy, safety and security for minors online,下稱指引),依據《數位服務法》(Digital Services Act)第28條未成年網路保護規定,未成年人可存取的網路平臺提供者應採取適當措施確保未成年人享有高度隱私及安全保障,且不應迫使數位平臺提供者為評估使用者是否為未成年人而處理額外的個人資料,前述指引目的即為協助數位平臺提供者遵守《數位服務法》第28條之規定。
數位平臺的條款及條件允許未成年人使用該服務,及其服務面向包含未成年人或主要由未成年人使用,或其提供者知曉部分接收者為未成年人,則該數位平臺可被視為提供未成年人存取,數位平臺提供者即應符合比例適當性、保護兒童權利、隱私安全保障設計、年齡適宜設計等一般性原則。指引要求數位平臺提供者需要以準確、可靠和穩定的方式確認使用者的年齡,常見的年齡確認方式有三種:自我聲明、年齡估測、年齡驗證,數位平臺提供者應評估所採方式之必要性及適當性,以最小侵害措施達成高度安全性,並以準確性、可靠性、韌性、低侵害、不歧視為原則。
但指引也引發對於其技術可行性及執法的疑慮,歐洲數位權利組織(European Digital Rights, EDRi)認為政府忽略數位平臺設計與商業模式的根本性問題,依賴年齡認證可能限制未成年人的權利,且對於誤判、規避風險、互通性、與會員國身分系統的整合等問題仍有諸多疑問。雖然指引非法規不具強制性,但歐盟執委會已將指引作為合規評估標準,使數位平臺提供者面臨實施成本及合規證明的壓力。面對日新月異的網路世界,該如何避免未成年人接觸不良網路內容成為許多國家關心的議題,值得持續追蹤相關動態作為我國未成年網路安全政策之參考。
美國環保署(United States Environmental Protection Agency, EPA)為限制汽車廢氣排放污染物對環境造成的危害,根據美國《潔淨空氣法》(Clean Air Act, CAA)的授權,於2023年4月12日提出《2027年式輕型、中型商用車車型污染物排放標準》(Multi-Pollutant Emissions Standards for Model Years 2027 and Later Light-Duty and Medium-Duty Vehicles),以及《重型商用車溫室氣體排放標準-第三階段》(Greenhouse Gas Emissions Standards for Heavy-Duty Vehicles – Phase 3)這兩件汽車廢氣排放新標準,期加速電動汽車(Electric Vehicle, EVs)發展、加速潔淨交通轉型。 《2027年式輕型、中型商用車車型污染物排放標準》以及《重型商用車溫室氣體排放標準-第三階段》分別針對2027年到2032年所出廠的輕型商用車、中型商用車以及重型商用車的汽車廢氣排放標準做出更嚴格的新規範,預計將成為美國迄今為止最嚴格的汽車廢氣排放標準。目標是到2032年時,輕型商用車行駛每英里二氧化碳平均排放量下降至82公克,溫室氣體排放量相較於2026年車型年標準將減少56%;中型商用車行駛每英里二氧化碳平均排放量下降至275公克,溫室氣體排放量相較於2026年車型年標準則將減少44%。至於重型商用車,以重型拖曳機(heavy-haul tractors)為例,將從2027年車型年行駛每噸英里二氧化碳平均排放量48克,到2032年時下降至41公克左右。 根據這兩件汽車廢氣排放新標準,並未禁止化石燃料汽車的製造或銷售、亦未規範要求電動汽車的年製造量或年銷售量要達多少數量或比率,而是為汽車限定更嚴格的廢氣排放標準,因此,仍無疑地將迫使汽車製造商減少販售化石燃料汽車、加速推動電動汽車生產的腳步以符合新的排放標準規定。環保署預測汽車製造商在為符標準所採的相應作法之下將會大幅提高電動汽車在新車的銷售比率:到2032年時,電動汽車將佔輕型商用車新車銷量的 67%、中型商用車新車銷量的46%。而此累計可望到2055年時減少約100億噸的二氧化碳排放,相當於美國2022年二氧化碳總排放量的兩倍多。將有效減少有害空氣汙染、並大幅降低因空氣汙染所致的罹病風險以及過早死亡等危險。 藉由新的排放標準,將逐步淘汰化石燃料汽車的生產,加速潔淨交通轉型,有效應對氣候危機並提高全國各社區空氣品質。
歐盟法院判決釐清GDPR民事賠償不受損害最低程度限制歐盟法院(Court of Justice of the European Union, CJEU)於2023年12月14日對Gemeinde Ummendorf(C‑456/22)案作出判決。歐盟法院試圖釐清《歐盟一般個人資料保護規則》(General Data Protection Regulation, GDPR)第82條的民事求償規範中,資料主體受到非財產上的損害要到何種程度才可獲得賠償。 本案源自於兩位自然人原告與德國的烏門多夫市政府(Municipality of Ummendorf)之間的紛爭。2020年,烏門多夫市政府未經兩位原告同意情況下,在網路上公布市議會議程與行政法院判決,這些資訊內容均多次提及兩位原告的姓名與地址。兩位原告認為市政府故意違反GDPR,因此依據GDPR第82條請求市政府賠償,並進一步主張該條意義下的非財產損害,不需要任何損害賠償門檻。然而,市政府則持相反意見。 長久以來,德國法院傾向認為,GDPR的非財產上損害需要超過某個「最低損害門檻」才可獲得賠償。然而,承審法院決定暫停訴訟程序,並將是否應有「最低損害門檻」以及其基準為何的問題,提交給歐盟法院進行先訴裁定。 歐盟法院考慮到,GDPR的宗旨在於確保在歐盟境內處理個人資料時對自然人提供一致和高水準的保護,如要求損害必須達到一定的嚴重性閾值或門檻才可賠償,恐因為成員國法院認定的基準不同,進而破壞各國實踐GDPR 的一致性。因此,歐盟法院最後澄清,GDPR的民事賠償不需要「最低損害門檻」,只要資料主體能證明受有損害,不論這個損害有多輕微,都應獲得賠償。
什麼是「美國CFIUS」?美國CFIUS又稱為美國外資投資委員會(Committee on Foreign Investment in the United States),其依據1950年國防製造法(Defense Production Act of 1950)第721款The Exon-Florio修正案,授權組成的政府委員會。 美國外資投資委員會CFIUS的主要任務,在於審查外資併購交易,以防外國人透過跨國企業併購方式,控制美國企業,危及國家經濟與軍事安全並導致本國高科技技術外流。 美國在2007年簽署「外國投資和國家安全法」(The Foreign Investment and National Security Act of 2007,簡稱FINSA),該法案針對外國投資安全審查項目,包括加強國家安全概念、完善CFIUS審查與監督職責等。 近期,新的立法提案方向為「外國投資風險審查現代化法案」(the Foreign Investment Risk Review Modernization Act of 2017,簡稱FIRRMA)。此法案目標是推展CFIUS現代化改革,限制外資對美國科技公司和基礎設施的投資,以維護國家安全。該法案將帶給國會、外商投資及CFIUS的監管環境顯著改變,具體內容包括擴大CFIUS管轄權與權力、擴大對美國關鍵技術與基礎設施投資審查、增加國家安全風險考量因素等。
澳洲政府發布「國家 AI 計畫」 將採用科技中立的AI治理模式澳洲工業、科學及資源部(Department of Industry, Science and Resources)於2025年12月2日發布「國家AI計畫」(National AI Plan),擘劃了澳洲至2030年的AI發展藍圖,將「掌握機遇」、「普及效益」與「確保人民安全」列為三大發展方向。該計畫將透過基礎建設投資、人才培育、產業支持,以及強化監管能力等途徑,打造一個更具競爭力、包容性與安全性的 AI 生態系統。 國家AI計畫的另一個重點在於,澳洲政府打算透過現有的法律監管架構治理AI,而不另立AI專法。此舉是回應澳洲生產力委員會(Productivity Commission)於8月提出之建言:政府在推動創新與訂定規範時必須取得平衡,應暫緩推動「高風險 AI 的強制護欄(mandatory guardrails)」,僅有在現行制度無法處理AI衍生之危害時,才有必要考慮制定 AI 專法。 據此,國家AI計畫指出,面對AI可能造成的危害,現有制度已有辦法進行處理。例如面對使用AI產品或服務的爭議,可依循《消費者保護法》(Australian Consumer Law)取得權利保障;AI產品或服務的風險危害,亦可透過《線上安全法》(Online Safety Act 2021)授權,制定可強制執行的產業守則(enforceable industry codes)來應對。澳洲政府未來也將推動《隱私法》(Privacy Act 1988)修法,意欲在「保護個人資訊」與「允許資訊被使用及分享」之間取得適當平衡。 同時,由於採用分散式立法的關係,澳洲特別成立「AI 安全研究院」(Australian AI Safety Institute, AISI),以強化政府因應 AI 相關風險與危害的能力。AISI將協助政府部門內部進行監測、分析並共享資訊,使部門間能採取即時且一致的治理政策。 澳洲政府曾在2024年9月研議針對高風險AI進行專門的監管,但因擔心過度立法恐扼殺AI發展轉而採用「科技中立」的監管方式,以既有法律架構為基礎推動AI治理。此與歐盟的AI治理邏輯大相逕庭,未來是否會出現現行制度無法處理之AI危害,抑或採用現行法制並進行微調的方式即可因應,值得持續觀察。