歐盟執委會(European Commission)於2024年9月2日發布「關於《2018/2001號指令》第20a條再生電力系統整合指引(經《2023/2413號指令》修訂)」(Guidance on Article 20a on sector integration of renewable electricity of Directive (EU) 2018/2001 on the promotion of energy from renewable sources, as amended by Directive (EU) 2023/2413),協助會員國落實2023年修訂版《再生能源指令》(Renewable Energy Directive, RED)第20a條,並促進再生電力系統整合。《再生能源指令》背景係為幫助歐盟達成2030年再生能源占比達45%之目標,第20a條並規範能源系統電氣化與再生能源使用。 再生電力整合指引主要涵蓋下列重點: (1)資料共享與透明度:要求輸配電系統運營商提供再生能源比例及供應電力溫室氣體排放資料,並確保用戶能夠即時獲取相關資料。 (2)電池資訊與智慧充電:電池和電動車製造商需提供電池管理系統(Battery Management System, BMS)基本資訊,包括電池容量、充電狀態等,並推廣雙向充電技術,提升電網靈活性。 (3)電網升級與智慧電網:鼓勵會員國透過政策和獎勵措施升級智慧電網,以增強其整合再生能源之能力。指引另強調須特別注意小型分散式能源和移動式儲能系統公平進入市場之機會。 (4)跨國協作與資料可互通性(interoperability):會員國需確保系統間資料的可互通性,採用標準化資料格式,促進歐盟各國電力市場一致性與跨境合作。 根據《再生能源指令》,2025年5月前各會員國須完成第20a條內國法化相關程序。
英國因劍橋分析個資外洩事件開罰臉書英國資訊專員辦公室(Information Commissioner’s Office, ICO)於2018年10月24日公告針對臉書公司(Facebook Ireland Ltd. & Facebook Inc.)之劍橋分析(Cambridge Analytica)個資外洩事件,依據英國資料保護法(Data Protection Act 1998)第55A條之規範,裁罰臉書公司50萬英鎊之罰鍰。 自2018年3月劍橋分析違法取得與使用臉書個資事件爆發以來,估計約有8700萬筆臉書上的個人資料遭到違法使用,引起全球對於網路個資保護的重視。在遭到違法取得與使用的個資當中,也包含了歐盟以及英國臉書使用者的個資,因此英國ICO有權對此事件展開調查並對臉書公司進行裁罰。 根據英國ICO的調查,自2007年至2014年間,臉書公司對於其平台上的個資處理(processed)有所不當,違反資料保護法之資料保護原則(Data Protection Principle,DPP),包含未適當處理個人資料(DPP1),以及未採取足夠的技術與作為防止未經授權或違法使用個資(DPP7),致使劍橋分析得以透過臉書公司提供之API違法取用臉書使用者個資。 由於劍橋分析事件發生時,歐盟GDPR(General Data Protection Regulation)尚未正式上路,因此英國ICO依據事件發生時之法律,亦即基於歐盟資料保護指令(Directive 95/46/EC)所訂定之英國資料保護法,裁處臉書公司50萬英鎊的罰款;若依據基於GDPR之新版英國資料保護法(Data Protection Act 2018),臉書公司將可被裁處最高1700萬英鎊或年度全球營業額4%之罰款。
因應知識經濟社會 日本推動司法改革鑑於社會態度轉變與經濟面的需求,特別是隨著稅法和智慧財產權問題日益複雜,日本企業領袖紛紛延攬龐大的律師團,以借助其專長規劃並解決相關問題,以至法律專業人才需求更甚於以往。為此,日本改變壓低律師人數以及不鼓勵興訟的政策,大刀闊斧推動二次世界大戰以來最大的司法制度改革。本次司法制度大改革廣開職業考試大門,以便有足夠的律師、檢察官與法官,能在日益好訟的日本社會處理龐大民、刑事案件。 為填補需求缺口,日本政府決定將包括律師、檢察官和法官在內的法律專業人士的人數提高一倍以上,在 2018 年以前增至五萬人。同時,重大刑案將在 2009 年引進陪審團制度,以減輕法官負擔。在政府鼓勵下,日本第一所美式法學院於 2004 年成立,現在全國已有七十二所類似的法學院。過去日本大學法律系通常著重法律的學術或理論面,而新式法學院的重心則以實務訓練為主。這些法學院的畢業生不必考舊律師考試,只考專為他們設計的筆試。 我國法學教育改革研議已有幾十年,總統府人權諮詢小組在討論人權問題時,亦有專題涉及法律人養成與司法制度改革,因而研議全盤改革相關制度;行政院經建會在重要人才培育與運用的政策中,亦研擬自去( 94 )年開始推動法律專業學院制度。
美國科羅拉多州通過《人工智慧消費者保護法》2024年5月17日,科羅拉多州州長簽署了《人工智慧消費者保護法》(Consumer Protections for Artificial Intelligence Act,Colorado AI Act,下簡稱本法),其內容將增訂於《科羅拉多州修訂法規》(Colorado Revised Statutes,簡稱CRS)第6篇第17部分,是美國第一部廣泛對AI規範的法律,將於2026年2月1日生效。 本法旨在解決「高風險人工智慧系統」的演算法歧視(Algorithmic Discrimination)的問題 ,避免消費者權益因為演算法之偏見而受到歧視。是以,本法將高風險AI系統(High-risk Artificial Intelligence System)定義為「部署後作出關鍵決策(Consequential Decision)或在關鍵決策中起到重要作用的任何AI系統」。 而後,本法藉由要求AI系統開發者(Developers)與部署者(Deployers)遵守「透明度原則」與「禁止歧視原則」,來保護消費者免受演算法歧視。規定如下: (一)系統透明度: 1.開發者應向部署者或其他開發者提供該系統訓練所使用的資料、系統限制、預期用途、測試演算法歧視之文件以及其他風險評估文件。 2.部署者應向消費者揭露高風險人工智慧系統的預期用途,也應在高風險人工智慧系統做出決策之前向消費者提供聲明,聲明內容應該包含部署者之聯絡方式、該系統的基本介紹、部署者如何管理該系統可預見之風險等資訊。 (二)禁止歧視: 1.開發者應實施降低演算法歧視之措施,並應協助部署者理解高風險人工智慧系統。此外,開發者也應該持續測試與分析高風險人工智慧系統可能產生之演算法歧視風險。若開發者有意修改該系統,應將更新後的系統資訊更新於開發者網站,並須同步提供給部署者。 2.部署者應該實施風險管理計畫,該風險管理計畫應包含部署者用於識別、紀錄降低演算法歧視風險之措施與負責人員,且風險管理計畫應定期更新。在制定風險管理計畫時,必須參考美國商務部國家標準暨技術研究院(National Institute of Standards and Technology, NIST)的《人工智慧風險管理框架》(AI Risk Management Framework, AI RMF 2.0)與ISO/IEC 42001等風險管理文件。 美國普遍認為科羅拉多州的《人工智慧消費者保護法》為目前針對人工智慧系統最全面之監管法規,可作為其他州有關人工智慧法規的立法參考,美國各州立法情況與作法值得持續關注。