法國國民議會(National Assembly)於2019年7月9日通過反仇恨言論立法提案,希望效仿德國社群媒體管理法(NetzDG),課予網路平台業者積極管理平台上仇恨言論(hate speech online)之責任。該提案希望透過立法要求大型網路平台及搜尋引擎,如Facebook及YouTube等,必須設置用戶檢舉管道,並於24小時內刪除以種族、宗教、性別、性取向或身心障礙為由之煽動仇恨或歧視性侮辱言論,否則將面臨高達全球營業額4%之罰款。 在主管機關方面,規劃由法國廣電主管機關「最高視聽委員會」(High Audiovisual Council, CSA)進行監管,網路平台業者必須向其提交仇恨言論之處理報告與相關數據。同時,平台業者應加強與法國司法系統的合作,取消違法用戶的匿名權利並提供相關證據資料,以利司法追訴。 2019年3月15日紐西蘭清真寺槍擊案之網路直播事件,讓各國警惕勿讓網路平台成為傳遞仇恨言論的工具。發起立法的法國議員Laetitia Avia表示,對抗網絡仇恨言論是場艱巨且長期的戰鬥,希望透過立法讓各方負起應有的責任,讓仇恨言論無所遁形,但反對者認為平台業者為了避免裁罰的風險,可能會對內容進行過度審查,相關自動化過濾技術也可能對言論自由產生不利影響。本立法提案仍待法國參議院完成審議。
日本經產省公布「伊藤報告3.0版」和「價值協創指南2.0版」,強調企業永續發展重要性日本經濟產業省於2022年8月31日公布「伊藤報告3.0版」(伊藤レポート3.0)和「為協力創造價值之綜合揭露、對話指南2.0版」(価値協創のための統合的開示・対話ガイダンス2.0,簡稱價值協創指南),強調企業永續轉型重要性。所謂永續轉型,係指社會永續發展與企業永續發展必須「同步」,及企業為此需要在經營面和產業面進行之改革。 「伊藤報告3.0版」整理企業推動永續轉型應採取之措施,包括必須根據社會永續性擘畫未來方向,並制定可實現長期價值之企業戰略、關鍵績效指標(Key Performance Indicators, KPI)、治理目標等。此外,伊藤報告也指出供應鏈全體(包含中堅、中小企業和新創企業等)和投資鏈上之參與者,都需要推動企業永續轉型。 為強化企業經營以實現永續轉型,經濟產業省同步修正「價值協創指南2.0版」,調整企業資訊揭露及對話方式,讓過程可以更有效率及建設性。指南修正重點包括:(1)全部項目都強調為實現永續社會,企業長期且持續提供價值的重要性及因應方向;(2)新設長期戰略項目;(3)確保「氣候相關財務揭露(Task Force on Climate-related Financial Disclosures, TCFD)」所提出之治理、戰略、風險管理、指標與目標之揭露架構與整合性;(4)於項目「實施戰略(中期經營戰略等)」中,強調人才戰略和人才投資重要性;(5)新設實質對話、約定項目。
中鋼開發高效率馬達用鋼片 節省能源「京都議定書」要求減少二氧化碳排放量引起各國重視,中國鋼鐵公司已開發高效率馬達用高品級電磁鋼片,可提高馬達輸出效能,節省能源。 中鋼公司六月十四日表示,為因應未來的能源政策趨勢,高效率馬達越來越受到國際間的重視,美國並規定符合效率的馬達才可銷售,我國也實施「三相感應電動機效率管制」措施,規定國內生產及進口的馬達必須是高效率的馬達。國內目前工業用馬達約有六十五萬台,家用馬達約一百萬台;中鋼公司說,依據研究顯示,馬達效率如果提升百分之二,國內每年約可節省用電量約為核能發電廠一部發電主機的發電量。 中鋼公司開發的高效率馬達用電磁鋼片為五十CS四百型與五十CS六百型,約可提升效率兩成,目前已可量產,對環保和節能有很大效益。
美國科羅拉多州通過《人工智慧消費者保護法》2024年5月17日,科羅拉多州州長簽署了《人工智慧消費者保護法》(Consumer Protections for Artificial Intelligence Act,Colorado AI Act,下簡稱本法),其內容將增訂於《科羅拉多州修訂法規》(Colorado Revised Statutes,簡稱CRS)第6篇第17部分,是美國第一部廣泛對AI規範的法律,將於2026年2月1日生效。 本法旨在解決「高風險人工智慧系統」的演算法歧視(Algorithmic Discrimination)的問題 ,避免消費者權益因為演算法之偏見而受到歧視。是以,本法將高風險AI系統(High-risk Artificial Intelligence System)定義為「部署後作出關鍵決策(Consequential Decision)或在關鍵決策中起到重要作用的任何AI系統」。 而後,本法藉由要求AI系統開發者(Developers)與部署者(Deployers)遵守「透明度原則」與「禁止歧視原則」,來保護消費者免受演算法歧視。規定如下: (一)系統透明度: 1.開發者應向部署者或其他開發者提供該系統訓練所使用的資料、系統限制、預期用途、測試演算法歧視之文件以及其他風險評估文件。 2.部署者應向消費者揭露高風險人工智慧系統的預期用途,也應在高風險人工智慧系統做出決策之前向消費者提供聲明,聲明內容應該包含部署者之聯絡方式、該系統的基本介紹、部署者如何管理該系統可預見之風險等資訊。 (二)禁止歧視: 1.開發者應實施降低演算法歧視之措施,並應協助部署者理解高風險人工智慧系統。此外,開發者也應該持續測試與分析高風險人工智慧系統可能產生之演算法歧視風險。若開發者有意修改該系統,應將更新後的系統資訊更新於開發者網站,並須同步提供給部署者。 2.部署者應該實施風險管理計畫,該風險管理計畫應包含部署者用於識別、紀錄降低演算法歧視風險之措施與負責人員,且風險管理計畫應定期更新。在制定風險管理計畫時,必須參考美國商務部國家標準暨技術研究院(National Institute of Standards and Technology, NIST)的《人工智慧風險管理框架》(AI Risk Management Framework, AI RMF 2.0)與ISO/IEC 42001等風險管理文件。 美國普遍認為科羅拉多州的《人工智慧消費者保護法》為目前針對人工智慧系統最全面之監管法規,可作為其他州有關人工智慧法規的立法參考,美國各州立法情況與作法值得持續關注。