瑞士聯邦委員會發布氣候揭露規則,規範企業非財務資訊揭露義務標準

  瑞士聯邦委員會(The Swiss Federal Council)於2022年11月23日發布氣候揭露規則(L'ordonnance relative au rapport sur les questions climatiques),旨在補充《瑞士債法典》(Code des Obligations)企業非財務資訊揭露義務之標準,要求瑞士大型企業呈現明確、可供比較的氣候資訊,並於2024年1月1日起生效。

  依照《瑞士債法典》第32章第6節「非財務事項之透明度(Transparency on Non-Financial Matters)」規定,擁有500位以上員工,且資產負債表總額為2000萬瑞士法郎以上或營業額超過4000萬瑞士法郎之上市公司、銀行和保險公司(下稱大型企業)每年應揭露非財務資訊。氣候揭露規則就此進一步補充該章節的內容,要求大型企業依照國際公認標準揭露氣候資訊,要點如下:

  (1)明定包括氣候對大型企業造成的影響與企業活動對氣候造成的影響在內的資訊,皆應於大型企業的非財務資訊報告中公布。

  (2)將氣候相關財務揭露工作小組(Task Force on Climate-related Financial Disclosure, TCFD)公布之「TCFD建議書(Recommendations of the Task Force on Climate-related Financial Disclosures)」與附件「TCFD建議書之實施(Implementing the Recommendations of the Task Force on Climate-related Financial Disclosures)」納為瑞士大型企業氣候揭露標準,包括治理、戰略、風險管理及關鍵指標與目標四項主題,並應留意建議書「適用所有部門(all-sectors)」與「個別部門(certain sectors)」之指引。

  (3)如未依規定揭露者,則應說明其遵循氣候揭露義務的其他方式,或說明無須遵循的正當理由。

本文為「經濟部產業技術司科技專案成果」

相關連結
※ 瑞士聯邦委員會發布氣候揭露規則,規範企業非財務資訊揭露義務標準, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8937&no=64&tp=1 (最後瀏覽日:2025/12/14)
引註此篇文章
你可能還會想看
經濟合作與發展組織發布《促進AI可歸責性:在生命週期中治理與管理風險以實現可信賴的AI》

經濟合作與發展組織(Organisation for Economic Co-operation and Development, OECD)於2023年2月23日發布《促進AI可歸責性:在生命週期中治理與管理風險以實現可信賴的AI》(Advancing accountability in AI: Governing and managing risks throughout the lifecycle for trustworthy AI)。本報告整合ISO 31000:2018風險管理框架(risk-management framework)、美國國家標準暨技術研究院(National Institute of Standards and Technology, NIST)人工智慧風險管理框架(Artificial Intelligence Risk Management Framework, AI RMF)與OECD負責任商業行為之盡職調查指南(OECD Due Diligence Guidance for Responsible Business Conduct)等文件,將AI風險管理分為「界定、評估、處理、治理」四個階段: 1.界定:範圍、背景、參與者和風險準則(Define: Scope, context, actors and criteria)。AI風險會因不同使用情境及環境而有差異,第一步應先界定AI系統生命週期中每個階段涉及之範圍、參與者與利害關係人,並就各角色適用適當的風險評估準則。 2.評估:識別並量測AI風險(Assess: Identify and measure AI risks)。透過識別與分析個人、整體及社會層面的問題,評估潛在風險與發生程度,並根據各項基本價值原則及評估標準進行風險量測。 3.處理:預防、減輕或停止AI風險(Treat: Prevent, mitigate, or cease AI risks)。風險處理考慮每個潛在風險的影響,並大致分為與流程相關(Process-related)及技術(Technical)之兩大處理策略。前者要求AI參與者建立系統設計開發之相關管理程序,後者則與系統技術規格相關,處理此類風險可能需重新訓練或重新評估AI模型。 4.治理:監控、紀錄、溝通、諮詢與融入(Govern: Monitor, document, communicate, consult and embed)。透過在組織中導入培養風險管理的文化,並持續監控、審查管理流程、溝通與諮詢,以及保存相關紀錄,以進行治理。治理之重要性在於能為AI風險管理流程進行外在監督,並能夠更廣泛地在不同類型的組織中建立相應機制。

數位內容與色情問題引起討論

  南非國會近期推動數位匯流法案 (Convergence Bill) 之立法,其中,色情內容是否應於數位匯流立法之中加以定義與規範,引起不同的看法。有專家指出,色情內容超出了數位匯流法案所應規範之主題。亦有專家指出,如定義與規範不當,反而會引發出更多的問題。   在數位匯流與數位內容成為趨勢的今天,我們對於數位匯流與數位內容都從正面的角度來加以觀察,並予以期待。然而,數位匯流的只是傳播媒介,數位內容標示的也只是承載內容的載體。我們希望什麼樣的數位內容?負面的數位內容 ( 如色情內容 ) 在未來數位匯流與數位內容的發展趨勢中,應被放置在一個怎樣的位置,應是值得我們加以思考的。

美國交通部提出自駕車全面性計畫,以促進自動駕駛系統規範環境之整合、透明性與現代化

  美國聯邦運輸部(US Department of Transportation)於2021年1月11日發布「自駕車全面性計畫(Automated Vehicles Comprehensive Plan, AVCP)」,建立了交通部促進合作、透明性與管制環境現代化,並將自動駕駛系統(Automated Driving Systems)安全整合入交通系統之策略。基於過去「自駕車政策4.0」建立之原則上,自駕車全面性計畫定義了三個目標以達成其願景: 促進合作與透明性:交通部將會促進其合作單位與利益相關人可取得清楚且可靠之資訊,包含自駕系統的能力與限制。 使管制環境現代化:交通部將會現代化相關規範並移除對創新車輛設計、特性與運作模組之不必要障礙,並發展專注於安全性之框架與工作以評估自駕車技術的安全表現。 運輸系統之整備:交通部將會與利害相關人合作實施安全的評估與整合自駕系統於運輸系統之基礎研究與行動,並促進安全性、效率與可取得性。   政策文件中也就相關目標提出了關鍵目的以及行動,包含先前交通部所提出的「自駕系統安全性框架(Framework for Automated Driving System Safety)」草案,將透過建立框架定義、評估並提供自駕系統的安全性需求,並同時保留創新發展之彈性;另外此政策文件也提出了如何將自駕系統融合現有技術應用之實際案例。交通部將會定期的檢視相關行動與計畫,以反應技術與產業發展,並減少重複性之行動,並將資源投注於重要領域。

2022年日本公布平台資料處理規則實務指引1.0版

  日本數位廳(デジタル庁)與內閣府智慧財產戰略推進事務局(内閣府知的財産戦略推進事務局)於2022年3月4日公布「平台資料處理規則實務指引1.0版」(プラットフォームにおけるデータ取扱いルールの実装ガイダンス ver1.0,簡稱本指引)。建構整合資料提供服務的平台,將可活用各種資料,並創造新價值(如提供個人化的進階服務、分析衡量政策效果等),為使平台充分發揮功能,本指引提出平台實施資料處理規則的六大步驟: 識別資料應用價值創造流程與確認平台角色:掌握從產生資料,到分析資料創造使用價值,再進一步提供解決方案的資料應用價值創造流程,以確認平台在此流程中扮演的角色。 識別風險:掌握利害關係人(如資料提供者與使用者等)顧慮的風險(如資料未妥適處理、遭到目的外使用等疑慮)。 決定風險應對方針:針對掌握的風險,決定規避、降低、轉嫁與包容等應對方針。 設定平台資料處理政策與對利害關係人說明之責任(アカウンタビリティ):考量資料處理政策定位,擬定內容,並向利害關係人進行說明。 設計平台使用條款:依據「PDCA循環」重複執行規則設計、運作與評估,設計平台使用條款。 持續進行環境分析與更新規則:持續分析內部與外部因素可能面臨的新風險,並更新平台資料處理規則。

TOP