瑞士聯邦委員會發布氣候揭露規則,規範企業非財務資訊揭露義務標準

  瑞士聯邦委員會(The Swiss Federal Council)於2022年11月23日發布氣候揭露規則(L'ordonnance relative au rapport sur les questions climatiques),旨在補充《瑞士債法典》(Code des Obligations)企業非財務資訊揭露義務之標準,要求瑞士大型企業呈現明確、可供比較的氣候資訊,並於2024年1月1日起生效。

  依照《瑞士債法典》第32章第6節「非財務事項之透明度(Transparency on Non-Financial Matters)」規定,擁有500位以上員工,且資產負債表總額為2000萬瑞士法郎以上或營業額超過4000萬瑞士法郎之上市公司、銀行和保險公司(下稱大型企業)每年應揭露非財務資訊。氣候揭露規則就此進一步補充該章節的內容,要求大型企業依照國際公認標準揭露氣候資訊,要點如下:

  (1)明定包括氣候對大型企業造成的影響與企業活動對氣候造成的影響在內的資訊,皆應於大型企業的非財務資訊報告中公布。

  (2)將氣候相關財務揭露工作小組(Task Force on Climate-related Financial Disclosure, TCFD)公布之「TCFD建議書(Recommendations of the Task Force on Climate-related Financial Disclosures)」與附件「TCFD建議書之實施(Implementing the Recommendations of the Task Force on Climate-related Financial Disclosures)」納為瑞士大型企業氣候揭露標準,包括治理、戰略、風險管理及關鍵指標與目標四項主題,並應留意建議書「適用所有部門(all-sectors)」與「個別部門(certain sectors)」之指引。

  (3)如未依規定揭露者,則應說明其遵循氣候揭露義務的其他方式,或說明無須遵循的正當理由。

本文為「經濟部產業技術司科技專案成果」

相關連結
※ 瑞士聯邦委員會發布氣候揭露規則,規範企業非財務資訊揭露義務標準, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw//article-detail.aspx?d=8937&no=67&tp=1 (最後瀏覽日:2026/01/26)
引註此篇文章
你可能還會想看
英國技術移轉政府辦公室發布2023至2024年之年度施政報告

英國技術移轉政府辦公室(Government Office for Technology Transfer, GOTT)於2022年4月成立,主要解決公部門研發成果,即「知識資產」(knowledge assets, KA),因面臨運用不足及管理等困境,並積極推動公部門衍生新創政策,促進KA產業化。 GOTT會依研發法人的需求及經驗程度,提供個別支援性服務,如協助較無KA運用經驗之法人設置KA運用工作規則及管理方式等直接技術性指導,亦提供較有KA運用經驗之法人額外投資資金及其他資源挹注。 GOTT於2024年7月5日發布過去一年(2023年4月1日至2024年3月31日)之施政報告,主要重點簡述如下: (1)對「玫瑰書」(the Rose Book),即政府KA管理指引,提出細部操作指引,如:「PSB內KA管理負責人角色任命指引」、「協助PSB制定KA管理策略指引」、「智慧財產權及其機密性指引」、「附件A–知識資產類別與類型」、「附件B–KA評估工具」、「附件C–商業化路線」、「附件D–獲取KA指引」、「附件E–人才流動指引」以及「申請KA補助基金指引」等。 (2)推出首個政府對公部門創新研發之市場驗證加速器計劃,稱為「公共研究創新和市場加速器」(the Public Research Innovation and Market Accelerator, PRIMA),協助公部門創新者測試其研發構想、產品及服務是否有市場發展潛力。 (3)發布「公部門衍生新創公司研究」(Public Sector Spinouts Study),為英國政府首次對公部門推動衍生新創政策及制度進行審查,顯示英國推動上遇有許多推動障礙,研究最後對英國政府及GOTT提供多項施政建議。

加拿大安大略省通過修正健康資訊保護法

  加拿大安大略省議會於2016年5月三讀通過修正健康資訊保護法(Health Information Protection Act, HIPA)。該法案藉由一連串措施,包括增加隱私保護、問責制與提升透明度,以提高病人地位。 1.在符合指令定義內,將違反隱私之行為強制性地通報與資訊與隱私專員; 2.強化違反個人健康資訊保護法之起訴流程,刪除必須於犯罪發生之六個月內起訴之規定; 3.個人犯罪最高額罰款提升到50,000元至100,000元,組織則為250,000元至500,000元。   而健康資訊保護法也將更新照護品質資訊保護法(Quality of Care Information Protection Act, QCIPA),有助於提升透明度,以保持醫療系統的品質,更新內容包括: 1.確認病患有權得知其醫療相關資料; 2.釐清不得對關於受影響的病患與家屬保留重要事項之資訊與事實; 3.要求健康與長照部(Minister of Health and Long-Term Care)每五年定期審查照護品質資訊保護法。   安大略省亦正著手研究由專家委員會提出,所有關於提升照護品質資訊保護法所稱重大事故透明度之建議。   藉著透過該目標,將可提供病患更快的醫療,更好的家庭與社區照顧,安大略政府希望可以透過上開手段以保護病患隱私以及加強其資訊透明度。

新加坡金融管理局發布《資料治理與管理實務》資訊文件

新加坡金融管理局(Monetary Authority of Singapore,下文簡稱MAS)於2024年5月29日發布《資料治理與管理實務》(Data Governance and Management Practices: Observations and Supervisory Expectations From Thematic Inspections)文件。此文件係根據MAS於2022年至2023年期間針對國內系統性重要銀行(Domestic Systemically Important Banks,下文簡稱D-SIBs)進行「資料治理與管理架構」的主題式檢查結果加以研究與分析而作成,其內容包含MAS對於資料治理的期望、受檢銀行的優良實踐範例及缺失,希望未參與檢查的銀行與金融機構也能根據這份文件進行適當的改善措施。 MAS在《資料治理與管理實務》文件中提出關於五大主題的監管期待,簡要說明如下: 1.董事會和高階管理層的監督: 董事會和高階管理層應加強監督資料治理。例如,定期向董事會報告資料管理領域的重要問題;高階管理層應即時獲得準確且完整的相關資訊,並對資料風險進行分析。 2.設置資料管理單位: 銀行應建立資料管理單位,並為資料管理辦公室提供明確的任務授權,以利其監測資料的品質。 3.資料品質之管理與控制: 銀行應建立資料品質管理架構與流程,以確保資料在整個生命週期中是有品質的。例如,建立有效控制資料流的機制;建立資料品質指標或計分卡;使用終端使用者運算工具(end-user computing tools)處理資料時,應納入風險評估和控制架構來管理。 4.資料品質控制資料之問題識別與升級: 銀行應制定升級標準和行動計畫,以改善資料品質。另外MAS也建議銀行應該要有強大且完整的資料譜系(data lineage)來辨識資料問題並將之改善。 5.BCBS 239原則之擴大適用:BCBS 239原則係巴賽爾銀行監理委員會(the Basel Committee on Banking Supervision)第239號規範:《有效風險資料聚合及風險報告原則》(Principles for effective risk data aggregation and risk reporting),適用於全球的系統性重要銀行(Global Systemically Important Banks),巴賽爾銀行監理委員會同時建議D-SIBs宜遵循此原則,因此MAS亦要求新加坡境內7家D-SIBs須遵守BCBS 239原則的相關規範。此外,MAS仍期待各銀行與金融機構可以擴大BCBS 239原則的適用範圍,例如在範圍內報告(in-scope reports,或稱主要風險報告)中納入反洗錢、稅務管理等面向。由於金融服務是一個由資料驅動的產業,資料已然是金融業重要的戰略資產。MAS期盼這份文件能夠讓所有銀行及金融機構提升其資料治理能力,並針對內部的問題進行改善。

美國情報體系發布「情報體系運用人工智慧倫理架構」

  美國國家情報體系(United States Intelligence Community)係於1981年依據行政命令第12333號(Executive Order 12333)所建立,其任務為蒐集、分析與提供外國情報與反情報資訊美國國家領導人,服務對象包含美國總統、執法單位以及軍事單位。其於2020年6月提出「情報體系人工智慧倫理架構」(Artificial Intelligence Ethics Framework for the Intelligence Community),為人工智慧系統與訓練資料、測試資料之採購、設計、研發、使用、保護、消費與管理提出指引,並指出人工智慧之利用須遵從以下事項: 一、於經過潛在風險評估後,以適當且符合目的之方法利用; 二、人工智慧之使用應尊重個人權利與自由,且資料取得應合法且符合相關政策與法規之要求; 三、應於利用程序內結合人類判斷與建立問責機制,以因應AI產品之風險並確保其決策之適當性。 四、於不破壞其功能與實用性之前提下,盡可能確認、統計以及降低潛在之歧視問題。 五、AI進行測試時應同時考量其未來利用上可預見之風險。 六、持續維持AI模型之迭代(Iteration)、版本與改動之審查。 七、AI之建立目的、限制與設計之輸出項目,應文件化。 八、盡可能使用可解釋與可理解之方式,讓使用者、審查者與公眾理解為何AI會產出相關決策。 九、持續不定期檢測AI,以確保其符合當初建置之目的。 十、確認AI於產品循環中各階段之負責人,包含其維護相關紀錄之責任。

TOP