歐美擴大永續報告書的揭露範圍,企業可透過歷程管理增進資料透明度

根據美國瑞生國際律師事務所(Latham & Watkins)於2024年1月發布的ESG年度報告指出,隨漂綠議題延燒,ESG報告不受信任為一課題,因此國際逐步擴大ESG監管,多國透過立法強制企業應揭露永續報告書或供應鏈資訊,比如:歐盟於2023年1月生效之《企業永續報告指令》(Corporate Sustainability Reporting Directive, CSRD),要求企業揭露的永續資訊需增加供應鏈資訊的透明度;美國證券交易委員會(SEC)於2024年3月6日通過規則,要求上市公司及公開發行公司揭露碳排放報告等氣候風險相關資訊。

為因應ESG帶來的挑戰,報告建議企業應採取流程化管理方式,了解產品進出口涉及的其他國家對ESG揭露資訊的要求,加以規劃並建置資料控管規範、進行人員教育訓練以及確認ESG相關資料的所有權歸屬。

由於碳排放量的計算沒有一致標準,且難以確保供應鏈上下游所提供的碳排資訊真實、未經竄改等問題,外界不容易信任企業永續發展書提倡的供應鏈減碳策略。國內企業可參考資策會科法所創意智財中心發布的《重要數位資料治理暨管理制度規範(EDGS)》,透過流程化管理,從制度規劃及留存供應鏈二氧化碳排放量或二氧化碳減量等產品相關資料歷程來增進ESG資料透明度。

本文同步刊登於TIPS網(https://www.tips.org.tw

相關連結
你可能會想參加
※ 歐美擴大永續報告書的揭露範圍,企業可透過歷程管理增進資料透明度, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=9141&no=64&tp=1 (最後瀏覽日:2026/05/11)
引註此篇文章
你可能還會想看
德國公布商業無人機新規範,加強操作安全及隱私保護

  隨著資通訊技術與網路科技整合,無人機熱潮在全球各地崛起,相關創新應用蓬勃發展,產業規模也因此快速擴張,然而國內外不斷傳出多起無人機意外事件,相關操作規範及隱私等法律議題也備受矚目。   德國聯邦交通部於2017年1月18日公布無人機新規範,以提升無人機操作安全,防止碰撞等意外事件,並加強隱私保護。所謂無人機即搖控飛行器,德國航空法上之定義包括模型飛機及無人航空系統設備,前者係用於私人娛樂或體育競賽,其餘飛行器,尤其是商業用途,則歸屬於後者,本次規範重點如下: 1.特定模型飛機場域內的操作規定,不受本次規範修訂影響,惟必須於操作之飛行器上標示所有人之姓名及地址供辨識。 2.超過0.25公斤之無人機或模型飛機,有標示所有人之姓名及地址供辨識之義務。 3.超過2公斤之無人機或模型飛機操作者,必須通過聯邦航管局技能測試或取得飛行運動協會核發之技能證書。 4.超過5公斤之無人機或模型飛機,必須額外取得各邦民航局之許可。 5.除特定模型飛機場域內,或例外經由各邦民航局申請核可者外,飛行高度不得超過100公尺。一般而言,應於視線範圍內飛行,但未來將可能適度放寬,以利商業無人機之運用發展。 6.無人機或模型飛機應避免與其他無人機碰撞。 7.禁止造成各種障礙或危險之飛行行為。 8.禁止商業無人機或模型飛機在敏感區域飛行,例如憲法機構、聯邦或各邦機關、警消救災範圍、人群聚集區、主要交通幹道、機場起降區。 9.超過0.25公斤之無人機或模型飛機,或配備光學、聲音、無線電信號發送或記錄設備之飛行器不得在住宅區飛行。   近來幾起無人機入侵機場事件造成嚴重飛安威脅,相關碰撞意外新聞也不斷頻傳。為兼顧生命財產安全及促進新興技術發展,有必要進行適度合理監管及預防措施,並加強操作安全及隱私教育,以降低危害風險,並於意外或違規事件發生後,得以追究肇事者相關法律責任。

軟體安全性缺失成為買賣標的

  瑞士的網路安全公司WSLabi於2007年7月9日宣佈一項訊息,未來將在線上公開交易或交換一些軟體的安全性漏洞和弱點予軟體相關研究人員、安全代理商和軟體公司,價格從數百美元至數萬美元不等。而此意謂拍賣軟體瑕疵的新興市場即將被打開。   WSLabi公開拍賣軟體弱點與漏洞的作法引起了很大的爭論。以往軟體安全業者於發現軟體的弱點後,會與軟體開發者合作修補安全性弱點和漏洞,待修補完成後再公開宣佈修補軟體安全性弱點之相關訊息。但該公司的新作法將導致軟體公司未來可能因為無法及時修補弱點而商譽受損。因此該項計畫雖尚未實行,卻引起了不同看法的爭辯:支持者表示,此一計畫將有助於改善軟體弱點及安全漏洞的問題,並可鼓勵對於軟體的弱點的深入研究;然反對者卻認為,如果軟體的弱點和安全漏洞因而落入有心人的手中,利用於犯罪或幫助他人犯罪,將會對資訊安全形成極大威脅。再者,把其他公司開發的軟體弱點在市場上交易,可能也會引發道德與合法性的問題。   WSLabi於瞭解這項做法可能引起侵害著作權(重製、散布、販賣軟體等行為)、營業秘密與犯罪防治等法律上的爭議及國家安全的問題後表示,他們將會審慎地過濾選擇買主,不會將研究之結果出售予犯罪者或敵國政府。雖然如此,他們的說法仍引起質疑,畢竟判斷買主是否為善意或確定身份並非易事。

Google與Klausner Technologies公司之專利訟訴和解

  根據路透社(Reuters)報導指出,Google,和日前亦接獲到Klausner Technologies公司之專利訴訟LG, Apple,Skype以同意授權方式,結束可視覺化語音信箱(visual voicemail)之智慧財產權訴訟案。   提出訴訟案為Klausner Technologies公司之CEO,亦為可視覺化語音信箱技術發明人Judah Klausner,其擁有美國、歐洲與亞洲之專利。目前市場上熱門的可觸控式手機具有可視覺化語音信箱特性,包含Apple’s iPhone都具有其功能性。   此案主要涉及Klausner之專利擁有可視覺化語音信箱技術,類似電子郵件,使用者可利用電腦或電話傳送可視覺化之語音訊息,並讓使用者具選擇性收取訊息。   目前Google擁有兩種服務,受Klausner’s專利之影響,其一讓使用者透過Grand Central提供一簡單網際網路語音溝通平台,另一為具Android自由軟體平台之智慧型手機。該案以和解方式結束,但Klausner婉拒與路透社說明,該公司與Google之間協議內容。

美國科羅拉多州通過《人工智慧消費者保護法》

2024年5月17日,科羅拉多州州長簽署了《人工智慧消費者保護法》(Consumer Protections for Artificial Intelligence Act,Colorado AI Act,下簡稱本法),其內容將增訂於《科羅拉多州修訂法規》(Colorado Revised Statutes,簡稱CRS)第6篇第17部分,是美國第一部廣泛對AI規範的法律,將於2026年2月1日生效。 本法旨在解決「高風險人工智慧系統」的演算法歧視(Algorithmic Discrimination)的問題 ,避免消費者權益因為演算法之偏見而受到歧視。是以,本法將高風險AI系統(High-risk Artificial Intelligence System)定義為「部署後作出關鍵決策(Consequential Decision)或在關鍵決策中起到重要作用的任何AI系統」。 而後,本法藉由要求AI系統開發者(Developers)與部署者(Deployers)遵守「透明度原則」與「禁止歧視原則」,來保護消費者免受演算法歧視。規定如下: (一)系統透明度: 1.開發者應向部署者或其他開發者提供該系統訓練所使用的資料、系統限制、預期用途、測試演算法歧視之文件以及其他風險評估文件。 2.部署者應向消費者揭露高風險人工智慧系統的預期用途,也應在高風險人工智慧系統做出決策之前向消費者提供聲明,聲明內容應該包含部署者之聯絡方式、該系統的基本介紹、部署者如何管理該系統可預見之風險等資訊。 (二)禁止歧視: 1.開發者應實施降低演算法歧視之措施,並應協助部署者理解高風險人工智慧系統。此外,開發者也應該持續測試與分析高風險人工智慧系統可能產生之演算法歧視風險。若開發者有意修改該系統,應將更新後的系統資訊更新於開發者網站,並須同步提供給部署者。 2.部署者應該實施風險管理計畫,該風險管理計畫應包含部署者用於識別、紀錄降低演算法歧視風險之措施與負責人員,且風險管理計畫應定期更新。在制定風險管理計畫時,必須參考美國商務部國家標準暨技術研究院(National Institute of Standards and Technology, NIST)的《人工智慧風險管理框架》(AI Risk Management Framework, AI RMF 2.0)與ISO/IEC 42001等風險管理文件。 美國普遍認為科羅拉多州的《人工智慧消費者保護法》為目前針對人工智慧系統最全面之監管法規,可作為其他州有關人工智慧法規的立法參考,美國各州立法情況與作法值得持續關注。

TOP