歐盟執委會提出ESG評鑑機構監管草案,以健全歐盟永續金融市場

歐盟執委會(European Commission, EC)於2023年6月13日發佈「環境、社會與治理(ESG)評鑑透明度與誠信的規則草案(Proposal for a REGULATION OF THE EUROPEAN PARLIAMENT AND OF THE COUNCIL on the transparency and integrity of Environmental, Social and Governance (ESG) rating activities,下稱本草案)」,以健全歐盟永續金融市場。

ESG評鑑係指評鑑機構向投資者和金融機構提供有關ESG的投資策略和風險管理等關鍵資訊,在歐盟永續金融市場扮演重要角色。因此本草案提出評鑑機構治理與利益衝突防免的規範,確保ESG評鑑機構誠信營運、提升評鑑的可靠性和透明度、並協助投資者作出更明智的永續投資決策。本草案要點如下:

(1)授權許可:ESG評鑑機構原則上須取得歐洲證券與市場管理局(European Securities and Markets Authority, ESMA)的授權許可,始得於歐盟境內經營ESG評鑑業務。如為第三國ESG評鑑機構,則須申請取得同等認定(equivalence decision)後始得在歐盟經營ESG評鑑業務

(2)評鑑機構內部治理:要求ESG評鑑機構確保其獨立性、建立申訴處理機制、限制評鑑機構兼營金融與稽核業務等

(3)提升評鑑透明度:要求ESG評鑑機構公開揭露方法論、模型、主要假設與技術標準等

(4)授予ESMA監管權力:ESMA得要求評鑑機構與相關人士提供資料、詢問評鑑機構代表或職員、甚至實地查核等措施;就違反規定的評鑑機構,ESMA亦有要求暫停營運、課予罰鍰以及撤銷經營許可的權力

本文為「經濟部產業技術司科技專案成果」

相關連結
※ 歐盟執委會提出ESG評鑑機構監管草案,以健全歐盟永續金融市場, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=9082&no=64&tp=1 (最後瀏覽日:2025/11/10)
引註此篇文章
你可能還會想看
愛看Meme的網友們注意了!歐盟新著作權指令「迷因禁令」(Meme Ban)

  歐盟數位單一市場著作權指令(Directive on Copyright in the Digital Single Market 2016/0280,簡稱COD)中最具爭議性的草案為第13條,被稱為「上傳過濾器」(upload filter),其課予如YouTube、Facebook 及Twitter等內容產業業者,具有防止著作權侵權內容於其平臺被上傳與分享之責任,故平臺須以有效的內容辨識科技(effective content recognition technologies)對所有使用者的上傳內容進行監督與審查,因此又被稱為「迷因禁令」(Meme Ban)。據此,所有二次創作內容均會被禁止上傳於平臺。   所謂「謎因(Meme)」在牛津字典被定義為「具幽默本質並可迅速被複製、散布於網路使用者間,且通常會輕微改作的圖片、影片或文本等(An image, video, piece of text, etc., typically humorous in nature, that is copied and spread rapidly by Internet users, often with slight variations.)」。不少公開平臺甚至以提供觀看、上傳Meme為主要內容,如國際知名Meme網站- 9GAG。若該法通過,對這些大量分享二創內容的網路平臺,將造成全面性的衝擊;此外,也有不少平臺巨頭如YouTube的CEO針對這項草案發出將侵害人權與言論和創作的憂心建言。   該草案自2016年提出歷經歐洲議會多次表決,預定於明年(2019)元月進行最終表決,這個極具爭議性的條款未來將如何發展,是否即將翻轉現有網路二創環境值得關注,社群網路也已經發展出#SaveYourInternet的主題標籤,呼籲大眾的重視。

歐盟執委會發布人工智慧創新政策套案

歐盟執委會(European Commission)於2024年1月24日發布AI創新政策套案(AI innovation package),將提供全面性的激勵措施,協助AI新創公司、中小企業與歐盟AI技術之發展。AI創新政策套案預計將修訂〈歐盟高效運算聯合承諾〉(the European High Performance Computing Joint Undertaking),以創建AI工廠(AI factories);成立AI辦公室(AI Office);並建立歐盟AI新創與創新交流(EU AI startup and innovation communication),重點分述如下: (1)AI工廠:歐盟執委會在將2027年前透過〈歐盟高效運算聯合承諾〉投資80億歐元,在歐盟境內建設全新的超級電腦,或升級現有高效運算設備,實現高速機器學習(fast machine learning)與訓練大型通用AI模型(large general-purpose AI models),使AI新創公司有機會使用超級電腦與大型通用AI模型來開發各種AI應用。並且,AI工廠將坐落於大型資料存儲中心(large-scale data storage facility)周圍,讓AI模型於訓練時可取得大量可靠的資料。其次,AI工廠將藉由開放超級電腦來吸引大量人才,包含學生、研究員、科學家與新創業者,以培養歐盟高階AI人才,供未來歐盟持續發展可信任的AI(Trustworthy AI)。 (2)AI辦公室:該辦公室將設置於歐盟執委會內,用於確認與協調歐盟成員國AI政策的一致性。此外,該辦公室未來亦將用於監督即將通過之歐盟《AI法案》(AI Act)的執行成效。 (3)歐盟AI新創與創新交流:歐盟執委會將透過〈展望歐洲〉(Horizon Europe)與〈數位歐洲計畫〉(Digital Europe Programme),在2027年前投入40億歐元的公部門與私人投資,俾利歐盟開發生成式AI(Generative AI)模型。該政策套案亦將加速歐盟共同資料空間(Common European Data Spaces)之發展,使歐洲企業得取得可靠且具價值性之資料來訓練AI模型。最後,執委會將啟動歐盟〈生成式AI倡議〉(GenAI4EU initiative),將AI工廠所訓練之生成式AI應用於工業用與服務型機器人、醫療保健、生物科技與化學、材料與電池、製造與工程、車輛移動、氣候變遷與環境保護、網路安全、太空、農業等實際領域,刺激產業創新發展,改善人類生活。

法商Parrot商標侵權及商業秘密洩漏案對外商於中國大陸規範人員管理的啟發

美國國家標準暨技術研究院規劃建立「人工智慧風險管理框架」,並徵詢公眾對於該框架之意見

  美國國家標準暨技術研究院(National Institute of Standards and Technology, NIST)為管理人工智慧對於個人、組織以及社會所帶來之風險,於2021年7月29日提出將建立「人工智慧風險管理框架」(Artificial Intelligence Risk Management Framework, AI RMF)之規畫並徵詢公眾意見,截止日為9月15日,並預計於10月發布正式報告。   依照NIST說明,公眾所建議之人工智慧風險管理框架,可促進人工智慧之可信賴性,其中包含如何應對並解決人工智慧於設計、發展及使用過程中所遭遇之「精確度」(accuracy)、「可解釋性」(explainability)、「偏見」(bias)等議題。此外,上開管理框架預計為非強制性、供企業自願性使用於人工智慧設計、發展、使用、衡量及評估之人工智慧標準。   依現有公眾意見徵詢結果,其中DeepMind公司建議於人工智慧設計初期,必須預先構思整體系統之假設是否符合真正社會因果關係。舉例言之,當設計一套可預測民眾健保需求程度之系統時,如輸入參數僅考量民眾於醫療上的花費,將使僅有可負擔較高醫療費用之民眾被歸類為健保需求程度較高者,從而導致健保制度排擠經濟負擔程度較差之公民,故在設計系統時,應從預先設定之假設事實反面(counter-factual)思考並驗證是否會產生誤差或公平性之問題(例如預先思考並驗證「醫療費用支出較低之民眾是否即可被正確歸類為健保需求度低之民眾」)。惟進行上述驗證需要大量社會資料,因此DeepMind也建議NIST應建立相關機制,使這些社會資料可以被蒐集、使用。   此外,亦有民眾建議管理框架應有明確之衡量方法以及數值指標,以供工程界遵循。同時鑒於人工智慧發展極為快速,未來可能有不同於以往之人工智慧類型出現,故亦建議NIST應思考如何在「建構一套完整且詳細之人工智慧治理框架」與「保持人工智慧治理框架之彈性與靈活性」之間取得平衡。   最後,目前也有許多徵詢意見指出,許多人工智慧治理之目標會相互衝突。舉例言之,當NIST要求人工智慧系統應符合可解釋性,則人工智慧公司勢必需要經常抽取人工智慧系統中之「數據軌跡」(audit logs),惟數據軌跡可能被認為是使用者之個人資料,因此如何平衡或完善不同治理框架下之目標,為未來應持續關注之議題。

TOP