為促進綠色轉型並提高對投資人之保護,歐洲銀行監理機關(European Banking Authority, EBA)、歐洲保險與職業年金監理機關(European Insurance and Occupational Pensions Authority, EIOPA)及歐洲證券與市場監理機關(European Securities and Market Authority, ESMA)於2024年6月18日針對永續金融揭露規則(Sustainable Finance Disclosure Regulation),向歐盟執委會(European Commission)發布共同意見。
現行的永續金融揭露規則於2019年制定並於2021年生效,其目的在提高金融產品服務的 ESG 揭露透明度和標準化,透過要求金融市場參與者提供可靠且可比較的 ESG 資料,使投資者能夠做出更明智的投資決策,引導投資人重視環境與永續議題。現行的永續金融揭露規則係以「商品標籤」之方式揭露金融商品資訊,但共同意見中認為此標籤制度並未提供明確標準或門檻,使投資人無法充分了解為何特定商品具有永續性,導致漂綠(greenwashing)及相關投資風險。
因此,本次共同意見向執委會建議,執委會應建立投資人易於理解且具有客觀標準之金融商品類別,解決上述資訊落差疑慮。共同意見建議,金融機構可採用「永續(sustainable)」與「轉型(transition)」兩項金融商品類別。以下簡介共同意見就兩項金融商品類別提供之建議:
一、永續類別
永續類別係指金融商品投資於已達到環境或社會永續門檻之經濟活動或資產。共同意見提及,執委會或可考慮將永續類別再拆分為環境永續類別與社會永續類別;但若拆分兩項類別,可能必須注意目前環境永續與社會永續兩項類別得參考之指標發展程度不一,未來在訂定門檻時如何確認相關指標需進一步討論。
二、轉型類別
轉型類別係指金融商品投資於尚未達到環境或社會永續門檻,但未來將逐步提高其永續性以達到永續類別門檻之經濟活動或資產。共同意見建議,執委會於訂定轉型類別之門檻時,應參考經濟活動分類標準之關鍵績效指標、轉型計畫、商品減碳路徑及減緩主要不利影響之措施等因素。
目前執委會正評估利害關係人意見及永續金融揭露規則實施經驗,作為改善歐盟永續金融制度之依據,因此共同意見亦建議,執委會應先進行消費者調查,再著手後續規則修訂,方能達到制度優化之成果,保障投資人權益及永續發展。
經濟部將在近日研商成立「輔導推動委員會」,至遲在今年底、明年初推動環境資訊揭露制度。根據經濟部初步規劃,「企業環境資訊揭露」制度,將先鎖定京都議定書溫室氣體減量規範,要求企業揭露 CO2 排放量盤查資訊及減量努力與目標,並鎖定「環境數據」、「社會責任」及「環境活動」三方面,要求企業說明因應 CO2 減量的努力情形。 「環境資訊揭露制度」將依是否上市櫃及企業規模,要求不同程度的資訊揭露。上市公司,列為「義務性揭露」,必須將「環境資訊」列入重大訊息予以公開揭露;營業額達 1 億元以上的企業及上櫃、興櫃公司,屬「自願性揭露」,以漸進的方式,在該機制實施後二年內達到「完整環境資訊揭露」;中小企業則採取「鼓勵性揭露」。 今年 5 月間,證期局為保障國內投資人,曾強制 972 家電子電機上市櫃公司,以「重大訊息」說明公司因應歐盟有毒物質禁用指令( RoHS )的情形,此一要求僅為「環保支出」之資訊,並未要求說明未來因應對策及可能支出。故經濟部希望透過「環境資訊揭露」制度的建立,讓企業從被動提報「環保支出」,提升到主動揭露「環境資訊」,並逐漸建立企業環境會計制度,因應國際環保趨勢。
日本文化廳發布《人工智慧著作權檢核清單和指引》日本文化廳發布《人工智慧著作權檢核清單和指引》 資訊工業策進會科技法律研究所 2024年08月21日 日本文化廳為降低生成式人工智慧所產生的著作權風險,保護和行使著作權人權利,於2024年7月31日以文化廳3月發布的《人工智慧與著作權的思考》、內閣府5月發布的《人工智慧時代知識產權研究小組中期報告》,以及總務省和經濟產業省4月份發布的《人工智慧事業指引(1.0版)》的資料為基礎,制訂發布《人工智慧著作權檢核清單和指引》[1]。 壹、事件摘要 日本文化廳的《人工智慧著作權檢核清單和指引》主要分成兩部分,第一部分是「人工智慧開發、提供和使用清單」,依循總務省和經濟產業省4月份發布的《人工智慧事業指引(1.0版)》的區分方式,分為「AI開發者」、「AI提供者」、「AI(業務)使用者(事業利用人)」和「業務外利用者(一般利用人)」四個利害關係人,依不同的身份分別說明如何降低人工智慧開發前後的資料處理和學習等智慧財產權侵權風險的措施,以及提供和使用人工智慧系統和服務時,安全、適當地使用人工智慧的技術訣竅。 第二部分則是針對著作權人及依著作權法享有權利的其他權利人(例如表演人)的權益保護,從權利人的思考角度,建議正確理解生成式AI可能會出現什麼樣的(著作權)法律上利用行為[2]。其次,說明近似侵權的判斷要件、要件的證明、防止與賠償等可主張的法律上請求、可向誰主張侵權、權利主張的限制;於事先或發現後可採取的防止人工智慧侵權學習的可能措施;最後對侵權因應建議權利人可發出著作權侵權警告、進行訴訟、調解等糾紛解決,並提供可用的法律諮詢窗口資訊。 貳、重點說明 日本文化廳於此指引中,針對不同的角色提出生成式AI與著作權之間的關係,除更具體的對「AI開發者」、「AI提供者」、「AI(事業與一般利用人)」,提醒其應注意的侵權風險樣態、可能的合法使用範圍,並提供如何降低風險的對策。同時,從權利人角度提供如何保護權益的指引,並提供可用的法律諮詢窗口資訊。重點說明如下: 一、不符合「非享受目的」的非法AI訓練 日本著作權法第30條之4規定適用於以收集人工智慧學習資料等為目的而進行的著作權作品的複製,無需獲得權利人的授權,但是,該指引特別明確指出「為了輸出AI學習資料中包含的既有作品的內容,而進行額外學習;為讓AI產出學習資料庫中所包含的既有作品的創作表現;對特定創作者的少量著作權作品進行額外個別學習」,這三個情況係同時存有「享受」著作目的,不適用無須授權的規定[3]。 二、不能「不當損害著作權人利益」 從已經採取的措施和過去的銷售紀錄可以推斷,資料庫著作權作品計劃有償作為人工智慧學習的資料集。在這種情況下,未經授權以人工智慧學習為目的進行複製時,屬於「不當損害著作權人利益」的要求,將不適用(日本)著作權法第30條之4規定[4]。在明知某個網站發布盜版或其他侵害著作權的情況下收集學習資料,則使用該學習資料開發的人工智慧也會造成著作權侵權,人工智慧開發者也可能被追究著作權責任[5]。不應使用以原樣輸出作為學習資料的著作權作品的學習方法,如果該已訓練模型處於高概率生成與學習資料中的著作物相似的生成結果的狀態等情況下,則該已訓練模型可能被評價為「學習資料中著作物的複製物」, 對銷毀該模型的請求即有可能會被同意[6]。 三、使用生成式AI即可能被認定為可能有接觸被侵害著作[7] 權利人不一定必須證明「生成所用生成AI的學習資料中包含權利人的作品。如有下述AI使用者認識到權利人的作品的情況之一,權利人亦可透過主張和證明符合「依賴性(依拠性)」要件,例如:AI使用者將現有的著作物本身輸入生成AI、輸入了現有著作物的題名(標題)或其他特定的固有名詞、AI生成物與現有著作物高度類似等。 四、開發與提供者也可能是侵權責任主體[8] 該指引指出,除利用人外,開發或提供者亦有負侵權責任的可能,特別是--人工智慧頻繁產生侵權結果,或已意識到人工智慧很有可能產生侵權結果,但沒有採取措施阻止。於其應負侵權責任時,可能被請求從訓練資料集中刪除現有的著作權作品,甚至是刪除造成侵權的人工智慧學習創建的訓練模型。即便人工智慧學習創建的訓練模型一般並非訓練資料的重製物,不過如果訓練後的模型處於產生與作為訓練資料的著作權作品相似的產品的機率很高的狀態,該指引認為可能會被同意[9]。 參、事件評析 人工智慧(AI)科技迎來契機,其生成內容隨著科技發展日新月異,時常可以看見民眾在網路上分享AI技術生成的圖像和影音。是否能將AI生成的圖案用在馬克杯或衣服販售,或是將Chat GPT內容當作補習班教材,均成為日常生活中的訓練AI的資料與運用AI的產出疑義。 各國固然就存有人類的「創造性貢獻」是人工智慧生成結果是否受著作權法保護、可受著作權保護的條件,單純機械性的AI自動生成,基本上欠缺「人的創造性」,非著作權保護對象,已有明確的共識。如何以明確的法令規範降低AI開發過程的侵權風險或處理成本?賦予AI訓練合法使用既有著作,應有的界限?衡平(賦予)既有著作的著作權人權益?AI服務提供者應負那些共通義務?是否合理課予AI服務提供者應負之侵權損害責任?AI使用者之侵權責任是否須推定符合「接觸」要件?等等諸此進一步的疑義,則仍在各國討論、形成共識中。 而從日本文化廳的《人工智慧著作權檢核清單和指引》,我們可以清楚的看出,在樹立成為AI大國的國家發展政策下,其著作權法雖已賦予AI訓練資料合法的重製,但在指引是明列已屬「享受」目的訓練行為、不合理損害著作權利用的情況、明示開發服務者應負的揭露義務與可能承擔侵權責任,彰顯其對權利人權益平衡保護的努力。值得於我國將來推動落實AI基本法草案中維護著作權人權益原則時,做為完善相關法令機制的重要參考。 本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。 本文同步刊登於TIPS網站(https://www.tips.org.tw) [1] 文化庁著作権課,「AI著作権チェックリスト&ガイダンス」,令和6年7月31日,https://www.bunka.go.jp/seisaku/bunkashingikai/chosakuken/seisaku/r06_02/pdf/94089701_05.pdf,最後閱覽日:2024/08/20。 [2] 詳見前註,頁31。 [3] 詳見前註,頁7。 [4] 詳見前註,頁8。 [5] 詳見前註,頁9。 [6] 詳見前註,頁9。 [7] 詳見前註,頁35。 [8] 詳見前註,頁36。 [9] 詳見前註,頁42。
歐盟食品管理局擬建立風險評估外部專家資料庫近年來,由於(European Food Safety Authority, 簡稱EFSA)對GM產品之管理並未能進行足夠之科學分析,同時,亦過份仰賴業者所提供之數據資料等原因,而造成歐盟某些會員國家對EFSA所作出之評估報告於公正及客觀性方面產生質疑;甚至,歐洲食品業者亦對目前EFSA是否將會因為專家人力不足而導致整體風險評估能力下降之問題表示關切。一位EFSA官員指出:我們需要更多科學專家來協助處理與風險評估有關之事務。 其次,隨著各界因對GMO產品不當之批判與歐洲整體食品安全評估工作量增加等因素,EFSA於日前決定,欲透過建立一外部專家資料庫(External Expert Database),來協助其風險評估工作之執行並促進評估專家招募過程之透明化,以達成免除外界對於歐洲食品安全評估過程疑慮之目的。不過,這些將提供協助之專家,並不會因此而真正成為EFSA科學評估小組成員(其將被視為是由人民主動對該小組執行評估工作提供協助)。除EFSA擬徵求歐盟境內專家學者外,未來其亦將邀請歐盟以外其他國家並在該領域為重要研究先驅之專家提供協助,以增加風險評估之品質與客觀性。 再者,綠色和平組織歐洲發言人Mark對於EFSA現階段執行之工作狀況也表示意見並指出:目前EFSA是在一種配備不良(ill-equipped)之狀態下,來勉強執行其所執掌之事務;不過,更讓人感到憂心者,則是由EFSA科學評估小組所做出科學性之意見,於不同會員國家間或於歐盟以外其他國家其是否仍將會被完全採納之問題。有鑒於此,相關人士認為:應再次強化EFSA於風險評估方面之能力! 最後,一位非政府機組織專家也提醒:僅單純地透過專家庫之建立,其實,並不能圓滿地解決當前EFSA於決策機制中所遭遇之困難;而只有當EFSA在未來欲邀請外部專家提供協助與支援時,一併將資金及相關政策配套措施納入考量後,才是此問題真正解決之道。
美國白宮呼籲採取行動,打擊利用AI生成影像進行之性虐待行為美國白宮於2024年5月23日公開呼籲採取行動以打擊利用AI生成性影像,及未經當事人同意傳播真實影像的性虐待行為。此次呼籲源自白宮「解決線上騷擾與虐待問題工作小組」(Task Force to Address Online Harassment and Abuse)相關行動、總統第14110號行政命令-「安全、可靠且可信任之AI開發及利用」(Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence),以及尖端AI公司自願管理AI風險之承諾(Voluntary AI Commitments)。 白宮指出,迄今為止生成式AI已淪為性虐待的主要工具,同時,涉及未經同意散布或威脅散布私人性影像,亦將對受害者造成嚴重的心理傷害。白宮呼籲相關利害關係人透過自願性承諾,預防與減輕性虐待影像之影響,如: (1)阻止性虐待影像獲利: 對於從事性虐待影像業務的網站或應用程式,支付平臺與金融機構可限制或拒絕對其提供支付服務。 (2)停止創建深偽性虐待影像 : 對於可透過AI生成性影像之網路服務或應用程式,雲端服務供應商與應用程式商店得減少此類網路服務或應用程式運作。此外,應用程式商店可要求應用程式開發人員採取措施,防止使用者製作非經當事人同意的AI生成性影像。 (3)防止散播性虐待影像: 應用程式與作業系統開發人員可啟用技術保護措施,以保護數位裝置上儲存之內容,防止未經當事人同意分享其影像。 (4)支援並參與為受害者提供有效補救措施之服務: 平臺與利害關係人可選擇與相關組織合作,使性虐待影像受害者可輕鬆且安全地從線上平臺中刪除未經同意之內容。此外,白宮亦呼籲國會修訂於2022年重新授權之「婦女暴力防制法」(Violence Against Women Act Reauthorization),延續並加強原有法律保護效力,同時為AI生成之性虐待影像的受害者提供關鍵援助資源。