因應京都議定書 1500家企業須揭露環境資訊

  經濟部將在近日研商成立「輔導推動委員會」,至遲在今年底、明年初推動環境資訊揭露制度。根據經濟部初步規劃,「企業環境資訊揭露」制度,將先鎖定京都議定書溫室氣體減量規範,要求企業揭露 CO2 排放量盤查資訊及減量努力與目標,並鎖定「環境數據」、「社會責任」及「環境活動」三方面,要求企業說明因應 CO2 減量的努力情形。


  「環境資訊揭露制度」將依是否上市櫃及企業規模,要求不同程度的資訊揭露。上市公司,列為「義務性揭露」,必須將「環境資訊」列入重大訊息予以公開揭露;營業額達
1 億元以上的企業及上櫃、興櫃公司,屬「自願性揭露」,以漸進的方式,在該機制實施後二年內達到「完整環境資訊揭露」;中小企業則採取「鼓勵性揭露」。


  今年
5 月間,證期局為保障國內投資人,曾強制 972 家電子電機上市櫃公司,以「重大訊息」說明公司因應歐盟有毒物質禁用指令( RoHS )的情形,此一要求僅為「環保支出」之資訊,並未要求說明未來因應對策及可能支出。故經濟部希望透過「環境資訊揭露」制度的建立,讓企業從被動提報「環保支出」,提升到主動揭露「環境資訊」,並逐漸建立企業環境會計制度,因應國際環保趨勢。

相關連結
※ 因應京都議定書 1500家企業須揭露環境資訊, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=475&no=55&tp=1 (最後瀏覽日:2026/03/12)
引註此篇文章
你可能還會想看
美國聯邦交易委員會提出巨量資料報告,關注商業應用之潛在歧視性效果

  美國聯邦交易委員會(Federal Trade Commission, FTC)於2016年1月6日公布「巨量資料之商業應用」報告(Big Data: A Tool for Inclusion or Exclusion? Understanding the Issues),報告中歸納提出可供企業進一步思考之數項議題,期能藉此有助於企業確保巨量資料分析應用之正當合法性,並避免產生排除性或歧視性之對待,但同時亦能透過巨量資料之分析應用為消費者帶來最大的利益。FTC主委Edith Ramirez表示,巨量資料之重要性於商業之各領域均愈發凸顯,其對於消費者之潛在利益自是不言可喻,然企業仍應確保巨量資料之利用不會產生傷害消費者之結果。   「巨量資料之商業應用」報告經徵集公共意見與彙整相關研究後,聚焦於巨量資料生命週期的後端,亦即巨量資料被蒐集與分析之後的利用。報告中強調數種能幫助弱勢群體的巨量資料創新利用方式,例如依病患之生理特性量身訂作並提供醫療照護,或是新的消費者信用評等方式。報告同時也指出可能因為偏見或資料錯誤帶來的風險,像是信用卡發卡銀行降低某人信用額度的原因並非基於該持卡人之消費與還款記錄,而是與該持卡人被歸為「同一類型」之消費者所共同擁有之記錄與特徵。其次,報告對巨量資料於商業領域之利用可能涉及之法規進行了初步盤點,包括公平信用報告法(Fair Credit Reporting Act, FCRA)、與機會平等相關之聯邦立法—像是基因資訊平等法(Genetic Information Nondiscrimination Act, GINA)、以及聯邦交易委員會法,報告也列出7項預擬提問,協助企業因應巨量資料商業利用之法令遵循問題。

歐盟「人工智慧法」達成政治協議,逐步建立AI準則

歐盟「人工智慧法」達成政治協議, 逐步建立AI準則 資訊工業策進會科技法律研究所 2023年12月25日 隨著AI(人工智慧)快速發展,在各領域之應用日益廣泛,已逐漸成為國際政策、規範、立法討論之重點。其中歐盟人工智慧法案(Artificial Intelligence Act, AI Act,以下簡稱AIA法案)係全球首部全面規範人工智慧之法律架構,並於2023年12月9日由歐洲議會及歐盟部長歷史會達成重要政治協議[1],尚待正式批准。 壹、發佈背景 歐洲議會及歐盟部長理事會針對AIA法案已於本年12月9日達成暫時政治協議,尚待正式批准。在法案普遍實施前之過渡期,歐盟執委會將公布人工智慧協定(AI Pact),其將號召來自歐洲及世界各地AI開發者自願承諾履行人工智慧法之關鍵義務。 歐盟人工智慧法係歐盟執委會於2021年4月提出,係全球首項關於人工智慧的全面法律架構,該項新法係歐盟打造可信賴AI之方式,將基於AI未來可證定義(future proof definition),以等同作法直接適用於所有會員國[2]。 貳、內容摘要 AIA法案旨在確保進入並於歐盟使用之AI人工智慧系統是安全及可信賴的,並尊重人類基本權利及歐盟價值觀,在創新及權利義務中取得平衡。對於人工智慧可能對社會造成之危害,遵循以風險為基礎模式(risk-based approach),即風險越高,規則越嚴格,現階段將風險分為:最小風險(Minimal risk)、高風險(High-risk)、無法接受的風險(Unacceptable risk)、特定透明度風險(Specific transparency risk)[3]。與委員會最初建議版本相比,此次臨時協定主要新增內容歸納如下: 臨時協議確立廣泛域外適用之範圍,包含但不限於在歐盟內提供或部署人工智慧系統的企業[4]。但澄清該法案不適用於專門用於軍事或國防目的之系統。同樣,該協定規定不適用於研究和創新目的之人工智慧系統,也不適用於非專業原因之個人AI使用。 臨時協議針對通用AI(General purpose AI)[5]模型,訂定相關規定以確保價值鏈之透明度;針對可能造成系統性風險之強大模型,訂定風險管理與重要事件監管、執行模型評估與對抗性測試等相關義務。這些義務將由執委會與業界、科學社群、民間及其他利害關係人共同制定行為準則(Codes of practices)。 考量到人工智慧系統可用於不同目的之情況,臨時協議針對通用AI系統整合至高風險系統,並就基礎模型部分商定具體規則,其於投放市場之前須遵守特定之透明度義務,另強調對於情緒識別系統有義務在自然人接觸到使用這種系統時通知他們。 臨時協議針對違反禁止之AI應用,罰款金額自3,500萬歐元 或全球年營業額7%(以較高者為準)。針對違反其他義務罰款1,500萬歐元或全球年營業額3%,提供不正確資訊罰 款750萬歐元或全球年營業額1.5%。針對中小及新創企業違反人工智慧法之行政罰款將設定適當之上限。 參、評估分析 在人工智慧系統之快速發展衝擊各國社會、經濟、國力等關鍵因素,如何平衡技術創新帶來之便利及保護人類基本權利係各國立法重點。此次歐盟委員會、理事會和議會共同對其2021年4月提出之AIA法案進行審議並通過臨時協議,係歐洲各國對於現下人工智慧運作之監管進行全面的討論及認可結果,對其他國家未來立法及規範有一定之指引效果。 此次臨時協議主要針對人工智慧定義及適用範圍進行確定定義,確認人工智慧系統產業鏈之提供者及部署者有其相應之權利義務,間接擴大歐盟在人工智慧領域之管轄範圍,並對於人工智慧系統的定義縮小,確保傳統計算過程及單純軟體使用不會被無意中禁止。對於通用人工智慧基礎模型之部分僅初步達成應訂定相關監管,並對基礎模型之提供者應施加更重之執行義務。然由於涉及層面過廣,仍需業界、科學社群、民間及其他利害關係人討論準則之制定。 面對AI人工智慧之快速發展,各國在人工智慧之風險分級、資安監管、法律規範、資訊安全等議題持續被廣泛討論,財團法人資訊工業策進會科技法律研究所長期致力於促進國家科技法制環境,將持續觀測各國法令動態,提出我國人工智慧規範之訂定方向及建議。 本文同步刊登於TIPS網站(https://www.tips.org.tw) [1]Artificial Intelligence Act: deal on comprehensive rules for trustworthy AI,https://www.europarl.europa.eu/news/en/press-room/20231206IPR15699/artificial-intelligence-act-deal-on-comprehensive-rules-for-trustworthy-ai (last visited December 25, 2023). [2]European Commission, Commission welcomes political agreement on Artificial Intelligence Act,https://ec.europa.eu/commission/presscorner/detail/en/ip_23_6473 (last visited December 25, 2023). [3]Artificial intelligence act,P5-7,https://superintelligenz.eu/wp-content/uploads/2023/07/EPRS_BRI2021698792_EN.pdf(last visited December 25, 2023). [4]GIBSON DUNN, The EU Agrees on a Path Forward for the AI Act,https://www.gibsondunn.com/eu-agrees-on-a-path-forward-for-the-ai-act/#_ftn2 (last visited December 25, 2023). [5]General purpose AI-consisting of models that “are trained on broad data at scale, are designed for generality of output, and can be adapted to a wide range of distinctive tasks”, GIBSON DUNN, The EU Agrees on a Path Forward for the AI Act,https://www.gibsondunn.com/eu-agrees-on-a-path-forward-for-the-ai-act/#_ftn2(last visited December 25, 2023).

電信業者提供視訊服務之外國法制研析

美國聯邦最高法院判決維持Brulotte原則

  2015年6月美國聯邦最高法院大法官以6比3的同意比例判決維持該法院於1964年所確立之Brulotte原則,即專利失效後禁止要求償付授權金之原則。聯邦最高法院重新檢討Brulotte原則之爭議係起源於Kimble et al. v. Marvel Enterprises Inc.(case num. 13-720)一案。該案中涉及到現實下專利權利人於面對財團時,是否能於專利權有效期間採取手段充分保護專利權之問題,故是否有必要放寬專利權於失效後,專利權人仍得以專利授權契約要求專利被授權人償付授權金。又本案原告知專利發明人Kimble主張放寬Brulotte原則亦有亦於刺激競爭,促進研發創新。   然而,主撰判決本文之美國卡根大法官(Justice Kagan)及贊同維持Brulotte原則之大法官認為,Brulotte原則屬於聯邦最高法院遵照執行之決議事項(stare decisis),必須具有超級特別的理由(superspecial justification)才足以立論推翻該原則。但大法官認為並無有該類理由,並且強調縱然放寬Brulotte原則在學理上證實有助於市場競爭,但這也並非聯邦最高法院在司法權限所應審查或判斷之事項,而應是美國國會於智財政策之取捨。   反對維持Brulotte原則之阿利托大法官(Justice Alito)、羅伯特首席大法官(Chief Justice Roberts)及湯瑪斯大法官(Justice Thomas)提出不同意見書。反對意見認為專利失效及失去任何專有權利,所以涉及授權金之唯一問題即在於最佳契約設計(optimal contract design)。Brulotte原則干預了各方協議授權內容時,可以反映專利真實價值的方式,破壞契約期望(contractual expectation)。   本案作成判決後,各專利事務所及專利律師普遍贊同聯邦法院維持Brulotte原則,主要係基於該原則可以使用來償付授權金之資金轉為用於他處,有助於資金流通,而非用於已失效之專利。

TOP