美國環保署於提出首部「限制發電廠有毒氣體排放」國家管制標準草案並預定於2011年11月完成立法

  美國環保署(Environmental Protection Agency of the United States,以下簡稱EPA)於2011年3月16日首度對於國內發電廠有毒氣體的排放提出國家管制標準草案,並預定於2011年11月完成立法,此項立法措施被譽為近20年來美國空氣污染防治史上的重要里程碑。

  美國對於發電廠所排放的有害氣體管制,最早源於美國清淨空氣法案(The Clean Air Act)在1990年要求EPA加強對於發電廠排放之汞(mercury)等有毒氣體之管制,而國會亦要求其須於2004年底以前提出國家管制標準。然而EPA於2005年正式公告「清靜空氣除汞管制規則(the Clean Air Mercury Rule,以下簡稱CAMR規則)」時,卻將燃煤電廠排放汞排除於管制名單外,引發紐澤西等14個州政府與相關環保團體的抗議,並對EPA提起聯邦訴訟。2008年2月8日聯邦上訴法院作出判決,除指出EPA對於發電廠空污之認定前後矛盾外,更認定其在未發現有新事證下擅自將發電廠所排放之空氣污染自CAMR管制名單中移除(delist),已違背反清靜空氣法案之程序要求,故推翻CAMR規則之有效性。

  此後,經過密集的聽證會與討論,EPA最終於2011年3月16日正式提出「限制發電廠有毒氣體排放」的國家管制標準,對於發電廠所排放的汞、砷(arsenic)、鉻(chromium)、鎳(nickel)及其他酸性或有毒氣體加以管制,並要求電廠必須採用污染控制技術以減少製造量。

  後京都議定書時代中,各國無不致力於新興能源替代方案之提出,惟於新興能源研發應用前的過渡期間仍需仰賴傳統發電技術,美國為解決傳統火力發電對於環境及人體健康所造成的傷害,提出首部國家管制標準草案,其後續對於該國能源結構可能產生何種影響,值得注意。

本文為「經濟部產業技術司科技專案成果」

相關連結
※ 美國環保署於提出首部「限制發電廠有毒氣體排放」國家管制標準草案並預定於2011年11月完成立法, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=5459&no=64&tp=1 (最後瀏覽日:2026/02/25)
引註此篇文章
你可能還會想看
歐盟執委會發布《受禁止人工智慧行為指引》

歐盟執委會發布《受禁止人工智慧行為指引》 資訊工業策進會科技法律研究所 2025年02月24日 歐盟繼《人工智慧法》[1](Artificial Intelligence Act, 下稱AI Act)於2024年8月1日正式生效後,針對該法中訂於2025年2月2日始實施之第5條1,有關「不可接受風險」之內容中明文禁止的人工智慧行為類型,由歐盟執委會於2025年2月4日發布《受禁止人工智慧行為指引》[2]。 壹、事件摘要 歐盟AI Act於2024年8月1日正式生效,為歐盟人工智慧系統引入統一之人工智慧風險分級規範,主要分為四個等級[3]: 1. 不可接受風險(Unacceptable risk) 2. 高風險(High risk) 3. 有限風險,具有特定透明度義務(Limited risk) 4. 最低風險或無風險(Minimal to no risk) AI Act之風險分級系統推出後,各界對於法規中所說的不同風險等級的系統,究竟於實務上如何判斷?該等系統實際上具備何種特徵?許多內容仍屬概要而不確定,不利於政府、企業遵循,亦不利於各界對人工智慧技術進行監督。是以歐盟本次針對「不可接受風險」之人工智慧系統,推出相關指引,目的在明確化規範內涵規範,協助主管機關與市場參與者予以遵循。 貳、重點說明 一、AI Act本文第5條1(a)、(b)-有害操縱、欺騙與剝削行為 (一)概念說明 本禁止行為規定旨在防止透過人工智慧系統施行操縱與剝削,使他人淪為實現特定目的工具之行為,以保護社會上最為脆弱且易受有害操控與剝削影響的群體。 (二)禁止施行本行為之前提要件 1.該行為必須構成將特定人工智慧系統「投放於歐盟市場」(placing on the market)[4]、「啟用」(putting into service)[5]或「使用」(use)[6]。 2.應用目的:該人工智慧系統所採用的技術具有能實質扭曲個人或團體行為的「目的」或「效果」,此種扭曲明顯削弱個人或團體做出正確決定的能力,導致其做出的決定偏離正常情形。 3.技術特性:關於(a)有害的操縱與欺騙部分,係指使用潛意識(超出個人意識範圍)、或刻意操控或欺騙的技術;關於(b)有害地利用弱勢群體部分,是指利用個人年齡、身心障礙或社會經濟狀況上弱點。 4.後果:該扭曲行為已造成或合理可預見將造成該個人、另一人或某群體的重大傷害。 5.因果關係:該人工智慧系統所採用的技術、個人或團體行為的扭曲,以及由此行為造成或可合理預見將造成的重大傷害之間,具備相當因果關係。 二、AI Act本文第5條1(c)-社會評分行為 (一)概念說明 本禁止行為規定旨在防止透過人工智慧系統進行「社會評分」可能對特定個人或團體產生歧視和不公平的結果,以及引發與歐盟價值觀不相容的社會控制與監視行為。 (二)禁止施行本行為之前提要件 1.該行為必須屬於將特定人工智慧系統「投放於歐盟市場」、「啟用」或「使用」。 2.應用目的:該人工智慧系統必須用於對一定期間內,自然人及群體的社會行為,或其已知、預測的個人特徵或人格特質進行評價或分類。 3.後果:透過該人工智慧系統所產生的社會評分,必須可能導致個人或群體,在與評分用資料生成或蒐集時無關的環境遭受不利待遇,或遭受與其行為嚴重性不合比例的不利待遇。 三、AI Act本文第5條1(d)-個人犯罪風險評估與預測行為 (一)概念說明 本禁止行為規定之目的,旨在考量自然人應依其實際行為接受評判,而非由人工智慧系統僅基於對自然人的剖析、人格特質或個人特徵等,即逕予評估或預測個人犯罪風險。 (二)禁止施行本行為之前提要件 1.該行為必須屬於將特定人工智慧系統「投放於歐盟市場」、「啟用」或「使用」。 2.應用目的:該人工智慧系統必須生成旨在評估或預測自然人施行犯罪行為風險的風險評估結果。 3.後果:前述風險評估結果僅依據於對自然人的剖析,或對其人格特質與個人特徵的評估。 4.除外規定:若人工智慧系統係基於與犯罪活動直接相關的客觀、可驗證事實,針對個人涉入犯罪活動之程度進行評估,則不適用本項禁止規定。 四、AI Act本文第5條1(e)-無差別地擷取(Untargeted Scraping)臉部影像之行為 (一)概念說明 本禁止行為規定之目的,旨在考量以人工智慧系統從網路或監視器影像中無差別地擷取臉部影像,用以建立或擴充人臉辨識資料庫,將嚴重干涉個人的隱私權與資料保護權,並剝奪其維持匿名的權利。 (二)禁止施行本行為之前提要件 1.該行為必須屬於將特定人工智慧系統「投放於歐盟市場」、「啟用」或「使用」。 2.應用目的:該行為以建立或擴充人臉辨識資料庫為目的。 3.技術特性:填充人臉辨識資料庫的方式係以人工智慧工具進行「無差別的擷取行為」。 4.因果關係:建立或擴充人臉辨識資料庫之影像來源,須為網路或監視器畫面。 五、AI Act本文第5條1(f)-情緒辨識行為 (一)概念說明 本禁止行為規定之目的,旨在考量情緒辨識可廣泛應用於分析消費者行為,以更有效率的手段執行媒體推廣、個人化推薦、監測群體情緒或注意力,以及測謊等目的。然而情緒表達在不同文化、情境與個人反應皆可能存在差異,缺乏明確性、較不可靠且難以普遍適用,因此應用情緒辨識可能導致歧視性結果,並侵害相關個人或群體的權利,尤以關係較不對等的職場與教育訓練環境應加以注意。 (二)禁止施行本行為之前提要件 1.該行為必須屬於將特定人工智慧系統「投放於歐盟市場」、「啟用」或「使用」。 2.應用目的:該系統係用於推斷情緒。 3.因果關係:該行為發生於職場或教育訓練機構。 4.除外規定:為醫療或安全目的而採用的人工智慧系統不在禁止範圍內。例如在醫療領域中,情緒辨識可協助偵測憂鬱症、預防自殺等,具有正面效果。 六、AI Act本文第5條1(g)-為推測敏感特徵所進行之生物辨識分類行為 (一)概念說明 本禁止行為規定之目的,旨在考量利用人工智慧之生物辨識分類系統(Biometric Categorisation System)[7],可依據自然人的生物辨識資料用以推斷其性取向、政治傾向、信仰或種族等「敏感特徵」在內的各類資訊,並可能在當事人不知情的情況下依據此資訊對自然人進行分類,進而可能導致不公平或歧視性待遇。 (二)禁止施行本行為之前提要件 1.該行為必須屬於將特定人工智慧系統「投放於歐盟市場」、「啟用」或「使用」。 2.應用目的:該行為係針對個人進行分類;而其辨識目的係為推斷其種族、政治傾向、工會成員身分、宗教或哲學信仰、性生活或性取向等。 3.技術特性:該系統必須為利用人工智慧,並依據自然人的生物辨識資料,將其歸類至特定類別之生物辨識分類系統。 4.因果關係:前述分類依據為其生物辨識資訊。 5.除外規定:本項禁止規定未涵蓋對合法取得的生物辨識資料進行標記(Labelling)或過濾(Filtering)行為,如用於執法目的等。 七、AI Act本文第5條1(h)-使用即時遠端生物辨識(Remote Biometric Identification, RBI)系統[8]執法[9]之行為 (一)概念說明 本禁止行為規定之目的,旨在考量在公共場所使用即時RBI系統進行執法,可能對人民權利與自由造成嚴重影響,使其遭受監視或間接阻礙其行使集會自由及其他基本權利。此外,RBI系統的不準確性,將可能導致針對年齡、族群、種族、性別或身心障礙等方面的偏見與歧視。 (二)禁止施行本行為之前提要件 1.該行為必須涉及對即時RBI系統的「使用」行為。 2.應用目的:使用目的須為執法需要。 3.技術特性:該系統必須為利用人工智慧,在無需自然人主動參與的情況下,透過遠距離比對個人生物辨識資料與參考資料庫中的生物辨識資料,從而達成識別自然人身份目的之RBI系統。 4.因果關係:其使用情境須具備即時性,且使用地點須為公共場所。 參、事件評析 人工智慧技術之發展固然帶來多樣化的運用方向,惟其所衍生的倫理議題仍應於全面使用前予以審慎考量。觀諸歐盟AI Act與《受禁止人工智慧行為指引》所羅列之各類行為,亦可觀察出立法者對人工智慧之便利性遭公、私部門用於「欺詐與利用」及「辨識與預測」,對《歐盟基本權利憲章》[10]中平等、自由等權利造成嚴重影響的擔憂。 為在促進創新與保護基本權利及歐盟價值觀間取得平衡,歐盟本次爰參考人工智慧系統提供者、使用者、民間組織、學術界、公部門、商業協會等多方利害關係人之意見,推出《受禁止人工智慧行為指引》,針對各項禁止行為提出「概念說明」與「成立條件」,期望協助提升歐盟AI Act主管機關等公部門執行相關規範時之法律明確性,並確保具體適用時的一致性。於歐盟內部開發、部署及使用人工智慧系統的私部門企業與組織,則亦可作為實務參考,有助確保其自身在遵守AI Act所規定的各項義務前提下順利開展其業務。 [1]European Union, REGULATION (EU) 2024/1689 OF THE EUROPEAN PARLIAMENT AND OF THE COUNCIL (2024), https://eur-lex.europa.eu/legal-content/EN/TXT/PDF/?uri=OJ:L_202401689 (last visited Feb. 24, 2025). [2]Commission publishes the Guidelines on prohibited artificial intelligence (AI) practices, as defined by the AI Act., European Commission, https://digital-strategy.ec.europa.eu/en/library/commission-publishes-guidelines-prohibited-artificial-intelligence-ai-practices-defined-ai-act (last visited Feb. 24, 2025). [3]AI Act, European Commission, https://digital-strategy.ec.europa.eu/en/policies/regulatory-framework-ai (last visited Feb. 24, 2025). [4]依據本指引第2.3點,所謂「投放於歐盟市場」(placing on the market),係指該人工智慧系統首次在歐盟市場「提供」;所謂「提供」,則係指在商業活動過程中,以收費或免費方式將該AI系統供應至歐盟市場供分發或使用。 [5]依據本指引第2.3點,所謂「啟用」(putting into service),係指人工智慧系統供應者為供應使用者首次使用或自行使用,而於歐盟內供應人工智慧系統。 [6]依據本指引第2.3點,「使用」(use)之範疇雖未在AI Act內容明確定義,惟應廣義理解為涵蓋人工智慧系統在「投放於歐盟市場」或「啟用」後,其生命週期內的任何使用或部署;另參考AI Act第5條的規範目的,所謂「使用」應包含任何受禁止的誤用行為。 [7]依據AI Act第3條(40)之定義,生物辨識分類系統係指一種依據自然人的生物辨識資料,將其歸類至特定類別之人工智慧系統。 [8]依據AI Act第3條(41)之定義,RBI系統係指一種在無需自然人主動參與的情況下,透過遠距離比對個人生物辨識資料與參考資料庫中的生物辨識資料,從而達成識別自然人身份目的之人工智慧系統。 [9]依據AI Act第3條(46)之定義,「執法(law enforcement)」一詞,係指由執法機關或其委任之代表,代替其執行目的包括預防、調查、偵測或起訴刑事犯罪,或執行刑事處罰,並涵蓋防範與應對公共安全威脅等範疇之行為。 [10]CHARTER OF FUNDAMENTAL RIGHTS OF THE EUROPEAN UNION, Official Journal of the European Union, https://eur-lex.europa.eu/legal-content/EN/TXT/HTML/?uri=CELEX:12012P/TXT (last visited Feb. 24, 2025).

英國公布「調查權法草案」(Investigatory Powers Bill)

  英國內政部(Home Office)於2015年11月4日公布一項關於網路監管的「調查權法草案」(Draft Investigatory Powers Bill),其主要目的係為提供執法、國安及情治單位,如英國安全局(MI5)、秘密情報局(MI6)、英國政府通訊總部(GCHQ)對於資通訊內容之掌控能力,用以因應數位時代不斷升高的維安需求,例如防止恐怖攻擊、兒童性剝削、破解跨國犯罪集團、協尋失蹤人口、犯罪現場之定位及嫌疑人相關聯繫對象等,該草案一旦通過,將迫使網路及電信服務業者保留其客戶之通訊數據、瀏覽記錄長達一年,甚至在必要情況下,協助英國政府攔截通訊數據、破解加密訊息。   其條文共計202條,分為九部分,對於通訊數據調查權行使所採取之主要手段包含攔截通訊(Interception)、數據監看(Oversight)、以設備干擾連結(Equipment Interference)、大量蒐集個人通訊資料(Bulk Powers)等,由於法案將擴張英國政府對網路隱私之干涉,對此內政大臣Theresa May表示,新法對於瀏覽記錄著重於使用者到訪過哪些網站,而非其瀏覽過的每一個網頁,同時,對於某些握有他人敏感資料的職業,例如醫生、律師、記者、國會議員及神職人員等,擁有較多的保護。   此外,草案亦闡明將建立政府自我監督及防濫權機制,包含未來將創設調查權利委員(Investigatory Powers Commissioner,簡稱IPC)專責監督政府調查權之行使,以及一套稱為Double Lock的新制度,即前述攔截數據資料權之行使,須有內政大臣親自核發之令狀,且該令狀應獲得司法委員(Judicial Commissioner)之批准。   這項草案無疑將引來公益與私利間之衝突,也在資通訊業界造成極大的反彈,縱然「調查權法案」並未限制相關電信與網路業者不得對其服務加密,卻要求於必要情況下提供解密協助,然而目前許多通訊服務採「點對點加密」(End-to-End Encryption)技術,若非發送及接收兩端之人,即便是提供該服務之公司也無法解密,一旦草案通過,類似WhatsApp或Apple所開發之iMessage將如何在英國使用,將會是未來觀測的重點。

美國眾議院提出軟體法案 為醫療APP提供規範方向

  美國眾議院於2013/10/22提出法案(Sensible Oversight for Technology which Advances Regulatory Efficiency Act of 2013,簡稱Software Act,HR3303),擬限制食品藥物管理局 (Food and Drug Administration,FDA)在與健康醫療有關軟體制訂規範的權限。   根據美國聯邦法典第21編第301條以下(21 U.S.C. § 301)規定,FDA對醫療器材擁有法定職權進行規範。FDA近來亦開始嘗試對醫療軟體APP制訂規範,包括附有生物識別裝置(如血壓監視器和照相機)、讓消費者可以蒐集資料、供醫生可遠距離進行部分檢測行為的行動設備。這項法案的支持者以為,FDA此舉將阻礙醫療創新,故擬透過Software Act界定FDA的規管權限。   這項法案主要增加了3個定義:醫療軟體(medical software)、臨床軟體(clinical software)和健康軟體(health software)。醫療軟體仍在FDA的管轄範圍內,但其他2類則否。惟本法案只確立FDA無權對資料蒐集類軟體進行規範,但對此類軟體得使用的範圍、或是否需另授與執照等議題並沒有著墨。提案者以為,後續應由總統和國會應共同努力,對臨床軟體和健康軟體制訂和頒佈立法,建立以風險為基礎的管制架構,降低管制負擔,促進病患安全與醫療創新。   所謂醫療軟體,指涉及改變身體(changing the body)的軟體。包括意圖透過市場銷售、供消費者使用,直接改變人體結構或功能的軟體;或,意圖透過市場銷售、供消費者使用,以提供臨床醫療行為建議的藥物、器材或治療疾病的程序;或其他不需要健康照護提供者參與的情境,但實施後會直接改變人體結構或功能的藥物、器材或程序。   僅從人體蒐集資料者,被歸類為臨床軟體(由醫療院所、健康照護提供者裝設)或健康軟體(由民眾自為)。兩者的區別,主要在由誰提供並裝設。   所謂臨床軟體,是醫療院所或健康照護提供者在提供服務時使用,提供臨床決策支援目的之軟體,包括抓取、分析、改變或呈現病患或民眾臨床數據相關的硬體和流程,但不會直接改變人體結構或任何功能。   根據Research2Guidance於2013年2月發表的調查報告(Mobile Health Market Report 2013-2017),目前在APPLE的APP Store上已有97,000個行動健康類的APP程式,有3百萬個免費、30萬個付費下載使用者。15%的APP是專門設計給健康照護提供者;與去年相比,已有超過6成的醫生使用平板提供服務。預測消費者使用智慧型手機上的醫療APP的數量,在2015年將達5億。這個法案的出現,外界以為,提供了科技創新者較明確的規範指引,允許醫療的進步和創新。

美國網路安全暨基礎設施安全局(CISA)發布《工控資安基礎:適用於擁有者與營運者的資產清冊指引》

美國網路安全暨基礎設施安全局(CISA)於2025年8月13日發布該機關與美國、澳洲、加拿大、德國、荷蘭、紐西蘭等國共計八個國安資安相關機構,合作訂定之《工控資安基礎:適用於擁有者與營運者的資產清冊指引》文件,旨在針對易受惡意網路行為攻擊且提供重要服務的能源、水務、製造業及其他領域關鍵基礎設施營運技術(Operational Technology,OT)系統,協助其資產擁有者與營運者建置與維護完整的OT資產清冊,並輔以OT分類體系(Taxonomy)。 OT資產清冊範圍涵蓋組織OT系統與相關軟、硬體,該指引主要說明OT資產擁有者與營運者建置與維護OT資產清冊的流程,包含: 1. 定義清冊範疇與目標(Define Scope and Objectives) 2. 辨識資產及蒐集屬性資料(Identify Assets and Collect Attributes) 3. 建立分類體系(Create a Taxonomy to Categorize Assets) 4. 管理與蒐集資料(Manage and Collect Data) 5. 實現資產全生命週期管理(Implement Life Cycle Management); 此外透過OT分類體系可幫助區分優先序、管理所有OT資產,有助於風險識別、漏洞管理,以及資安事件應變;有關如何建立OT分類體系,該指引亦提供流程建議如: 1. 根據功能及關鍵性執行資產分類(Classify Assets) 2. 對資產功能類型與其通訊路徑進行分類(Categorize (Organize) Assets and their Communications Pathways) 3. 建構體系架構與互動關係(Organize Structure and Relationships) 4. 驗證資產清冊資料準確度與圖像化(Validate and Visualize) 5. 定期檢查並更新(Periodically Review and Update) 該指引認為,建置OT資產清冊並輔以OT分類體系對期望建立現代化防禦架構的擁有者與營運者而言至關重要。透過上述作為,資產擁有者與營運者得以識別其環境中應加以防護及管控的關鍵資產,並據以調整防禦架構,建構相應的資安防禦措施,以降低資安事件對組織任務(Mission)與服務持續性(Service Continuity)的風險與影響。該指引亦強調關鍵基礎設施之OT與IT(資訊技術)部門間之跨部門協作,並鼓勵各產業組織參考指引步驟落實OT資產盤點與分類,以提升整體關鍵基礎設施資安韌性。

TOP