加州通過美國第一個限制溫室氣體排放法案

  加州是全球第十二大製造二氧化碳排放量的地區,也是美國最重視環境立法的一個州。今年八月底,加州通過全美第一個限制人為溫室效應氣體排放法案- 2006 年全球溫室效應對策法( Global Warming Solutions Act of 2006 ),希望透過該法在 2020 年以前,將溫室氣體排放量減至 1990 年的水準(約減少 25% ),而諸如發電廠、水泥工廠等溫室效應氣體最大的來源,則將被要求報告它們的排放量。


  雖然全球溫室效應對策法中並未規定特別的機制(例如歐盟所採取的排放量交易機制)以達到前述目標,不過加州政府仍希望藉由其率先立法的舉動,能引起全美各地效法,進而「由下而上」(
bottom-up )促使聯邦政府採取必要措施。


  目前美國聯邦政府以強制減少溫室氣體排放可能損及經濟,並不應將開發中國家排除在外為由,在
2001 年決定退出有 160 國簽署的京都議定書。不過隨著加州通過 2006 年全球溫室效應對策法,加入歐盟置身於對抗氣候變化的最前線,毋寧也將對華府增加壓力,未來聯邦政府仍須審慎考量是否以強制之立法手段,而非布希政府所偏好的自願性手段,來解決全球暖化的問題。

相關連結
※ 加州通過美國第一個限制溫室氣體排放法案, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=478&no=55&tp=1 (最後瀏覽日:2026/04/17)
引註此篇文章
你可能還會想看
澳洲法院正審理乳癌或卵巢癌基因檢測產品可專利性訴訟

  BRCA1與BRCA2乃兩個已經被確認的基因,係用來檢測婦女是否容易罹患乳癌或卵巢癌的重要基因。在澳洲這個檢測產品是由基因技術有限公司(Genetic Technologies Limited, 以下簡稱GTL)所擁有。因檢測費用高達3,700元美金且無法有其他的檢測選擇,形成獨占。   今(2010)年3月,美國紐約聯邦地方法院(United States District Court Southern District of New York)認為BRCA1與BRCA2等人類基因乃如同血液、空氣或水的結構,屬於自然的產物,不具有可專利性,系爭專利阻礙了乳癌與卵巢癌相關研究與創新,並限制檢測的選擇性,因而作出BRCA1與BRCA2基因不具可專利性之判決。   受到美國判決之影響,今(2010)年6月澳洲的癌症之聲消費者團體(Cancer Voices),及一名患有乳癌的婦女同向雪梨聯邦法院(Australian Federal Court in Sydney)提起訴訟,希望免除GTL對於檢測乳癌與卵巢癌產品的獨占權利。主要理由包括,對人類的一部分(基因)給予專利,不但阻礙了後續研究,也會阻礙乳癌與卵巢癌治療方法的研發,更提高許多病患接受此檢測的障礙。固然專利權人得維持高檢測費用,但有別於傳統工程或技術上的專利,生物技術專利也含有高度追求人類健康之公共利益,因此握有生物技術專利者,實不應利用獨占地位阻礙的人類健康的維持與追求,阻礙醫療或治療方式的研究。   過去澳洲專利局認為自自然產物分離的基因或物質是具有可專利性的,此案若勝訴,澳洲專利局將調整原先承認自自然產物分離的基因或物質,具可專利性之見解,所以該案的後續發展值得我們關注。

金融穩定委員會報告指出金融領域採用AI之模型、資料品質與治理風險

.Pindent{text-indent: 2em;} .Noindent{margin-left: 2em;} .NoPindent{text-indent: 2em; margin-left: 2em;} .No2indent{margin-left: 3em;} .No2Pindent{text-indent: 2em; margin-left: 3em} .No3indent{margin-left: 4em;} .No3Pindent{text-indent: 2em; margin-left: 4em} 金融穩定委員會(Financial Stability Board, FSB)於2024年11月14日發布《人工智慧對金融穩定的影響》報告,探討人工智慧(Artificial Intelligence, AI)在金融領域的應用進展及對全球金融穩定的影響,分析相關風險並提出建議。 報告指出AI具有提升效率、加強法規遵循、提供個人化金融產品及進階資料分析等益處,但同時可能加劇某些金融部門的脆弱性(Vulnerability),進而構成金融穩定風險。報告特別提出之脆弱性包括:「第三方依賴及服務供應商集中化」、「市場相關性」、「資安風險」,以及「模型風險、資料品質和治理」。 在模型風險、資料品質與治理中,廣泛應用AI可能導致模型風險上升,因某些模型難以驗證、監控及修正,且模型的複雜性與透明性不足將增加尋找具獨立性和專業知識的驗證者的挑戰。此外,在大型語言模型(Large Language Model, LLM),大規模非結構化資料的使用及訓練資料來源的不透明性,使資料品質評估更加困難。特別是在預訓練模型(Pre-trained Model)中,金融機構對眾多資料來源的評估方式不熟悉,進一步增加管理難度。 若金融機構未建立健全的治理架構以審查AI的使用及其資料來源,模型風險與資料品質問題將難以控制。金融機構有責任應對與AI相關的模型風險和資料品質挑戰,包含對模型進行驗證、持續監控、執行結果分析和評估資料品質的預期要求。 報告呼籲各國金融主管機關加強對AI發展的監測,評估現行金融政策框架是否充分,並增強監管能力。建議可定期或不定期調查AI應用情形,並透過報告及公開揭露制度獲取相關資訊。此外,主管機關可考慮利用監督科技(SupTech)及監管科技(RegTech)等AI驅動工具強化監管效能,以應對AI在金融領域帶來的挑戰與風險。

從「梅花烙」與「宮鎖連城」著作權侵權糾紛案看劇本實質近似之判斷方式

美國國家寬頻計畫簡介

TOP