美國新能源法案預定於2010年前興建新核電廠

  美國總統布希於本( 8 )月 8 日簽署能源法案,法案目的除減少對國外能源依賴外,另亦授權興建一座新核能發電廠。布希政府希望於 2010 年前開始建造核能廠。


  儘管核能爭議大,但現今國際油價已飆高達每桶
63 美元,在美國參眾兩院日前通過、布希總統今簽署的能源法案中,同意興建的新核電廠,是美國自 1979 年三哩島事件以來,第 1 座預定興建的核能廠。


  能源法案的通過,被視為是布希政府一大勝利,也是相關利益團體石油公司的勝利。布希自
2001 年上台即大力鼓吹此法案,經 4 年多爭議,眾參院才分別在 7 28 30 日通過。


  除新建核電廠外,能源法案內容還包括:准許在海岸探勘石油與天然氣,這項鬆綁引起環保人士質疑;提供美國能源公司超
10 145 億美元的減稅優惠,這項優惠讓華府輿論質疑,減稅是「肥了石油公司,苦了消費者與納稅人」;另外,鼓勵開發新的潔淨能源、再生能源,提供 18 億美元的獎助,這項具有環保意義、找尋替代能源的條文,也被質疑資助少得可憐。

本文為「經濟部產業技術司科技專案成果」

相關連結
※ 美國新能源法案預定於2010年前興建新核電廠, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=461&no=64&tp=1 (最後瀏覽日:2025/12/08)
引註此篇文章
你可能還會想看
日本特許廳持續就專利商標查詢平台(J-PlatPat)進行效能優化

  國際智慧財產權的檢索、查詢,幫助技術、競爭的情報蒐集,是企業能夠規劃出智財布局的優先前提。日本特許廳為提升「專利商標查詢平台」(J-PlatPat)之功能及查詢便利性,規劃就現有平台機能進行擴充,預計在2019年5月時,全面改版完成。特許廳本次J-PlatPat的改版,主要更新或擴充項目包括:將設計專利及商標於審查、審判階段之文件納入可查詢之範圍,並縮短資料上傳時間,使相關文件於上傳隔日即可查詢;增加商標存續狀態之呈現,並增加已廢止商標之檢索;採用人工智慧進行翻譯,提升翻譯品質等;亦針對關鍵字、搜尋結果排序、圖面之運用、設計專利之圖面呈現方式進行優化。   改版後之專利、商標檢索系統便利性,大幅提升,使用上亦毋需支付任何費用。日本特許廳J-PlatPat(https://www.j-platpat.inpit.go.jp/)是個免費的資源,我國企業、學界的智財實務工作者可善加運用此平台,更有效率地達成技術和競爭情報檢索,在專利、商標的國際性競爭中勝出。

日本「u-Japan政策」簡介

歐盟提出雲端服務層級標準化指導原則

  2014年6月26日歐盟執委會提出電信網路層級服務協議標準化指導原則(Cloud Service Level Agreement Standardisation Guidelines)。網路服務提供業者通常會與消費者簽訂契約,內容約定有服務之等級,稱之為電信服務層級契約(SLAs),在雲端運算服務中,通常橫跨不同的管轄領域,適用的法律要件亦產生變化,而在雲端部分所儲存的個人資料保護部分尤其重要。不同的雲端服務與模式所需要的協議約定亦不同,這些都增加訂定的複雜性。   指導原則之提出將幫助專業的雲端服務業者在契約訂定時應該注意的內容,其中主要相關項目包括: 1.雲端服務的可利用性與真實性 2.從雲端服務提供業者中可取得服務的品質 3.安全層級 4.在雲端中如何妥善管理資料   指導原則首先明定原則,以做為雲端運算服務契約之參考。並同時針對不同的名詞定義解是,亦針對不同的契約與法律議題說明,包括業者在依據所訂定的契約中處理個人資料時,應符合歐盟資料保護之規範。   在指導原則提出之後,執委會將與雲端使用者,特別是一些小型企業進行檢視,後續並朝向通過國際ISO之認證。

美國情報體系發布「情報體系運用人工智慧倫理架構」

  美國國家情報體系(United States Intelligence Community)係於1981年依據行政命令第12333號(Executive Order 12333)所建立,其任務為蒐集、分析與提供外國情報與反情報資訊美國國家領導人,服務對象包含美國總統、執法單位以及軍事單位。其於2020年6月提出「情報體系人工智慧倫理架構」(Artificial Intelligence Ethics Framework for the Intelligence Community),為人工智慧系統與訓練資料、測試資料之採購、設計、研發、使用、保護、消費與管理提出指引,並指出人工智慧之利用須遵從以下事項: 一、於經過潛在風險評估後,以適當且符合目的之方法利用; 二、人工智慧之使用應尊重個人權利與自由,且資料取得應合法且符合相關政策與法規之要求; 三、應於利用程序內結合人類判斷與建立問責機制,以因應AI產品之風險並確保其決策之適當性。 四、於不破壞其功能與實用性之前提下,盡可能確認、統計以及降低潛在之歧視問題。 五、AI進行測試時應同時考量其未來利用上可預見之風險。 六、持續維持AI模型之迭代(Iteration)、版本與改動之審查。 七、AI之建立目的、限制與設計之輸出項目,應文件化。 八、盡可能使用可解釋與可理解之方式,讓使用者、審查者與公眾理解為何AI會產出相關決策。 九、持續不定期檢測AI,以確保其符合當初建置之目的。 十、確認AI於產品循環中各階段之負責人,包含其維護相關紀錄之責任。

TOP