英國BEIS發佈燃煤電廠邁向未來低碳之路的公眾諮詢

  英國商業、能源和產業策略部(Business, Energy and Industrial Strategy, BEIS)於2016年11月9日發布公眾諮詢報告「英國燃煤電廠:邁向未來低碳之路」,儘管過去燃煤發電對於滿足英國電力需求發揮了關鍵作用,然而,最近煤炭的重要性隨著再生能源發電的增長和新燃氣電廠的建設而下降。煤炭是碳密集度最高的化石燃料,它每天產生的二氧化碳是天然氣的兩倍,因此,減少發電排碳最直接有效的方法就是減少對燃煤發電的依賴。

  2015年燃煤發電僅佔英國總發電量的四分之一,而目前仍在運營的八個燃煤電廠佔英國總發電量約15%,這些燃煤電廠正在不斷老化,以現代標準來看其發電效率已是相對低下,並且需要昂貴的修繕費用以符合當前的空氣品質標準。因此,近年來有許多燃煤電廠關閉,而當這些燃煤電廠停業時,往往是在短時間內才對電力市場發出通知,關廠增加了短期電力供應安全的壓力,除非電力市場對於這些發電容量的損失有足夠的預期。

  基於上述理由,本次公眾諮詢探討英國政府該如何規範高排放燃煤電廠關閉的相關措施,並為投資者提供更大的市場確定性,以新的燃氣發電機組代替燃煤電廠關閉時的發電容量。

  BEIS提出2025年高排放燃煤電廠應符合的兩種減碳選項─確保電廠使用碳捕捉與封存(Carbon Capture and Storage, CCS)或修改排放績效標準(Emissions Performance Standard, EPS):

(1)要求現有燃煤發電廠裝設CCS技術且確保所有電廠使用CCS技術,並符合現行英國排放績效標準(EPS)。

(2)修改現行排放績效標準(EPS),由每年排放限制強化為即時排放限制,以達到2025年汰除燃煤電廠的目標。

  另外英國政府也將就燃煤電廠是否已充分減少排放二氧化碳,以換取繼續運行的替代方案進行公眾意見徵求。上述這二種方案都會使燃煤電廠將二氧化碳排放量降至等於或低於新建燃氣發電廠的排放量,此份公眾諮詢將結束於2017年2月8日。

相關連結
※ 英國BEIS發佈燃煤電廠邁向未來低碳之路的公眾諮詢, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=7687&no=64&tp=1 (最後瀏覽日:2025/12/15)
引註此篇文章
你可能還會想看
歐盟議會發布《可信賴人工智慧倫理準則》

  2019年4月9日,歐盟議會發布《可信賴人工智慧倫理準則》(Ethics Guidelines for Trustworthy AI)。此次內容大致延續歐盟人工智慧高階專家小組(High-level Expert Group on Artificial Intelligence)於2018年12月18日發布的《可信賴人工智慧倫理準則草案》(Draft Ethics Guidelines for Trustworthy Artificial Intelligence)之內容,要求人工智慧須遵守行善(do good)、不作惡(do no harm)、保護人類(preserve human Agency)、公平(be fair)與公開透明(operate transparency)等倫理原則;並在4月9日發布的正式內容中更加具體描述可信賴的人工智慧的具體要件,共計七面向概述如下: 人類自主性和監控(Human agency and oversight):AI係為強化人類能力而存在,使人類使用者能夠做出更明智的決策並培養自身的基礎能力。同時,AI應有相關監控機制以確保AI系統不會侵害人類自主性或是引發其他負面效果。本準則建議,監控機制應可透過人機混合(一種整合人工智慧與人類協作的系統,例如human-in-the-loop, human-on-the-loop, and human-in-command)的操作方法來實現。 技術穩健性和安全性(Technical Robustness and safety):為防止損害擴張與確保損害最小化,AI系統除需具備準確性、可靠性和可重複性等技術特質,同時也需在出現問題前訂定完善的備援計劃。 隱私和資料治理(Privacy and data governance):除了確保充分尊重隱私和資料保護之外,還必須確保適當的資料治理機制,同時考慮到資料的品質和完整性,並確保合法近用資料為可行。 透明度(Transparency):資料、系統和AI的商業模型應該是透明的。可追溯性機制(Traceability mechanisms)有助於實現這一目標。此外,應以利害關係人能夠理解的方式解釋AI系統的邏輯及運作模式。人類參與者和使用者需要意識到他們正在與AI系統進行互動,並且必須了解AI系統的功能和限制。 保持多樣性、不歧視和公平(Diversity, non-discrimination and fairness):AI不公平的偏見可能會加劇對弱勢群體的偏見和歧視,導致邊緣化現象更為嚴重。為避免此種情況,AI系統應該設計為所有人皆可以近用,達成使用者多樣性的目標。 社會和環境福祉(Societal and environmental well-being):AI應該使包含我們的後代在內的所有人類受益。因此AI必須兼顧永續發展、環境友善,並能提供正向的社會影響。  問責制(Accountability):應建立機制以妥當處理AI所導致的結果的責任歸屬,演算法的可審計性(Auditability)為關鍵。此外,應確保補救措施為無障礙設計。

谷歌,蘋果商談競標已破產的柯達專利

  根據華爾街日報報導指出,蘋果及谷歌將聯合競標柯達公司所釋出的專利組合。   在智慧型手機市場上蘋果和谷歌互為競爭對手,原訂在柯達專利拍賣案中,兩家企業提出1億5仟萬美元至2億5仟萬美元金額進行競標活動,改協議採合作結盟競標方式,以較低的金額獲得柯達的專利。   華爾街日報引據熟悉此項談判之人士指出主要電子產業公司,如Samsung(三星)、LG(樂金)及HTC(宏達電),及其他以透過購買專利作為投資或保護公司營運為目的之企業亦有參與。   柯達為規劃重新成為印刷領域的專業,需藉由販賣其所擁有的1,100件數位影像專利以籌措資金,在今年年初,柯達評估所有專利價值為26億美元(21億歐元)   而柯達對外發布買方非常踴躍於此次競標活動中,但目前尚未可以公布結果,將無限期限地延長拍賣時間,主要柯達是希望蘋果及谷歌能在所釋出的專利中,進行一場專利競標的競賽。

美國聯邦通信委員會通過新「5年軌道碎片規則」,以應對日益增加之軌道碎片風險

  美國聯邦通信委員會(Federal Communications Commission,FCC)於2022年9月29日以4票對0票通過新的軌道碎片(太空垃圾)規則,以求解決軌道碎片碰撞的成本風險,促進低地球軌道區域經濟利用。   新軌道碎片規則將大幅縮短原本長達 25 年的衛星任務後處置指南,要求運行於低地球軌道區域(高度低於2,000公里)之太空載具,營運商應於其任務結束5年內進行「脫軌」處置,例如將衛星脫離軌道,使其落入地球大氣層並燃燒殆盡,或開發新的太空垃圾清理技術進行衛星回收,以降低衛星碰撞風險。且新軌道碎片規則除以美國許可發射的衛星為其適用對象外,同樣適用於欲進入美國市場之衛星系統營運商,因其向FCC之申請流程中,包含衛星任務長度及衛星脫軌時間表,故受系爭新規則拘束。   FCC主席Jessica Rosenworcel表示,目前太空中有數千噸的軌道碎片,為了開創新的太空時代,解決軌道碎片問題是必要的,尤其是低地球軌道區域,新的5年軌道碎片規則即是旨在透由縮短任務結束後太空載具的處置時間;FCC專員Athan Simington亦表示,美國約代表50%的國際太空經濟,新軌道碎片規則將擴展到所有尋求進入美國市場的營運商,預期可成為全球營運商默示且無法抗拒之規則。   考量系爭新規則將增加營運商之負擔及成本,FCC定有2年過渡期間,即2024年9月29日後發射的太空載具,方適用新的5年軌道碎片規則。

用ChatGPT找法院判決?從Roberto Mata v. Avianca, Inc.案淺析生成式AI之侷限

用ChatGPT找法院判決?從Roberto Mata v. Avianca, Inc.案淺析生成式AI之侷限 資訊工業策進會科技法律研究所 2023年09月08日 生成式AI是透過研究過去資料,以創造新內容和想法的AI技術,其應用領域包括文字、圖像及影音。以ChatGPT為例,OpenAI自2022年11月30日發布ChatGPT後,短短二個月內,全球月均用戶數即達到1億人,無疑成為民眾日常生活中最容易近用的AI科技。 惟,生成式AI大量使用後,其中的問題也逐漸浮現。例如,ChatGPT提供的回答僅是從所學習的資料中統整歸納,無法保證資料的正確性。Roberto Mata v. Avianca, Inc.案即是因律師利用ChatGPT撰寫訴狀,卻未重新審視其所提供判決之正確性,以致後續引發訴狀中所描述的判決不存在爭議。 壹、事件摘要 Roberto Mata v. Avianca, Inc.案[1]中,原告Roberto Mata於2019年8月搭乘哥倫比亞航空從薩爾瓦多飛往紐約,飛行過程中膝蓋遭空服員的推車撞傷,並於2022年2月向法院提起訴訟,要求哥倫比亞航空為空服員的疏失作出賠償;哥倫比亞航空則主張已超過《蒙特婁公約》(Montreal Convention)第35條所訂之航空器抵達日起兩年內向法院提出損害賠償之請求時效。 R然而,法院審理過程中發現原告訴狀內引用之六個判決無法從判決系統中查詢,進而質疑判決之真實性。原告律師Steven A. Schwartz因而坦承訴狀中引用的六個判決是ChatGPT所提供,並宣稱針對ChatGPT所提供的判決,曾多次向ChatGPT確認該判決之正確性[2]。 貳、生成式AI應用之潛在風險 雖然運用生成式AI技術並結合自身專業知識執行特定任務,可能有助於提升效率,惟,從前述Roberto Mata v. Avianca, Inc.案亦可看出,依目前生成式AI技術之發展,仍可能產生資訊正確性疑慮。以下彙整生成式AI應用之8大潛在風險[3]: 一、能源使用及對環境危害 相較於傳統機器學習,生成式AI模型訓練將耗費更多運算資源與能源。根據波士頓大學電腦科學系Kate Saenko副教授表示,OpenAI的GPT-3模型擁有1,750億個參數,約會消耗1,287兆瓦/時的電力,並排放552噸二氧化碳。亦即,每當向生成式AI下一個指令,其所消耗的能源量相較於一般搜尋引擎將可能高出4至5倍[4]。 二、能力超出預期(Capability Overhang) 運算系統的黑盒子可能發展出超乎開發人員或使用者想像的隱藏功能,此發展將會對人類帶來新的助力還是成為危險的阻力,則會隨著使用者之間的相互作用而定。 三、輸出結果有偏見 生成式AI通常是利用公開資料進行訓練,若輸入資料在訓練時未受監督,而帶有真實世界既存的刻板印象(如語言、種族、性別、性取向、能力、文化等),據此建立之AI模型輸出結果可能帶有偏見。 四、智慧財產權疑慮 生成式AI進行模型訓練時,需仰賴大量網路資料或從其他大型資料庫蒐集訓練資料。然而,若原始資料來源不明確,可能引發取得資料未經同意或違反授權條款之疑慮,導致生成的內容存在侵權風險。 五、缺乏驗證事實功能 生成式AI時常提供看似正確卻與實際情形不符的回覆,若使用者誤信該答案即可能帶來風險。另外,生成式AI屬於持續動態發展的資訊生態系統,當產出結果有偏誤時,若沒有大規模的人為干預恐難以有效解決此問題。 六、數位犯罪增加與資安攻擊 過去由人工產製的釣魚郵件或網站可能受限於技術限制而容易被識破,然而,生成式AI能夠快速建立具高度說服力的各種擬真資料,降低詐騙的進入門檻。又,駭客亦有可能在不熟悉技術的情況下,利用AI進一步找出資安弱點或攻擊方法,增加防禦難度。 七、敏感資料外洩 使用雲端服務提供商所建立的生成式AI時,由於輸入的資料存儲於外部伺服器,若要追蹤或刪除有一定難度,若遭有心人士利用而導致濫用、攻擊或竄改,將可能產生資料外洩的風險。 八、影子AI(Shadow AI) 影子AI係指開發者未知或無法控制之AI使用情境。隨著AI模型複雜性增加,若開發人員與使用者未進行充分溝通,或使用者在未經充分指導下使用 AI 工具,將可能產生無法預期之風險。 參、事件評析 在Roberto Mata v. Avianca, Inc.案中,法院關注的焦點在於律師的行為,而非對AI技術使用的批判。法院認為,隨著技術的進步,利用可信賴的AI工具作為協助用途並無不當,惟,律師應踐行其專業素養,確保所提交文件之正確性[5]。 當AI科技發展逐漸朝向自主與獨立的方向前進,仍需注意生成式AI使用上之侷限。當個人在使用生成式AI時,需具備獨立思考判斷的能力,並驗證產出結果之正確性,不宜全盤接受生成式AI提供之回答。針對企業或具高度專業領域人士使用生成式AI時,除確認結果正確性外,更需注意資料保護及治理議題,例如建立AI工具合理使用情境及加強員工使用相關工具之教育訓練。在成本能負擔的情況下,可選擇透過企業內部的基礎設施訓練AI模型,或是在訓練模型前確保敏感資料已經加密或匿名。並應注意自身行業領域相關法規之更新或頒布,以適時調整資料使用之方式。 雖目前生成式AI仍有其使用之侷限,仍應抱持開放的態度,在技術使用與風險預防之間取得平衡,以能夠在技術發展的同時,更好地學習新興科技工具之使用。 [1]Mata v. Avianca, Inc., 1:22-cv-01461, (S.D.N.Y.). [2]Benjamin Weiser, Here’s What Happens When Your Lawyer Uses ChatGPT, The New York Times, May 27, 2023, https://www.nytimes.com/2023/05/27/nyregion/avianca-airline-lawsuit-chatgpt.html (last visited Aug. 4, 2023). [3]Boston Consulting Group [BCG], The CEO’s Roadmap on Generative AI (Mar. 2023), https://media-publications.bcg.com/BCG-Executive-Perspectives-CEOs-Roadmap-on-Generative-AI.pdf (last visited Aug. 29, 2023). [4]Kate Saenko, Is generative AI bad for the environment? A computer scientist explains the carbon footprint of ChatGPT and its cousins, The Conversation (May 23, 2023.), https://theconversation.com/is-generative-ai-bad-for-the-environment-a-computer-scientist-explains-the-carbon-footprint-of-chatgpt-and-its-cousins-204096 (last visited Sep. 7, 2023). [5]Robert Lufrano, ChatGPT and the Limits of AI in Legal Research, National Law Review, Volume XIII, Number 195 (Mar. 2023), https://www.natlawreview.com/article/chatgpt-and-limits-ai-legal-research (last visited Aug. 29, 2023).

TOP