英國氣候變遷委員會發布「2024年減排進度報告」,提出溫室氣體減量之優先執行政策建議

英國氣候變遷委員會(Climate Change Committee)於2024年7月18日依據《氣候變遷法》(Climate Change Act)向議會提交「2024年減排進度報告」(Progress in Reducing Emissions 2024 Report)。該報告提出多項政府為達成溫室氣體減量目標應優先執行之政策建議,重點內容如下:

1.調整政策以排除尚未成熟的低碳發電部署相關措施及其社會成本,以降低電價。

2.針對上屆政府推遲化石燃料車輛銷售禁令、決定20%家戶毋須淘汰化石燃料鍋爐,及免除房東提升租屋能效之義務等政策,應迅速恢復推動。

3.移除阻礙熱泵、電動車充電樁及陸域風電等關鍵技術部署的行政障礙。

4.提出公部門建築去碳之完整多年期戰略計畫。

5.改善再生能源差價合約(contracts for difference)競標機制的設計與執行。

6.提供政策支持以加速產業電氣化,促進多數產業轉向使用電熱技術。

7.加強植樹造林及泥炭地復育。

8.確立大規模部署人為工程碳移除技術(engineered removals)的商業模式,以實現2030年,每年移除至少500萬噸二氧化碳目標。

9.就全國推動淨零轉型所需之勞工技能進行全面評估與規劃。

10.強化國家氣候變遷調適政策,設定明確且可衡量之目標,以作為其他重大政策之制定基礎。

總體而論,英國的溫室氣體減量目標正面臨難以達成的重大風險,政府應迅速採取行動,並優先執行氣候變遷委員會所提出之政策建議。

相關連結
※ 英國氣候變遷委員會發布「2024年減排進度報告」,提出溫室氣體減量之優先執行政策建議, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=9260&no=64&tp=1 (最後瀏覽日:2026/03/13)
引註此篇文章
你可能還會想看
德國聯邦最高法院(BGH)判決醫師評價平台「Jameda」須刪除受評醫師個人資料

  德國聯邦最高法院(Bundesgerichtshof, BGH)在2018年2月20日的判決(Urt. V. 20.02.2018 – Az. VI ZR 30/17)中認定,網路評價網站(Bewertungsportale)之業務雖未違反聯邦資料保護法(Bundesdatenschutzgesetz, BDSG)規定,但其評價立場必須維持中立。醫師評價平台「Jameda」(www.jameda.de)之商業行為違反此項原則,故須依原告要求,刪除其在該網站之所有個人資料。   本案中,原告為執業皮膚科醫師,且非醫師評價平台「Jameda」之付費會員。然「Jameda」不僅將該醫師執業簡介列入其網站,且同時在其個人簡介旁,列出與其執業地點相鄰,具競爭關係之其他同為皮膚科醫師之付費會員廣告。反之,付費會員不但可上傳個人照片,且在其執業簡介旁,不會出現與其診所相鄰之競爭者廣告。   聯邦最高法院依據聯邦資料保護法第35條第2項第2款第1號 (§35 Abs. 2 S. 2 Nr. 1 BDSG) 規定,並經衡量同法第29條第1項第1款第1號 (§29 Abs. 1 S. 1 Nr. 1 BDSG) 規定之效果後,同意原告對「Jameda」提出刪除網頁所列個資之請求。法院見解認為,「Jameda」的廣告策略使其失去資訊與意見傳遞者之中立角色,並以自身商業利益為優先,故其言論自由不得優於原告之資訊自主權(informationelle Selbstbestimmung)。   該判決強制網路評價平台嚴格審查本身之廣告供應商務,並與聯邦憲法法院(Bundesverfassungsgericht)見解一致,用於商業目的之言論表達僅有低於一般言論自由的重要性。儘管如此,評價平台仍被視為介於患者間不可或缺的中介者(unverzichtbare Mittelperson),可使互不相識的病患,藉此獲得經驗交流的機會。   儘管本案判決同意原告刪除評價網站中所儲存個人資料之請求,但見解中,仍肯定評價網站具有公開醫療服務資訊之功能,符合公眾利益,受評價醫師被公開之個人簡介亦僅涉及與社會大眾相關之範圍。針對網站評分及評論功能之濫用,醫師仍可對各種不當行為分別採取法律途徑保障自身權益。由此可知,德國聯邦最高法院仍認定,評價網站之評分與評論機制,仍符合聯邦資料保護法規範之宗旨,惟若該評價網站以評價機制作為商業行銷手段,則不得主張其言論及意見表達自由高於受評價者之資訊自主權。

美國專利與商標局推出COVID-19專利優先審查領航計畫

  因應嚴峻的新冠肺炎,美國專利與商標局(United States Patent and Trademark Office, USPTO)於2020年5月8日公布「COVID-19專利優先審查領航計畫」(COVID-19 Prioritized Examination Pilot Program)。本領航計畫的法源依據是《美國專利法》第1.183條,授權局長在極特殊的狀況下,更改專利審查規則。本專利優先審查領航計畫之重點有二:其一,原本優先審查必須繳交相關的費用,本計畫針對小型或微型機構給予免費優待。其二,優先審查以12個月內完成最終處置(Final Disposition)為目標,並期待在6個月內完成。所謂最終處置包含:寄出核准領證通知(the mailing of a notice of allowance)、寄出最終核駁通知(the mailing of a final Office action)、請求延續審查(the filing of an RCE)、放棄申請(abandonment of the application)、提出上訴通知(the filing of a Notice of Appeal)。   美國專利與商標局局長Andrei Iancu表示:「獨立發明人與小型企業創新能力不亞於大企業,固有必要在對抗大型全球流行疾病給予有利的援助。為此,美國專利與商標局政策上給予小型或微型機構優先審查的程序優待,企盼加速其所提出之新冠肺炎相關的專利審查。」本計畫適用對象僅限於合於條件的小型或微型機構(Small or Micro Entity)。按美國專利審查程序指南(Manual of Patent Examining Procedure, MPEP)第509.02及509.04條,所謂小型機構係指個人、少於500人之公司、非營利組織和大學;微型機構則是指該機構作為申請人或投資人,其前一年年收入,少於美國家庭年收入中位數的三倍。   本專利優先審查領航計畫的專利請求項,必須是美國食品藥品監督管理局(United States Food and Drug Administration, FDA)批准,用以預防或治療新冠肺炎的產品或方法,包含但不限於:試驗用新藥(Investigational New Drug, IND)申請、臨床試驗器材豁免(Investigational Device Exemption, IDE)、新藥申請(New Drug Application, NDA)、生物製劑許可申請(Biologics License Application, BLA)、上市前許可(Premarket Approval, PMA)或緊急使用授權(Emergency Use Authorization, EUA)。

用ChatGPT找法院判決?從Roberto Mata v. Avianca, Inc.案淺析生成式AI之侷限

用ChatGPT找法院判決?從Roberto Mata v. Avianca, Inc.案淺析生成式AI之侷限 資訊工業策進會科技法律研究所 2023年09月08日 生成式AI是透過研究過去資料,以創造新內容和想法的AI技術,其應用領域包括文字、圖像及影音。以ChatGPT為例,OpenAI自2022年11月30日發布ChatGPT後,短短二個月內,全球月均用戶數即達到1億人,無疑成為民眾日常生活中最容易近用的AI科技。 惟,生成式AI大量使用後,其中的問題也逐漸浮現。例如,ChatGPT提供的回答僅是從所學習的資料中統整歸納,無法保證資料的正確性。Roberto Mata v. Avianca, Inc.案即是因律師利用ChatGPT撰寫訴狀,卻未重新審視其所提供判決之正確性,以致後續引發訴狀中所描述的判決不存在爭議。 壹、事件摘要 Roberto Mata v. Avianca, Inc.案[1]中,原告Roberto Mata於2019年8月搭乘哥倫比亞航空從薩爾瓦多飛往紐約,飛行過程中膝蓋遭空服員的推車撞傷,並於2022年2月向法院提起訴訟,要求哥倫比亞航空為空服員的疏失作出賠償;哥倫比亞航空則主張已超過《蒙特婁公約》(Montreal Convention)第35條所訂之航空器抵達日起兩年內向法院提出損害賠償之請求時效。 R然而,法院審理過程中發現原告訴狀內引用之六個判決無法從判決系統中查詢,進而質疑判決之真實性。原告律師Steven A. Schwartz因而坦承訴狀中引用的六個判決是ChatGPT所提供,並宣稱針對ChatGPT所提供的判決,曾多次向ChatGPT確認該判決之正確性[2]。 貳、生成式AI應用之潛在風險 雖然運用生成式AI技術並結合自身專業知識執行特定任務,可能有助於提升效率,惟,從前述Roberto Mata v. Avianca, Inc.案亦可看出,依目前生成式AI技術之發展,仍可能產生資訊正確性疑慮。以下彙整生成式AI應用之8大潛在風險[3]: 一、能源使用及對環境危害 相較於傳統機器學習,生成式AI模型訓練將耗費更多運算資源與能源。根據波士頓大學電腦科學系Kate Saenko副教授表示,OpenAI的GPT-3模型擁有1,750億個參數,約會消耗1,287兆瓦/時的電力,並排放552噸二氧化碳。亦即,每當向生成式AI下一個指令,其所消耗的能源量相較於一般搜尋引擎將可能高出4至5倍[4]。 二、能力超出預期(Capability Overhang) 運算系統的黑盒子可能發展出超乎開發人員或使用者想像的隱藏功能,此發展將會對人類帶來新的助力還是成為危險的阻力,則會隨著使用者之間的相互作用而定。 三、輸出結果有偏見 生成式AI通常是利用公開資料進行訓練,若輸入資料在訓練時未受監督,而帶有真實世界既存的刻板印象(如語言、種族、性別、性取向、能力、文化等),據此建立之AI模型輸出結果可能帶有偏見。 四、智慧財產權疑慮 生成式AI進行模型訓練時,需仰賴大量網路資料或從其他大型資料庫蒐集訓練資料。然而,若原始資料來源不明確,可能引發取得資料未經同意或違反授權條款之疑慮,導致生成的內容存在侵權風險。 五、缺乏驗證事實功能 生成式AI時常提供看似正確卻與實際情形不符的回覆,若使用者誤信該答案即可能帶來風險。另外,生成式AI屬於持續動態發展的資訊生態系統,當產出結果有偏誤時,若沒有大規模的人為干預恐難以有效解決此問題。 六、數位犯罪增加與資安攻擊 過去由人工產製的釣魚郵件或網站可能受限於技術限制而容易被識破,然而,生成式AI能夠快速建立具高度說服力的各種擬真資料,降低詐騙的進入門檻。又,駭客亦有可能在不熟悉技術的情況下,利用AI進一步找出資安弱點或攻擊方法,增加防禦難度。 七、敏感資料外洩 使用雲端服務提供商所建立的生成式AI時,由於輸入的資料存儲於外部伺服器,若要追蹤或刪除有一定難度,若遭有心人士利用而導致濫用、攻擊或竄改,將可能產生資料外洩的風險。 八、影子AI(Shadow AI) 影子AI係指開發者未知或無法控制之AI使用情境。隨著AI模型複雜性增加,若開發人員與使用者未進行充分溝通,或使用者在未經充分指導下使用 AI 工具,將可能產生無法預期之風險。 參、事件評析 在Roberto Mata v. Avianca, Inc.案中,法院關注的焦點在於律師的行為,而非對AI技術使用的批判。法院認為,隨著技術的進步,利用可信賴的AI工具作為協助用途並無不當,惟,律師應踐行其專業素養,確保所提交文件之正確性[5]。 當AI科技發展逐漸朝向自主與獨立的方向前進,仍需注意生成式AI使用上之侷限。當個人在使用生成式AI時,需具備獨立思考判斷的能力,並驗證產出結果之正確性,不宜全盤接受生成式AI提供之回答。針對企業或具高度專業領域人士使用生成式AI時,除確認結果正確性外,更需注意資料保護及治理議題,例如建立AI工具合理使用情境及加強員工使用相關工具之教育訓練。在成本能負擔的情況下,可選擇透過企業內部的基礎設施訓練AI模型,或是在訓練模型前確保敏感資料已經加密或匿名。並應注意自身行業領域相關法規之更新或頒布,以適時調整資料使用之方式。 雖目前生成式AI仍有其使用之侷限,仍應抱持開放的態度,在技術使用與風險預防之間取得平衡,以能夠在技術發展的同時,更好地學習新興科技工具之使用。 [1]Mata v. Avianca, Inc., 1:22-cv-01461, (S.D.N.Y.). [2]Benjamin Weiser, Here’s What Happens When Your Lawyer Uses ChatGPT, The New York Times, May 27, 2023, https://www.nytimes.com/2023/05/27/nyregion/avianca-airline-lawsuit-chatgpt.html (last visited Aug. 4, 2023). [3]Boston Consulting Group [BCG], The CEO’s Roadmap on Generative AI (Mar. 2023), https://media-publications.bcg.com/BCG-Executive-Perspectives-CEOs-Roadmap-on-Generative-AI.pdf (last visited Aug. 29, 2023). [4]Kate Saenko, Is generative AI bad for the environment? A computer scientist explains the carbon footprint of ChatGPT and its cousins, The Conversation (May 23, 2023.), https://theconversation.com/is-generative-ai-bad-for-the-environment-a-computer-scientist-explains-the-carbon-footprint-of-chatgpt-and-its-cousins-204096 (last visited Sep. 7, 2023). [5]Robert Lufrano, ChatGPT and the Limits of AI in Legal Research, National Law Review, Volume XIII, Number 195 (Mar. 2023), https://www.natlawreview.com/article/chatgpt-and-limits-ai-legal-research (last visited Aug. 29, 2023).

歐洲資料保護監管機關研議提出「智慧電表系統發展準備建議」研究報告

  歐洲資料保護監管機關(European Data Protection Supervisor,以下簡稱EDPS)是一個獨立的監督機關,其任務主要在於監督歐盟個人資料的管理程序、提供影響隱私的政策及法制建議、與其他類似機關合作以確保資料的保護。   EDPS於今(2012)年6月8日,針對歐盟執委會於今(2012)年3月9日發布的「智慧電表系統發展準備建議」(Recommendation on preparations for the roll-out of smart metering systems,以下簡稱準備建議)提出相關意見。「智慧電表系統發展準備建議」乃係針對智慧電表部署之資料安全保護及經濟成本效益評估,提出發展準備建議,供會員國於進行相關建置及制定規範時之參考。然EDPS指出,執委會對於智慧電表中個人資料保護的重視雖值得肯定,但並未在準備建議中提供更具體、全面且實用的指導原則。智慧電表系統雖能帶來顯著的利益,但造成個人資料的大量蒐集,可能導致隱私的外洩,或相關數據遭使用於其他目的。   有鑑於相關風險,EDPS認為在準備建議中,應更加強其資料保護的安全措施,至少應包含對資料控制者在處理個人資料保護評估時有強制的要求;此外,是否有必要進行歐盟層級的立法行動亦應予以評估。EDPS提出的意見主要包括:(1)應提出更多有關選擇資料當事人及處理相關資料的法律依據,例如電表讀取的頻率、是否需取得資料當事人同意;(2)應強制「提升隱私保護技術」(privacy-enhancing technologies)的適用,以限縮資料的使用;(3)從資料保護的角度來釐清參與者的責任;(4)關於保存期間的相關原則,例如對於家戶詳細消費資訊的儲存期間、或在針對帳單處理的情形;(5)消費者能直接近取其能源使用數據,提供有效的方式使資料當事人知悉其資料的處理及揭露,提供有關遠端遙控開關之功能等訊息。

TOP