英國運輸部宣布擴大對平價零碳排車輛購車補助以推進車輛電動化

  英國運輸部(Department for Transport)於2021年12月15日宣布更新對零碳排放車輛購車補助計畫,未來將擴大對平價零碳排放車輛(affordable zero-emission vehicles)的購車補助,以創造更多購買電動車之誘因。充電式車輛購車補助計畫(plug-in grant scheme)在過去十年間已經補助超過50萬輛,並在2021年達成超過15萬輛,約每10台新車就有1台受該計畫補助,顯示電動車輛市場的持續擴大與需求的增加。

  本次更新將著眼於針對售價低於32,000英鎊的電動車輛(目前英國市場中約有20款車型符合條件),提供最高1,500英鎊的購車補助,並且針對無障礙車輛售價與購車補助金額上限提高至35,000英鎊與2,500英鎊。在貨車購車補助方面,每年將提供1,000位消費者購買大型貨車5,000英鎊或小型貨車2,500英鎊的購車補助,2021年充電貨車計畫的購車補助規模較2020年已成長超過250%。而在電動機車與電動自行車方面,英國政府將對於售價低於10,000英鎊的電動機車與電動自行車分別提供500英鎊及150英鎊的購車補助。

  英國政府指出,針對電動車輛的購車補助政策已經逐漸顯現效果,2021年電動汽車的銷售量已經超越2019年與2020年的加總數量,未來政府也將加強對充電基礎設施的建設,針對7.1千瓦以上的充電(包含快速充電)站訂定支付方式基本要求(例如必須具備無接觸支付方式)。英國政府承諾將提供35億英鎊用於支持英國汽車與供應鏈的電動化、電動汽車購車補助與興建基礎設施。

本文為「經濟部產業技術司科技專案成果」

相關連結
※ 英國運輸部宣布擴大對平價零碳排車輛購車補助以推進車輛電動化, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8788&no=67&tp=1 (最後瀏覽日:2026/02/15)
引註此篇文章
你可能還會想看
英國提出產品安全及電信基礎設施法案

  英國政府於2021年11月24日,提出產品安全及電信基礎設施法案(Product Security and Telecommunications Infrastructure Bill,PSTI法案),要求物聯網供應商、提供網際網路連線服務之公司或其他數位科技產品之製造商、進口商,及經銷商符合新網路安全標準,並對未遵守規範者處以巨額罰款。   PSTI法案之通過將保護消費者免受資安攻擊,並使政府得以引入更加嚴格的安全標準。該法案之內容包含,禁止數位科技產品之業者使用單一且通用之預設密碼,產品之預設密碼都必須有所不同;供應商應具備漏洞揭露政策,並應向客戶公開公司正採取何種防禦作為,處理該安全漏洞;應公開相關聯繫資訊或建立聯繫平台,使安全研究人員或其他人發現產品缺陷及錯誤時,方便與其聯繫;另外,針對不符合要求之產品或服務,政府亦將有權阻止其於英國境內銷售。   在電信基礎設施改革方面,將促進營運商與電信託管設備之土地所有權人進行更快速有效之談判,減少相關冗長的法律爭訟事件,例如,要求電信營運商透過訴訟外紛爭解決機制(Alternative Dispute Resolution,ADR)解決紛爭,無須訴諸法院。亦加快續約之談判流程,讓根據舊有協議安裝基礎設施之營運商,得以按照類似條款進行續約,英國政府希望透過這些措施使95%國土擁有4G網路覆蓋,至2027年大多數人口能使用5G網路。   PSTI法案生效後,英國政府將指定監管機構,其有權限針對違反規範之企業處以最高1000萬英鎊罰鍰,或以其在全球之營業總額的4%作為罰款。

日本發布利用AI時的安全威脅、風險調查報告書,呼籲企業留意利用AI服務時可能造成資料外洩之風險

日本獨立行政法人情報處理推進機構於2024年7月4日發布利用AI時的安全威脅、風險調查報告書。 隨著生成式AI的登場,日常生活以及執行業務上,利用AI的機會逐漸增加。另一方面,濫用或誤用AI等行為,可能造成網路攻擊、意外事件與資料外洩事件的發生。然而,利用AI時可能的潛在威脅或風險,尚未有充分的對應與討論。 本調查將AI區分為分辨式AI與生成式AI兩種類型,並對任職於企業、組織中的職員實施問卷調查,以掌握企業、組織於利用兩種類型之AI時,對於資料外洩風險的實際考量,並彙整如下: 1、已導入AI服務或預計導入AI服務的受調查者中,有61%的受調查者認為利用分辨式AI時,可能會導致營業秘密等資料外洩。顯示企業、組織已意識到利用分辨式AI可能帶來的資料外洩風險。 2、已導入AI利用或預計導入AI利用的受調查者中,有57%的受調查者認為錯誤利用生成式AI,或誤將資料輸入生成式AI中,有導致資料外洩之可能性。顯示企業、組織已意識到利用生成式AI可能造成之資料外洩風險。 日本調查報告顯示,在已導入AI利用或預計導入AI利用的受調查者中,過半數的受調查者已意識到兩種類型的AI可能造成的資料外洩風險。已導入AI服務,或未來預計導入AI服務之我國企業,如欲強化AI資料的可追溯性、透明性及可驗證性,可參考資策會科法所創意智財中心所發布之重要數位資料治理暨管理制度規範;如欲避免使用AI時導致營業秘密資料外洩,則可參考資策會科法所創意智財中心所發布之營業秘密保護管理規範,以降低AI利用可能導致之營業秘密資料外洩風險。 本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。 本文同步刊登於TIPS網站(https://www.tips.org.tw)

歐盟網路中立性議題發展—2009~2013年兩次電子通訊管制法律改革之觀察

歐盟提出人工智慧法律框架草案

  歐盟執委會於2020年2月公布《人工智慧白皮書》(AI White Paper)後,持續蒐集各方意見並提出新的人工智慧規範與行動。2021年4月針對人工智慧法律框架提出規範草案(Proposal for a Regulation on a European approach for Artificial Intelligence),透過規範確保人民與企業運用人工智慧時之安全及基本權利,藉以強化歐盟對人工智慧之應用、投資與創新。   新的人工智慧法律框架未來預計將統一適用於歐盟各成員國,而基於風險規範方法將人工智慧系統主要分為「不可接受之風險」、「高風險」、「有限風險」及「最小風險」四個等級。「不可接受之風險」因為對人類安全、生活及基本權利構成明顯威脅,故將被禁止使用,例如:政府進行大規模的公民評分系統;「高風險」則是透過正面例舉方式提出,包括:可能使公民生命或健康處於危險之中的關鍵基礎設施、教育或職業培訓、產品安全、勞工與就業、基本之私人或公共服務、可能會干擾基本權之司法應用、移民與庇護等面向,而高風險之人工智慧在進入市場之前須要先行遵守嚴格之義務,並進行適當風險評估及緩解措施等。「有限風險」則是指部分人工智慧應有透明度之義務,例如當用戶在與該人工智慧系統交流時,需要告知並使用戶意識到其正與人工智慧系統交流。最後則是「最小風險」,大部分人工智慧應屬此類型,因對公民造成很小或零風險,各草案並未規範此類人工智慧。   未來在人工智慧之治理方面,歐盟執委會建議各國現有管理市場之主管機關督導新規範之執行,且將成立歐洲人工智慧委員會(European Artificial Intelligence Board),推動人工智慧相關規範、標準及準則之發展,也將提出法規沙盒以促進可信賴及負責任之人工智慧。

TOP