英國運輸部宣布擴大對平價零碳排車輛購車補助以推進車輛電動化

  英國運輸部(Department for Transport)於2021年12月15日宣布更新對零碳排放車輛購車補助計畫,未來將擴大對平價零碳排放車輛(affordable zero-emission vehicles)的購車補助,以創造更多購買電動車之誘因。充電式車輛購車補助計畫(plug-in grant scheme)在過去十年間已經補助超過50萬輛,並在2021年達成超過15萬輛,約每10台新車就有1台受該計畫補助,顯示電動車輛市場的持續擴大與需求的增加。

  本次更新將著眼於針對售價低於32,000英鎊的電動車輛(目前英國市場中約有20款車型符合條件),提供最高1,500英鎊的購車補助,並且針對無障礙車輛售價與購車補助金額上限提高至35,000英鎊與2,500英鎊。在貨車購車補助方面,每年將提供1,000位消費者購買大型貨車5,000英鎊或小型貨車2,500英鎊的購車補助,2021年充電貨車計畫的購車補助規模較2020年已成長超過250%。而在電動機車與電動自行車方面,英國政府將對於售價低於10,000英鎊的電動機車與電動自行車分別提供500英鎊及150英鎊的購車補助。

  英國政府指出,針對電動車輛的購車補助政策已經逐漸顯現效果,2021年電動汽車的銷售量已經超越2019年與2020年的加總數量,未來政府也將加強對充電基礎設施的建設,針對7.1千瓦以上的充電(包含快速充電)站訂定支付方式基本要求(例如必須具備無接觸支付方式)。英國政府承諾將提供35億英鎊用於支持英國汽車與供應鏈的電動化、電動汽車購車補助與興建基礎設施。

本文為「經濟部產業技術司科技專案成果」

相關連結
※ 英國運輸部宣布擴大對平價零碳排車輛購車補助以推進車輛電動化, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8788&no=66&tp=1 (最後瀏覽日:2026/05/05)
引註此篇文章
你可能還會想看
英國與新加坡監管沙盒機制概述

歐盟執委會宣布「軟體開源授權及複用」決定

  歐盟執委會於2021年12月8日宣布「軟體開源授權及複用」決定(COMMISSION DECISION on the open source licensing and reuse of Commission software)。本決定規範執委會軟體之開源授權條件與複用方式,其軟體開源授權流程如下: 一、執委會依本決定(下同)第5條授予其軟體的開源授權證應為歐盟公共授權(the European Union Public Licence, EUPL),除因(1)適用第三方軟體的互惠條款,而強制使用其他開源授權證,或替代開源授權證比EUPL更便於人民使用該軟體;(2)適用第三方軟體之授權條款,存在多個開源授權標準(不含EUPL),則應優先選擇授予最廣泛權利的開源授權。 二、透過第8條對智慧財產權進行核實,包括:(1)軟體識別(2)對軟體的智慧財產權進行驗證;及(3)安全驗證。 三、依第6條規定將所有開源軟體置於資料庫,供公民、公司或其他公共服務有潛在利益者取得。   另外,依第四條規定,本規則不適用於以下情形:(1)因第三方智慧財產權問題,無法允許複用的軟體;(2)該原始碼之發布或共享,對執委會、其他歐洲機構或團體的資訊系統或資料庫安全構成實質或潛在風險;(3)因法律規定、契約義務或性質,其內容須被視為機密之軟體;(4)依(EC)1049/2001第4條所列之情形,包含但不限於:因公共利益、國家安全、隱私保護、商業利益、訴訟或審計之利益等,該軟體須被排除,或只能由特定之一方取得或管理;(5)委託由執委會進行研究產生之軟體,若公開將干擾臨時研究結果之驗證或構成拒絕註冊有利於執委會之智慧財產權的理由。

競業禁止新方向-「勞資雙方簽訂離職後競業禁止條款參考原則」

美國國防部「人工智慧國防運用倫理準則」

  美國國防部(Department of Defense)於2020年2月採納由美國國防創新委員會(Defense Innovation Board, DIB)所提出之「人工智慧國防運用倫理準則(AI Principles: Recommendations on the Ethical Use of Artificial Intelligence by the Department of Defense)」,以衡平倫理與人工智慧於國防帶來之增益。   美國國防創新委員會為美國聯邦政府下之獨立委員會,設置目的在於依美國新創科技,提供意見予美國國防部,與美國國防部並無隸屬關係。有鑑於人工智慧之運用範疇日益增廣,美國國防創新委員會遂提出旨揭「人工智慧國防運用倫理準則」,以因應人工智慧於國防之應用所產生之問題。   倫理準則適用於「戰爭或非戰爭用途之人工智慧之設計以及應用」,對於「人工智慧」之定義,倫理準認為人工智慧並無精確之範疇,只要「對於資訊有所處理並旨在達到所賦予任務之資訊系統」,皆為本準則下之人工智慧。倫理準則指出,「人工智慧」與美國國防部3000.09指令下之「自動化武器系統(Autonomous Weapon System)」之定義不同,但有可能重疊,而所謂「自動化武器系統」為「一經人類選擇啟動,即可在無人類監督之情形下,自動針對目標進行鎖定或進行攻擊之自動化武器系統」。   美國國防創新委員會表示,該準則旨在切合美國既有憲法、法律、國際公約之傳統標準下,融入現代化對於人工智慧之要求,如國際公約中之戰爭法(Law of War)即為本準則之傳統標準之一,舉例而言,如人工智慧被裝置於武器中,其設計及應用應符合最小傷亡原則、避免傷及無辜原則等。   除此之外,準則亦包含以下現代化對於人工智慧之要求:(1)人類對於人工智慧系統之設計、應用以及使用應善盡判斷以及注意義務,且人類應該對於人工智慧系統因瑕疵所帶來之傷害負擔最終責任;(2)對於目標之選擇或分類,應維持公平性,且不得有歧視性;(3)對於人工智慧之設計、應用以及使用,應有明確之工程標準以及資料保存程序,此一工程標準以及資料保存程序應為一般具有專業知識之工程人員可據以理解、分析、追蹤問題所在並加以改善;(4)「戰爭或非戰爭用途之人工智慧」應有明確之應用領域,且完善之檢測、維修,應適用於該人工智慧之全部生命週期。

TOP