德國通過《小型電動車條例》,實現清潔現代化運輸並確保道路安全

  隨著現代德國城市興起騎乘小型電動車(例如:電動滑板車和電動踏板車)風潮,德國聯邦交通及數位基礎設施部(Bundesministerium für Verkehr und digitale Infrastruktur, BMVi)制定小型電動車條例(Elektrokleinstfahrzeuge-Verordnung),以實現清潔現代化運輸並確保道路安全,該條例於2019年6月15日正式生效,並取代原有的行動輔助工具條例(Mobilitätshilfenverordnung),此外,德國聯邦車輛運輸管理局(Kraftfahrt-Bundesamt, KBA)並陸續公布經審驗合格之小型電動車清單。

  由於歐洲議會及理事會通過的二輪或三輪和四輪車核可及市場監督規則(EU Nr. 168/2013)將自動平衡車輛和無座椅車輛特別排除,因此BMVi制定行動輔助工具條例,以規範例如Segways的新型運輸工,然而隨著市場推出更多新型小型電動車,原行動輔助工具條例已無法有效規範,因此制定小型電動車條例,除將原本核可小型電動車納入適用外,而本條例所稱小型電動車定義為第一,具備轉向或支撐桿;第二,最高時速設計6~20公里/小時;第三,功率限制為500瓦(自動平衡運輸工具為1400瓦);第四,最低安全要求(例如制動裝置和照明系統,駕駛動態和電動安全設備)。另條例規範重點如下:(1)小型電動車須年滿14歲方能使用,但無須考取任何駕駛執照;(2)小型電動車應行駛於自行車道上,如該段道路無設計自行車道可行駛於側車道,並禁止行駛於人行道或步行區,且不得於踏板上另搭載他人或物品及攀附於其他車輛;(3)須遵守其他一般道路交通法規,特別是保持謹慎駕駛以及酒駕規定須遵守相關規範;(4)保險部分,因小型電動車輛屬於機械動力車輛,故必須投保,並將投保證明貼紙黏貼於車輛上。

  另外,BMVi主張並支持小型電動車可攜帶上公共交通工具,然原則上,攜帶小型電動車搭乘公共交通工具,受貨物運輸規範約束,應視電車及無軌電車等固定路線動力車輛之一般條件及服務條例(BefBedV)第11條,或有關運輸公司之特殊運輸條件規範個案判斷。

本文為「經濟部產業技術司科技專案成果」

相關連結
相關附件
※ 德國通過《小型電動車條例》,實現清潔現代化運輸並確保道路安全, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?no=55&tp=1&d=8303 (最後瀏覽日:2026/04/19)
引註此篇文章
你可能還會想看
何謂「“十三五”技術市場發展專項規劃」?

  中國大陸發布「“十三五”技術市場發展專項規劃」,在十二五時期,中國大陸不斷的推動技術市場的進步與發展,在政策上,不斷的更新法規,包括修訂《中國大陸促進科技成果轉化法》,進而促使《中國大陸促進科技成果轉化法》、《中國大陸科技進步法》、《中國大陸合同法》和地方技術市場法規共同規範了對中國大陸技術市場的保障。   在十三五時期,中國大陸提出六項主要任務,分述如下:(一)使保障技術市場的法規更為完整;(二)完整技術市場體系的建構;(三)加速促進成果轉化的步調;(四)利用技術平台,使創新創意相互流動;(五)提高技術市場人才的專業能力;(六)合理化的監督管理機制。

以再生能源公司終止併購而衍生之營業秘密糾紛案為鑒,提供企業管理建議

2025年7月30日,美國加州法院指出公司濫用合作談判地位以爭奪再生能源市場之行為,從商業角度極為惡劣,將面臨重大法律風險,並認定Phillips 66能源公司須向Propel Fuels(下稱Propel)競爭公司給付共約8億美元的賠償金。 本案源於2017年,Phillips 66公司以收購為由,雙方簽署收購意向書,對Propel公司進行盡職調查。於此期間,Propel公司依保密契約向Phillips 66公司揭露其再生柴油專屬策略與資訊,Phillips 66公司並從 Propel 下載近 3千份包含營業秘密的紀錄。於2018年8月24日,Phillips 66公司突然終止收購並於下一工作日向加州監管機構宣布其將加入加州再生能源市場,2019年正式銷售高混合可再生柴油。 2022年2月16日,Propel公司向加州法院控訴Philips 66公司不當使用Propel公司花費13年研發得出之財務與銷售資料、營運模式及其再生能源業務的預測資料等營業秘密,致Propel公司損失2億美元。於2024年10月16日,本案認定Phillips 66公司違反加州統一營業秘密法(Uniform Trade Secrets Act),不當使用Propel公司的營業秘密, Phillips 66公司應賠償6.049 億美元。其後,本案認定Phillips 66公司行為屬惡意不當使用營業秘密,依加州統一營業秘密法,法院可另將懲罰性賠償金增加至2倍。2025年7月底,本案認定之賠償金達到8億美元,包含自2024年之6.049億美元的補償性賠償金,以及因Phillips 66公司「惡意」不當使用營業秘密的行為,追加1.95億美元的懲罰性賠償金。 綜觀前述實務案例可得知,即便公司間已簽訂保密契約,仍存在公司假借併購盡職調查、合作協商為由,要求他公司提供機密資料。為降低與外部合作而衍生之機密外洩風險,以下為公司提供資料對外之前、中、後階段可參考之管理建議: 1. 對外提供資料前 (1) 內規定義營業秘密搭配機密分級,了解營業秘密之範圍,並依據不同機密等級採取相應的管制措施。 (2) 對外提供資料前,營業秘密相關之權責人員應審查資料適合揭露與否。 (3) 與外部合作協商前,即應確認簽訂保密契約與約定權利歸屬。 2. 已對外提供資料 倘若已對外提供資料,建議採取限制流通、限制權限等作法,如僅限該合作計畫相關人員透過身分認證登入帳號,方有線上瀏覽機密之權限等方式。 3. 對外提供資料後 於合作結束或協商破局之情況,應要求合作方返還或銷毀營業秘密,如為銷毀,應附上相關聲明並佐證執行紀錄。 前述建議之管理作法已為資策會科法所創意智財中心於2023年發布之「營業秘密保護管理規範」所涵蓋,企業如欲精進系統化的營業秘密管理作法,可以參考此規範。 本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。 本文同步刊登於TIPS網站(https://www.tips.org.tw)

紐西蘭人工智慧論壇所發佈人工智慧原則

  紐西蘭人工智慧論壇(AI Forum)協會成立於2017年,為非營利組織,是紐西蘭政府的重要智庫單位。該協會的AI法律、社會和倫理工作組於2020年3月4日發表了紐西蘭第一份《紐西蘭可信賴的AI指導原則》, 此指導原則目的在提供簡潔有力的人工智慧參考點,以幫助大眾建立對紐西蘭人工智慧的開發和使用的信任。此份AI指導原則對政府具有重要的參考價值。   《紐西蘭可信賴的AI指導原則》,內容摘要如下: 一、公平和正義 (一)適用紐西蘭及其他相關管轄地包含科克群島、紐埃、托克勞、南極羅斯屬地法律; (二)須保護紐西蘭國內法及國際法所規範的人權; (三)須保障《懷唐伊條約》中毛利人的權利; (四)民主價值觀包含選舉的過程和在知情的情況下進行公眾辯論; (五)平等和公正的原則,要求人工智慧系統不會對個人或特定群體造成不公正地損害、排斥、削弱權力或歧視。 二、可靠性、安全性和私密性 AI利益相關者須確保人工智慧系統及資料的可靠、準確及安全性,並在人工智慧系統的整個生命週期中,保護個人隱私以及持續的識別和管控潛在風險。 三、透明度 人工智慧系統的運作應是透明的、可追溯的、並在一定的程度上具可解釋性,在面對責問時能夠被解釋且經得起質疑。 四、人類的監督和責任 AI利益相關者,應該對人工智慧系統及其產出進行適當的監督。 在利益相關者確定適當的問責制度和責任之前,不應使用會對個人或群體造成傷害的技術。 五、福利 AI利益相關者應在適當的情況下設計、開發和使用人工智慧系統,盡可能促進紐西蘭人民和環境的福祉,像是健康、教育、就業、可持續性、多樣性、包容性以及對《懷唐伊條約》獨特價值的認可。   此份AI指引較大的特色有兩點,第一,紐西蘭人工智慧論壇協會的成員組成,其中女性成員比例超過半數。第二,在其指導原則中第一點的「公平和正義」及第五點「福利」中,都特別提到須遵守《懷唐伊條約》以確保毛利人的權益。在這樣的基礎下,能更期待紐西蘭在發展AI技術的過程,能夠更切實的做到公平正義、無歧視。

歐盟提出人工智慧法律調和規則草案

  歐盟執委會(European Commission)於2021年4月21日提出「人工智慧法律調和規則草案」(Proposal for a Regulation Laying Down Harmonised Rules on Artificial Intelligence (Artificial Intelligence Act) and Amending Certain Union Legislative Acts)(簡稱AI規則草案),旨在平衡「AI運用所帶來的優勢」與「AI對個人或社會所帶來的潛在負面衝擊」,促使會員國在發展及運用AI時,能採取協調一致的態度及方法,共同維護歐洲公民基本權利與歐盟價值。   歐盟自2019年起即倡議發展「值得信賴的AI」(Trustworthy AI)。AI規則草案之提出,除了落實執委會2019年至2024年之政策願景外,亦呼應2020年歐洲議會(European Parliament)之建議—針對AI應用之機會與利益採取立法行動,並確保合乎倫理原則。惟鑒於歐盟在環境、健康、公共事務、金融、交通、農業等領域對AI應用之高度需求,以及企業仰賴AI技術提升競爭優勢等因素,執委會係以「風險為基礎」之概念取向(risk-based approach)制定AI規則草案,避免對新技術發展造成不必要的限制或阻礙。   本規則草案將AI系統,依其「對歐盟基本權利或價值所創造的風險程度」,分為下列三種類型,並施以不同程度的監理方式: 一、不可接受之風險:原則上禁止使用此類型AI系統或使其進入歐盟市場。例如:利用潛意識技術操控個人、在公共場合利用「即時遠端生物辨識系統」進行執法、公務機關普遍對個人進行社會評分等。 二、高風險:於附錄中列出所謂高風險AI系統,要求高風險AI系統之提供者遵循風險管理、資料治理、文件紀錄保存、透明性與資訊揭露、人為監督、健全性、準確性與資安等要求;且AI系統進入歐盟市場前,需進行符合性評估(conformity assessment),進入市場後,則需持續監控。 三、非不可接受之風險亦非高風險:鼓勵AI系統提供者或使用者,自願建立行為準則(codes of conduct)。   AI規則草案亦鼓勵會員國建立AI監理沙盒(regulatory sandbox)機制,且以中小企業、新創公司為優先對象,使創新AI系統進入市場之前,能於可控環境中依明確計畫進行開發、測試與驗證。

TOP