德、法、盧森堡三國推動跨國境數位測試場域(Digitalen Testfeld))「自動化與聯網駕駛」計畫測試應用

  德國,法國和盧森堡共同推動「數位測試場」:自動化與聯網駕駛之跨國境測試。三國交通部門部長在2017年9月15日法蘭克福國際車展中決定擴大測試場域的範圍。令自動駕駛的測試場域,現在擴及到三國,並進行跨國界的測試。

  三方「數位測試場域」推動的目的在於將科技從實驗室帶到跨國境的實地測試。「行動4.0是邁向歐洲單一市場的一個重要里程碑」,德國交通部長希望「自動駕駛領域是由歐洲來主導的市場」。並由德、法與盧森堡共同簽署三邊「數位測試場域」協議。

  二月初同意的「數位測試場域」,是德法在2016年9月開始執行的「法德電動與數位方案」計畫跨國界測試自動駕駛的一部分。以共同合作,兩國希望推動電動車和自動駕駛領域的創新。如今又加入第三個國家:盧森堡。

  目前,測試場域的選擇,從德國薩蘭邦梅爾茲,經過薩爾路易和薩爾布呂肯,最後到法國梅斯。此次,將盧森堡的貝唐堡設置的測試車道納入成為一個跨越三個國家的車道測試圈。

  計畫所進行測試著重以下應用:車間通信(車對車)和與透過LTE/5g等行動通訊信號與基礎設施通訊;自動化和聯網駕駛下的超車、切車、煞車;普及化的智慧交通引導系統與預警服務。

  數位測試領域讓工業,研究和政策獲得在實際交通狀況的經驗。研究資金提供對象,聯邦政府將提供約1億歐元給測試領域的研究項目。研究測試補助重點在以下領域:駕駛人和車輛之間的相互作用;交通管理和規劃;聯網與資料管理;社會層面。

本文為「經濟部產業技術司科技專案成果」

相關連結
你可能會想參加
※ 德、法、盧森堡三國推動跨國境數位測試場域(Digitalen Testfeld))「自動化與聯網駕駛」計畫測試應用, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=7887&no=0&tp=1 (最後瀏覽日:2024/11/22)
引註此篇文章
你可能還會想看
淺論中國大陸專利間接侵權規範之爭議

打開學校網路教學的潘朵拉盒子-談教師所開發數位教材的著作權歸屬

美國新法案要求無線營運商需揭露4G服務之最低保障頻寬

  美國眾議員Anna Eschoo提出了新的「下世代無線揭露法案(Next Generation Wireless Disclosure Act)」,要求行動網路營運商必須在提供4G服務時,向既有及潛在客戶揭露最低保障資料傳輸速度,以及網路運作的平均表現統計資訊。   根據該眾議員提出之法案內容,該法案旨在確保消費者在有關4G網路服務傳輸速度以及營運商所承諾之最低保障傳輸速度等事項上,擁有有完整和準確的資訊。該法案還可以幫助消費者了解業者網路運作的可靠性、服務覆蓋區域和價格資訊。   Eshoo眾議員表示:「當消費者申請了一個4G傳輸服務方案時,消費者有權知道他們所支付的金錢與所得到的實質服務內容。當無線服務產業投資數十億美元,用以改善服務覆蓋範圍、增進網路可靠性以及提供更高的傳輸速度,而同時消費者對於4G服務的需求也如期望的出現大幅成長。在這樣的情況下,消費者需要知道他們由營運商實際得到的服務速度。」   該法案期望建立準則,使消費者正確理解4G服務資訊(例如該速度是指平均速度或尖峰速度、在什麼情況下速度可能下降等),確保消費者在申請服務之潛能獲得足夠的資訊。 舉例而言,該法案要求營運商說明服務之內容包含: - 保證最低資料傳輸速度; - 網路的可靠性; - 提供服務以及訊號之覆蓋範圍; - 定價; - 業者用於提供4G服務之技術(WiMax or LTE)

歐盟提出人工智慧法律調和規則草案

  歐盟執委會(European Commission)於2021年4月21日提出「人工智慧法律調和規則草案」(Proposal for a Regulation Laying Down Harmonised Rules on Artificial Intelligence (Artificial Intelligence Act) and Amending Certain Union Legislative Acts)(簡稱AI規則草案),旨在平衡「AI運用所帶來的優勢」與「AI對個人或社會所帶來的潛在負面衝擊」,促使會員國在發展及運用AI時,能採取協調一致的態度及方法,共同維護歐洲公民基本權利與歐盟價值。   歐盟自2019年起即倡議發展「值得信賴的AI」(Trustworthy AI)。AI規則草案之提出,除了落實執委會2019年至2024年之政策願景外,亦呼應2020年歐洲議會(European Parliament)之建議—針對AI應用之機會與利益採取立法行動,並確保合乎倫理原則。惟鑒於歐盟在環境、健康、公共事務、金融、交通、農業等領域對AI應用之高度需求,以及企業仰賴AI技術提升競爭優勢等因素,執委會係以「風險為基礎」之概念取向(risk-based approach)制定AI規則草案,避免對新技術發展造成不必要的限制或阻礙。   本規則草案將AI系統,依其「對歐盟基本權利或價值所創造的風險程度」,分為下列三種類型,並施以不同程度的監理方式: 一、不可接受之風險:原則上禁止使用此類型AI系統或使其進入歐盟市場。例如:利用潛意識技術操控個人、在公共場合利用「即時遠端生物辨識系統」進行執法、公務機關普遍對個人進行社會評分等。 二、高風險:於附錄中列出所謂高風險AI系統,要求高風險AI系統之提供者遵循風險管理、資料治理、文件紀錄保存、透明性與資訊揭露、人為監督、健全性、準確性與資安等要求;且AI系統進入歐盟市場前,需進行符合性評估(conformity assessment),進入市場後,則需持續監控。 三、非不可接受之風險亦非高風險:鼓勵AI系統提供者或使用者,自願建立行為準則(codes of conduct)。   AI規則草案亦鼓勵會員國建立AI監理沙盒(regulatory sandbox)機制,且以中小企業、新創公司為優先對象,使創新AI系統進入市場之前,能於可控環境中依明確計畫進行開發、測試與驗證。

TOP