5G汽車協會發布《道路使用者保護白皮書》

  5G汽車協會(5G Automotive Association, 5GAA)於2020年8月24日發布「弱勢道路使用者保護白皮書」(Vulnerable Road User Protection),點出目前道路交通安全對相關道路使用者保護不足,同時揭示未來車聯網(V2X)可提供整體用路人更安全之道路交通環境。

  白皮書指出,道路安全是交通政策關鍵,應透過科技技術與政策制定,共同實現道路安全目標。而根據目前統計數據,弱勢道路使用者(Vulnerable Road User,以下簡稱VRU),包含:「行人」、「騎自行車者」、「騎電動車者」、「道路施工者」、「輪椅使用者」及「滑板或是單輪車使用者」,其占交通事故之傷亡比例最高,幾乎超過半數之死亡人數均為VRU,未來更可能因環境或與健康因素,使道路交通使用者數量不斷提升,對VRU之保護將成為未來各國交通之關鍵。

  技術層面,則是車輛感測器偵測VRU、路側設備(Roadside Unit, RSU)、行動邊緣計算技術(Mobile Edge Computing, MEC)等,並進一步應用於車聯網下之不同案例情況:(1)高度風險區域:例如車輛進入行人密度極高的地區,透過感測器發出警訊,以即時警惕人車彼此存在,降低視線死角之事故發生率。(2)VRU與車輛透過裝置溝通:如車輛與VRU之間透過手機等設備傳輸相關資料並通訊。(3)車輛透過安全演算系統與VRU及各項設施交換訊息:此項涉及車聯網通訊應用下,車與車(V2V)和車與交通基礎設施(V2I)通訊,透過C-V2X PC5通訊技術軟體,使車輛、基礎設施與VRU之隨身電子設備之間得以進行通訊,降低事故碰撞發生。

  綜上,未來應建立國際通用的車聯網之弱勢道路使用者保護標準,而非因區域而不同之標準,如目前美國汽車工程師協會之個人安全訊息標準(Personal Safety Messages, SAE PSM)及歐盟電信標準協會之弱勢道路使用者分布(Vulnerable Analysis Mapping , ETSI VAM),兩者在保護上即有所差異。VRU之保護服務是未來車聯網應用之關鍵與道路交通安全核心目標之一,相關系統與感測技術亦在不斷提升,未來更能融合感測器技術,並預測行人可能路徑,將全面提升道路安全。

本文為「經濟部產業技術司科技專案成果」

相關連結
相關附件
※ 5G汽車協會發布《道路使用者保護白皮書》, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8590&no=55&tp=5 (最後瀏覽日:2026/02/05)
引註此篇文章
你可能還會想看
韓國公布「數位平台政府實施計畫」

2023年4月韓國政府公布「數位平台政府(디지털플랫폼정부위원회,Digital Platform Government)實施計畫」,促使政府全面結合人工智慧和資料運用,打破過往部會機關個別發展數位專業的阻隔,為國民提供數位化整合的政府服務,並鼓勵企業創新。 「數位平台政府」為2022年新任總統尹錫悅推行的政府改革措施之一,同年7月頒定組織條例,成立直屬於總統之「數位平台政府委員會」,委任財政、科學、行政及個資保護4部會首長及19位專家組成。數位平台政府實施計畫預計2027年完成,計畫訂出4項數位平台政府關鍵服務任務,任務目標與對應措施如下: (1)政府為人民服務:建立政府綜合服務窗口,統整中央、地方各級單位之千餘種稅捐、福利等內容,提供如「青年政策整合」之個性化便利服務,以減少人民不便與潛在社會問題。 (2)智慧的一體式政府:擴大機構間資料的共享與利用,打破部會之間、中央和地方政府之間的資料孤島情形,目標串連1.7萬餘的政府系統,成為政府創新基礎設施,以靈活應對快速變化的外部環境。 (3)公私協力的成長平台:打造數位經濟生態系,以交通、安全、能源和城市為初步建置領域,後續擴展到醫療、環境和公共管理等,預計培養1萬家基於此生態系經營的SaaS(Software as a Service,軟體即服務)公司。 (4)可信賴的平台政府:加強人民對個人資料的控制權,將於數位政府平台中引入資料近用記錄檢查和管理功能,並採用「零信任」、「供應鏈安全」等機制提高安全性。

美國法院擬修正《聯邦證據規則》以規範人工智慧生成內容之證據能力

2025年5月2日,聯邦司法會議證據規則諮詢委員會(Judicial Conference’s Advisory Committee on Evidence Rules)以8比1投票結果通過一項提案,擬修正《聯邦證據規則》(Federal Rules of Evidence,FRE),釐清人工智慧(AI)生成內容於訴訟程序中之證據能力,以因應生成式AI技術在法律實務應用上日益普遍的趨勢。 由於現行《聯邦證據規則》僅於第702條中針對人類專家證人所提供的證據設有相關規定,對於AI生成內容的證據能力尚無明確規範,所以為了因應AI技術發展帶來的新興挑戰,《聯邦證據規則》修正草案(下稱「修正草案」)擬新增第707條「機器生成證據」(Machine-Generated Evidence),並擴張第901條「驗證或識別證據」(Authenticating or Identifying Evidence)的適用範圍。 本次增訂第707條,針對AI生成內容作為證據時,明確其可靠性評估標準,以避免出現分析錯誤、不準確、偏見或缺乏可解釋性(Explainability)等問題,進而強化法院審理時的證據審查基礎。本條規定,AI生成內容作為證據必須符合以下條件: 1. 該AI生成內容對於事實之認定具有實質助益; 2. AI系統於產出該內容時,係以充分且適當之事實或資料為輸入依據; 3. 該輸出結果能忠實反映其所依據之原理與方法,並證明此一應用於特定情境中具有可靠性。 本修正草案此次新增「AI生成內容」也必須合乎既有的證據驗證要件。原第901條a項原規定:「為符合證據之驗證或識別要求,提出證據者必須提供足以支持該證據確係其所聲稱之內容的佐證資料。」而修正草案擬於第901條b項新增「AI生成內容」一類,意即明文要求提出AI生成內容作為證據者,須提出足夠證據,以證明該內容具有真實性與可信度,方符合第901條a項驗證要件。 隨著AI於美國法院審理程序中的應用日益廣泛,如何在引入生成式AI的同時,於司法創新與證據可靠性之間取得平衡,將成為未來美國司法實務及法制發展中的重要課題,值得我國審慎觀察並參酌因應,作為制度調整與政策設計的參考。

為促進單一數位市場之發展,歐盟展開個人資料保護法規之改革

  網路和數位科技正急速翻轉我們的世界,建立「歐盟單一數位市場」(EU Digital Single Market)為歐盟執委會的首要優先政策項目之一,發展健全的單一數位市場可為歐盟增加4,150億之經濟成長,創造數以萬計的新工作機會,實現一個充滿活力的知識型社會。然服務的「上網」仍存在一定程度尚未跨越之障礙;根據調查,超過90%的歐洲人擔憂他們所使用的行動應用程式(apps)沒有經過他們的同意即蒐集其個人資料。使用者對網路服務欠缺信任,產業以及政府亦無法充分透過數位科技工具獲益,因此如何提升人民對於網路服務的信任成為歐盟官方當前重要議題。   為解決此問題,歐盟執委會已著手進行個人資料保護法規的改革,針對現行的資料保護法規提出新修法案,主要目標在加強人民於個人資料保護之相關權益,以降低使用者個人隱私遭洩漏的疑慮,此外也將對企業帶來諸多利多。新修法案針對人民權益保障的加強,包括: 1.被遺忘權(A right to be forgotten):已明文規定於現行歐盟資料保護法規,新修法案將更進一步強化個人被遺忘權的行使-尤其是青少年。對此歐盟理事會表示贊同,但亦強調被遺忘權並非絕對之權利,不應凌駕於言論自由以及新聞自由之上。 2.資料可攜帶權(A right to data portability):使用者可更輕易的移轉其個人資料於不同的網路服務提供者之間。 3.個資被駭之被告知權:若網路服務提供者發生嚴重個資洩漏事件必須盡快告知主管機關,讓使用者得採取適當措施。 4.個資保護措施優先:強調在服務或產品早期開發階段就應該優先考量個人資料保護措施的設計,取代事後補救的觀念;尤其社交網路服務或行動apps相關服務的開發,隱私默認的設定應為預設之常態。   新修法案也包含多項對相關企業有利之措施,例如: 1.一歐陸一法律:企業在歐盟經濟區域遵行單一之歐盟資料保護法規,而非28國不同法規,預估每年可節省23億歐元之遵法成本。 2.單一監管窗口:整合28國主管機關以建立單一對外監管窗口,讓欲經營歐盟市場的企業與主管機關的交涉能更簡單、有效率。 3.參與歐盟市場之企業皆遵守相同標準法規(European rules on European soil):依現行歐盟法規,設籍於歐盟境內之企業必須遵守比境外企業更嚴格的法規標準,故新修法案極力建立公平競爭環境,經營歐盟市場之企業不論是否設籍於歐盟皆等同對待。 4.簡化繁文縟節之行政規定:新修法案刪除了企業通知主管機關等不必要之繁文縟節要求,此尤其利於中小企業節省行政成本。 5.免除中小企業進行個資影響評估之責任:除非有明確顯見之風險,始課予中小企業個資影響評估之責任。   歐盟執委會、理事會與議會於2015年6月開始針對資料保護法規新修法案進行三邊協商,預計於2015年底完成最終之協議。

梵諦岡與IBM、微軟聯合呼籲對臉部辨識等侵入性技術進行監管

  2020年2月28日梵諦岡教宗與兩大科技巨頭IBM及微軟聯合簽署「羅馬呼籲AI倫理道德」文件,支持制定人工智慧(AI)發展倫理與道德規範,並特別呼籲應針對臉部辨識等侵入性技術進行監管。在聯合文件上特別提及臉部識別技術潛在之濫用風險,例如警察會使用臉部辨識系統調查犯罪行為、《財富》500強公司使用AI審查求職者,這兩個例子均具有潛在且高度之風險,使用不正確或是具有偏見之AI判斷均可能會造成傷害。誠如方濟各在致辭中說:「人工智慧記錄個人資料,並使用於商業或政治目的,而且通常是在個人不知情之情況下,這種不對稱,將使少數人了解我們的一切,但我們卻對他們一無所知,這將使批判性思維和對自由的自覺變得遲鈍,不平等現象急遽擴大,知識和財富在少數人手中累積,將對民主社會構成重大風險。」   此次會議希望在國家與國際層面上共同努力促進AI道德規範,並根據以下原則來發展和使用人工智慧。第一,良好的創新:人工智慧系統必須是可理解得,並且在包容性方面必須考慮到所有人的需求,以便每個人都能受益。第二,責任:設計和實施人工智慧者必須承擔責任和保持透明度。第三,公正性:避免根據偏見進行創造或採取行動,從而維護人類平等和尊嚴。第四,可靠性:人工智慧系統必須能夠可靠的運行。第五,安全和隱私:人工智慧系統必須安全運行並尊重用戶的隱私。   目前尚不清楚其他技術公司是否會簽署該文件,以及簽署人將如何實施,但教宗與兩大科技巨頭史無前例的合作,為人工智慧未來發展方向提供遠見卓識,能更加深入的去思考AI的道德意涵以及它將如何與人類更好的合作、互動,互利共生,相輔相成。

TOP