美國高速公路運輸安全局(NHTSA)發佈針對車輛對車輛間溝通的研究報告

  國家高速公路運輸安全局(NHTSA)發佈即將針對車輛與車輛間通訊訂立規則的訊息,以管理車對車之間(V2V)通訊技術,V2V技術最主要著眼在於避免碰撞,根據調查百分之94的車禍事故都有人為因素牽涉其中,V2V技術可以讓車輛有效的認知碰撞的情況與潛在威脅。V2V技術仰賴的是鄰近車輛之間的通訊溝通並交換訊息,以警告駕駛潛在的導致碰撞安全威脅,例如:V2V可以警告駕駛前車正在煞停,所以候車必須隨之減速以免碰撞,或是警告駕駛在經過十字路口的時候處於不安全的情況,因為有一輛看不見的車輛正以高速朝路口靠近。V2V通訊技術使用精密的短距離通訊技術以交換車與車子之間的基本訊息,諸如:位置、速度、方向已決定是否要警告駕駛以避免碰撞。本項規則制訂的提案可謂是數十年來NHTSA與各部門間合作努力的成果,包含汽車產業界、各州運輸交通部門、學術機構以建立共識的標準。NHTSA的提案當中規制運用在所有輕型車輛V2V技術使用無線電傳輸協定與光譜頻寬總稱為精密短距通訊技術(DSRC)。這項立法規制要求所有的車輛都應該要透過標準化技術講共同的語言,並且要求所有車輛均要納入安全與隱私保護的措施。本次即將管制的車輛包括一般轎車、多功能車(MPV)、卡車、公車,車輛在4536公斤以下的車輛未來必須配備V2V的通訊系統。

●交換資訊部分

僅交換基本安全訊息,其中包含車輛的動態訊息諸如行進方向、速度、位置。這些基本的安全訊息每秒交換高達10次,裝有V2V裝置的車輛將保留這些訊息,去評判是否有碰撞的威脅。如果系統覺得有必要,將立即發出訊息警告駕駛採取必要措施避免立即碰撞。

●V2V未來可能應用

■十字路口動態輔助:車輛進入十字路口前,如果會發生碰撞會加以警示。

■左轉輔助:駕駛一旦左轉會撞上來車的時候,特別在於駕駛視線被擋住的情況下,會加以警示。

■警急電子煞車燈:同方向行進車輛,前車忽然減速的情況下,V2V技術可以允許使經過透視前車的情況下,知道駕駛目前正在減速,所以可以針對視線外的急煞車預先因應。

■前端碰撞警示:前端碰撞警示將警告駕駛即將到來的撞擊,避免撞擊前車。

■盲點警示與變換車道警示:車輛變換車道的時候系統將警告位於盲點區域的車輛即將靠近,避免在變換車道的時候發生碰撞。

■超車警示:警告駕駛超車並不安全,因為對向車道正有車輛往此方向前進。

●面對網路攻擊

■設計訊息認證方案,確保交換訊息時的安全性。

■每一項交換的訊息均會經過偵測避免惡意攻擊。

■惡意攻擊的回報機制:諸如身份錯誤配置的訊息、惡意車輛阻擋V2V訊息。

●隱私保護

在設計最初期即導入V2V僅允許分享蒐集通用的安全資訊,對於個人或其他車輛的資訊不能加以蒐集與傳輸。

  目前NHTSA將針對本項提案蒐集公眾意見(預計將進行九十天),並審核公眾所提交意見是否可行,在發佈最終的規則。

相關連結
※ 美國高速公路運輸安全局(NHTSA)發佈針對車輛對車輛間溝通的研究報告, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=7686&no=67&tp=1 (最後瀏覽日:2026/04/13)
引註此篇文章
你可能還會想看
菲律賓最高法院延長網路犯罪法適用限制之時間

  菲律賓最高法院於2013年2月5日延長了之前(2012年10月9日)對於網路犯罪防制法(Cybercrime Prevention Act of 2012),所做出的120日暫時限制適用令(Temporary Restraining Order),表示此一法令暫時尚無法正式施行。對此,菲國參議員多表示贊成,而對於該法主要的批評包括過度侵害言論自由、違反程序正義、比例原則以及一事不兩罰原則,並可能導致「寒蟬效應」,先前聲請停止該法施行的相關人士則認為該法過於模糊且規範範圍過廣。   該法之具體適用爭議如:(1)ISP業者僅因刊登誹謗性言論,即可能遭致處罰。(2)該法12條授權主管機關可即時蒐集利用電腦系統之特定通訊資料。(3)網路使用者可能被認定為網路犯罪之幫助或教唆者而被處罰。(4)政府可能依據此法蒐集網路使用者之各種資料。   不過,菲國檢察總長Francis Jardeleza 對此則表示,此法雖有缺陷,但亦尚未至完全可廢止之程度。另外,尚有菲律賓全國記者聯盟(National Union of Journalists of the Philippines, NUJP)與菲律賓網路自由聯盟(Philippine Internet Freedom Alliance, PIFA)對此限制適用令表示支持,並認為對於法令與自由衝突爭議正方興未艾。

歐盟議會發布《可信賴人工智慧倫理準則》

  2019年4月9日,歐盟議會發布《可信賴人工智慧倫理準則》(Ethics Guidelines for Trustworthy AI)。此次內容大致延續歐盟人工智慧高階專家小組(High-level Expert Group on Artificial Intelligence)於2018年12月18日發布的《可信賴人工智慧倫理準則草案》(Draft Ethics Guidelines for Trustworthy Artificial Intelligence)之內容,要求人工智慧須遵守行善(do good)、不作惡(do no harm)、保護人類(preserve human Agency)、公平(be fair)與公開透明(operate transparency)等倫理原則;並在4月9日發布的正式內容中更加具體描述可信賴的人工智慧的具體要件,共計七面向概述如下: 人類自主性和監控(Human agency and oversight):AI係為強化人類能力而存在,使人類使用者能夠做出更明智的決策並培養自身的基礎能力。同時,AI應有相關監控機制以確保AI系統不會侵害人類自主性或是引發其他負面效果。本準則建議,監控機制應可透過人機混合(一種整合人工智慧與人類協作的系統,例如human-in-the-loop, human-on-the-loop, and human-in-command)的操作方法來實現。 技術穩健性和安全性(Technical Robustness and safety):為防止損害擴張與確保損害最小化,AI系統除需具備準確性、可靠性和可重複性等技術特質,同時也需在出現問題前訂定完善的備援計劃。 隱私和資料治理(Privacy and data governance):除了確保充分尊重隱私和資料保護之外,還必須確保適當的資料治理機制,同時考慮到資料的品質和完整性,並確保合法近用資料為可行。 透明度(Transparency):資料、系統和AI的商業模型應該是透明的。可追溯性機制(Traceability mechanisms)有助於實現這一目標。此外,應以利害關係人能夠理解的方式解釋AI系統的邏輯及運作模式。人類參與者和使用者需要意識到他們正在與AI系統進行互動,並且必須了解AI系統的功能和限制。 保持多樣性、不歧視和公平(Diversity, non-discrimination and fairness):AI不公平的偏見可能會加劇對弱勢群體的偏見和歧視,導致邊緣化現象更為嚴重。為避免此種情況,AI系統應該設計為所有人皆可以近用,達成使用者多樣性的目標。 社會和環境福祉(Societal and environmental well-being):AI應該使包含我們的後代在內的所有人類受益。因此AI必須兼顧永續發展、環境友善,並能提供正向的社會影響。  問責制(Accountability):應建立機制以妥當處理AI所導致的結果的責任歸屬,演算法的可審計性(Auditability)為關鍵。此外,應確保補救措施為無障礙設計。

從美日共同侵權責任認定之實務發展談創新服務方法發明之專利布局策略

英國政府將設立網路兒童保護中心

英國內閣辦公室指出,英國政府將設立網路兒童保護中心以協助警方與孩童保護機構,該中心主要偵查目標為利用網際網路散佈違法之兒童影像或「打扮」兒童的戀童癖人士。其宗旨在減少利用網路協助虐童的行為,而對孩童、家庭與社會產生傷害的情況。   該中心未來將隸屬於 2006 年 4 月 1 日成立之「嚴重組織犯罪局」( Serious Organized Agency = SOCA )管轄,並於該局成立之同時開始運作,由專責的警察人員協同孩童保護,並由網路工業專家負責業務之執行。

TOP