聯網自動駕駛車(CAV)

  聯網自動駕駛車(Connected and Autonomous Vehicles, CAV)是一種自動化聯網載具,係自動駕駛車以及互聯汽車兩種科技的集合,而CAV僅須符合其一即可稱之。按英國交通部的定義,自動駕駛車係為「無須稱職的駕駛者管理各種道路、交通與天候條件之下,能安全完成旅程的車輛。」目前上市產品中已可見部份自動駕駛車的身影,諸如自動路邊停車系統、先進輔助駕駛系統、自動緊急煞車系統等等。

  互聯車輛科技允許車輛之間的互相溝通以及更廣泛聯網,目前已有的互聯車輛科技如動態導航系統、緊急求救系統(eCall)等,特別是歐盟欲規範未來新車都必備eCall系統,該系統可偵測事故發生並自動開啟安全氣囊、撥打求救電話並開啟全球定位系統(GPS),以利醫護人員快速救援。目前有三種正在發展中,用以支援互聯車輛的科技:V2V(車輛之間互聯)、V2I(車輛與交通設備互聯)、V2X(車輛與任何適當的科技互聯)。而發展CAV有六種益處,包括提升行車安全、減少交通阻塞、減少碳排放、更多自由時間可運用、任何人都可平等地使用CAV以及改良道路之設計。

  我國刻正實施行政院於2014年5月核定之第2階段「智慧電動車輛發展策略與行動方案」,推動智慧電動車整車及零組件性能提升,協助廠商提升製程及資訊應用功能;研析國際驗證及測試規範,完善智慧電動車產業價值鏈。

本文為「經濟部產業技術司科技專案成果」

相關連結
※ 聯網自動駕駛車(CAV), 資訊工業策進會科技法律研究所, https://stli.iii.org.tw//article-detail.aspx?d=7657&no=57&tp=5 (最後瀏覽日:2026/02/10)
引註此篇文章
你可能還會想看
2022年日本公布平台資料處理規則實務指引1.0版

  日本數位廳(デジタル庁)與內閣府智慧財產戰略推進事務局(内閣府知的財産戦略推進事務局)於2022年3月4日公布「平台資料處理規則實務指引1.0版」(プラットフォームにおけるデータ取扱いルールの実装ガイダンス ver1.0,簡稱本指引)。建構整合資料提供服務的平台,將可活用各種資料,並創造新價值(如提供個人化的進階服務、分析衡量政策效果等),為使平台充分發揮功能,本指引提出平台實施資料處理規則的六大步驟: 識別資料應用價值創造流程與確認平台角色:掌握從產生資料,到分析資料創造使用價值,再進一步提供解決方案的資料應用價值創造流程,以確認平台在此流程中扮演的角色。 識別風險:掌握利害關係人(如資料提供者與使用者等)顧慮的風險(如資料未妥適處理、遭到目的外使用等疑慮)。 決定風險應對方針:針對掌握的風險,決定規避、降低、轉嫁與包容等應對方針。 設定平台資料處理政策與對利害關係人說明之責任(アカウンタビリティ):考量資料處理政策定位,擬定內容,並向利害關係人進行說明。 設計平台使用條款:依據「PDCA循環」重複執行規則設計、運作與評估,設計平台使用條款。 持續進行環境分析與更新規則:持續分析內部與外部因素可能面臨的新風險,並更新平台資料處理規則。

美國國防部「人工智慧國防運用倫理準則」

  美國國防部(Department of Defense)於2020年2月採納由美國國防創新委員會(Defense Innovation Board, DIB)所提出之「人工智慧國防運用倫理準則(AI Principles: Recommendations on the Ethical Use of Artificial Intelligence by the Department of Defense)」,以衡平倫理與人工智慧於國防帶來之增益。   美國國防創新委員會為美國聯邦政府下之獨立委員會,設置目的在於依美國新創科技,提供意見予美國國防部,與美國國防部並無隸屬關係。有鑑於人工智慧之運用範疇日益增廣,美國國防創新委員會遂提出旨揭「人工智慧國防運用倫理準則」,以因應人工智慧於國防之應用所產生之問題。   倫理準則適用於「戰爭或非戰爭用途之人工智慧之設計以及應用」,對於「人工智慧」之定義,倫理準認為人工智慧並無精確之範疇,只要「對於資訊有所處理並旨在達到所賦予任務之資訊系統」,皆為本準則下之人工智慧。倫理準則指出,「人工智慧」與美國國防部3000.09指令下之「自動化武器系統(Autonomous Weapon System)」之定義不同,但有可能重疊,而所謂「自動化武器系統」為「一經人類選擇啟動,即可在無人類監督之情形下,自動針對目標進行鎖定或進行攻擊之自動化武器系統」。   美國國防創新委員會表示,該準則旨在切合美國既有憲法、法律、國際公約之傳統標準下,融入現代化對於人工智慧之要求,如國際公約中之戰爭法(Law of War)即為本準則之傳統標準之一,舉例而言,如人工智慧被裝置於武器中,其設計及應用應符合最小傷亡原則、避免傷及無辜原則等。   除此之外,準則亦包含以下現代化對於人工智慧之要求:(1)人類對於人工智慧系統之設計、應用以及使用應善盡判斷以及注意義務,且人類應該對於人工智慧系統因瑕疵所帶來之傷害負擔最終責任;(2)對於目標之選擇或分類,應維持公平性,且不得有歧視性;(3)對於人工智慧之設計、應用以及使用,應有明確之工程標準以及資料保存程序,此一工程標準以及資料保存程序應為一般具有專業知識之工程人員可據以理解、分析、追蹤問題所在並加以改善;(4)「戰爭或非戰爭用途之人工智慧」應有明確之應用領域,且完善之檢測、維修,應適用於該人工智慧之全部生命週期。

理財顧問主張前公司競業禁止條款違法,聲請法院中止仲裁程序

於2025年,Parallel Advisors的理財顧問Nicole Amore(下稱Nicole)向其前雇主Falcon Wealth(下稱Falcon)提起訴訟,請求法院停止Falcon提起的仲裁程序。 本案源自於2025年2月,Nicole自Falcon離職後隨即加入Parallel Advisors,而同年4月,Falcon向仲裁機構申請仲裁,主張Nicole違反合約中關於離職後禁止招攬公司現有或者潛在客戶的規定,指稱Nicole除了下載或截圖公司客戶資訊至其個人設備外,更在尚未離職時即與客戶聯繫,通知客戶其即將轉任新公司之事。 對此,Nicole則援引《加州商業與職業法》第16600條和第16600.5條規定,主張該等競業禁止及限制招攬的條款為違法。 此類因為顧問移轉任職所引發之客戶資訊移轉爭議,在顧問產業中時有所聞,惟目前法院尚未對本案作出裁定,後續發展值得持續關注。 本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。 本文同步刊登於TIPS網站(https://www.tips.org.tw)

美國法院推翻過去電子郵件監視案件之判決立場

  美國上訴法院於八月於判決中指出,電子郵件服務提供者未經使用者同意對於其傳送、接收之電子郵件加以監視,應為犯罪行為,即使服務提供者僅利用使用者經由其伺服器傳送郵件時的自動暫存過程進行監視,亦構成未經使用者同意的「攔截」 (intercept) 行為,違反監聽法 (Wiretap Act) ,而構成犯罪,推翻該國法院過去所建立「電子郵件服務提供者未經使用者同意監視使用者電子郵件通訊,不屬違反監聽法之犯罪行為」的立場。   被上訴人 Bradford C. Councilman 是從事珍貴與絕版書籍網路建擋列表服務之 Interloc Inc. 的副總裁,該公司給與其顧客含有 "interloc.com" 網域名稱之電子郵件地址作為服務的一部份,並且提供如同電子郵件服務提供者之服務行為,本案起因於 1998 年 Bradford 指示該公司雇員透過修改郵件接收程序之方式,攔截並拷貝所有服務使用者與其競爭對手亞馬遜網路書店 (Amazon.com) 間的電子郵件通訊,亦即,所有來自 Amazon.com 的信件到達伺服器時,由於程式的運作,該信件於寄至使用者信箱前會先行複製,由 Interloc 公司員工加以閱讀。   本上訴法院之判決,乃針對電子郵件的傳送是否屬於監聽法中所謂的電子通訊 (electronic communication) 以及該公司之行為是否構成「攔截」皆作成肯定之解釋,對於電子郵件使用者隱私權之保護有指標性的影響。

TOP