加州公共事業委員會公布兩項新的自駕車布建計畫

  加州公共事業委員會(California Public Utilities Commission, CPUC)於2020年11月19日宣布兩項新的自駕車布建計畫,包括有配置駕駛人之自駕車布建計畫(the Drivered Autonomous Vehicle Deployment Program)以及無配置駕駛人之自駕車布建計畫(the Driverless Autonomous Vehicle Deployment Program),並同意服務商於確保安全的前提下,進行自駕載客服務測試並進行收費。

  本次新的布建計畫之實施,希望達成以下四項目標:

  1. 保護旅客之安全(protect passenger safety)。
  2. 擴大自駕技術之的優點至加州所有社區(expand the benefits of autonomous vehicle technologies to all of California’s communities)。
  3. 改善所有人(特別是針對弱勢及低收入社區)之交通方式(improve transportation options for all, particularly for disadvantaged communities and low-income communities)。
  4. 減少(特別是針對弱勢及低收入社區)溫室氣體空氣污染物之排放(reduce greenhouse gas emissions and air pollutants, particularly in disadvantaged communities)。

  依該計畫規定,申請人必須具備載客等級P的許可(Charter-Party Carrier Class P permit)或A等級之載客認證(Class A charter party certificate)並取得加州汽車管理局(California Department of Motor Vehicles, DMV)自駕布建之許可。此外,申請人亦須提交提出針對COVID-19之防疫宣導措施以及《乘客安全計畫》(Passenger Safety Plan),該計畫應包含降低自駕載客實驗過程中所有乘客(包括身心障礙及輪椅人士)風險之規劃。

  參與計畫之申請人亦需向加州公共事業委員會繳交以下資料:

  1. 按季繳交以匿名之方式記錄個別乘客之上下車地點資料。
  2. 自駕車上無障礙空間之設置面積。
  3. 對於弱勢社區的服務水平(service levels)。
  4. 車輛之燃料類型。
  5. 車輛行駛與乘客搭乘之里程。
  6. 申請人願意加強服務無障礙和弱勢社區之保證。

本文為「經濟部產業技術司科技專案成果」

相關連結
相關附件
※ 加州公共事業委員會公布兩項新的自駕車布建計畫, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8592&no=0&tp=1 (最後瀏覽日:2026/02/10)
引註此篇文章
你可能還會想看
英HFEA同意該國婦女利用PGD技術「訂製嬰兒」

  現今生殖醫學進步相當快速,透過諸如胚胎殖入前之基因診斷( PGD )、組織配對( tissue match )等新興生物技術,人們將有能力選擇未來孩子的外表、智力、健康甚至性別等,故就現今的科技發展而言,篩選具有某種特徵之嬰兒的技術能力早已具備,反而是相關的倫理、道德及社會共識等等卻是最難的部分,這也是有關「訂製嬰兒」( design babies )之爭議焦點。   近幾年,訂製嬰兒的討論在英國非常熱烈,在英國,人工生殖之進行應依人工生殖與胚胎學法規定,獲得 「人類生殖與胚胎管理局」 ( Human Fertilization and Embryology Authority, HFEA )之許可,至於進行人工生殖之同時,父母親是否得附加進一步的條件以「訂製嬰兒」,則一直有爭議。英國高等法院在 2002 年 12 月 20 日的一項判決中曾認為,國會制訂人工生殖與胚胎學法之目的,乃是在協助不孕婦女能夠生兒育女,至於組織配對的行為,則不在該法授權目的之內,因此 HFEA 無權就此等行為給予准駁。惟 2003 年 4 月 8 日 ,上訴法院推翻了高等法院的判決結果,但也進一步指出,這並不代表未來所有在進行 PGD 的同時加做組織配對之行為都是被允許的,想要施行這項技術之任何人,仍然需於事前取得 HFEA 的許可,新近 HFEA 已放寬管制規範,准許對更多種遺傳性疾病進行篩檢。   英國泰晤士報最近報導,一名英國女子已獲得英國 HFEA 同意 ,讓醫師將其透過體外受精方式培養出來的胚胎,利用基因篩檢技術,選擇出健康之胚胎植入其子宮內,以避免將她所罹患的遺傳性眼癌「視網膜母細胞瘤」基因傳給下一代。   本案婦女雖經 HFEA 同意「訂製嬰兒」,但仍會使「胚胎殖入前之基因診斷」( PGD )程序的爭議加劇,反對人士堅稱,基因篩檢的過程中勢必摧毀部分胚胎,且 為了某些目的而製造胚胎,將使人類被商品化,被訂製之嬰兒在長大成人後,若得知其出生之目的乃是在於治療其它親人,其心裡會對自己產生懷疑,並影響對自己人格的認同與其心理狀態。隨著生物技術發展飛快,許多可能背離社會良俗的行為恐將不斷出現,而法規能否隨之跟上則是生技產業能否興盛與倫理道德可否兼顧之重要關鍵。

美國聯邦貿易委員會插手企業資訊安全引起爭議

  美國聯邦貿易委員會(Federal Trade Commission, FTC)於2013年8月29日對位於亞特蘭大的一家小型醫療測試實驗室LabMD提出行政控訴,指控LabMD怠於以合理的保護措施保障消費者的資訊(包括醫療資訊)安全。FTC因此依據聯邦貿易委員會法(Federal Trade Commission Act, FTC Act)第5條展開調查,並要求LabMD需強化其資安防護機制(In the Matter of LabMD, Inc., a corporation, Docket No. 9357)。   根據FTC網站揭示的資訊,LabMD因為使用了點對點(Peer to Peer)資料分享軟體,讓客戶的資料暴露於資訊安全風險中;有將近10,000名客戶的醫療及其他敏感性資料因此被外洩,至少500名消費者被身份盜用。   不過,LabMD反指控FTC,認為國會並沒有授權FTC處理個人資料保護或一般企業資訊安全標準之議題,FTC的調查屬濫權,無理由擴張了聯邦貿易委員會法第5條的授權。   本案的癥結聚焦於,FTC利用了對聯邦貿易委員會法第5條「不公平或欺騙之商業行為(unfair or deceptive acts)」的文字解釋,涉嫌將其組織定位從反托拉斯法「執法者」的角色轉換到(正當商業行為)「法規與標準制訂者」的角色,逸脫了法律與判例的約束。由於FTC過去曾對許多大型科技公司(如google)提出類似的控訴,許多公司都在關注本案後續的發展。

歐盟智慧財產局出版《防偽技術指南》,協助企業及早防免智財侵權風險

  歐盟智慧財產局(European Union Intellectual Property Office)之智庫「歐盟智財侵權觀察平台」(the European Observatory)於今(2021)年2月出版《防偽技術指南》(Anti-Counterfeiting Technology Guide,下稱本指南),本指南全面介紹目前市面上防偽技術的內容,技術區分成電子型、標記型、化學型、物理型、機械及數位媒體型等五大防偽技術類別,供所有有興趣了解或欲執行防偽技術的各規模、各領域企業們參考。   仿冒為全球性問題,幾乎威脅到了各領域行業的營運與生存,而全球仿冒品數量在互聯網時代之下,以每年增長15%的驚人速度上升中,已嚴重侵害了企業的品牌商譽與智慧財產權。企業雖懂得以註冊智財權的方式自我保護,但仿冒問題對企業帶來的攻擊性日益增加、防偽技術又多如牛毛且複雜,本指南彙整之資訊,尚補充了關於ISO標準的相關技術資訊,如《 ISO 22383:2020 》(產品與文件之安全性、彈性、真實性與完整性-重要產品認證方案之選擇與性能評估標準)。這些資訊可以跟防偽技術一併使用,精進企業整體防偽策略。   此外,本指南對於彙整出的每項防偽技術或ISO的相關技術標準,都予以清楚介紹,並說明技術主要特性、優缺點、用途、實施條件以及相關成本,企業可透過本指南比較各式防偽技術,從而選定最適合其業務性質的防偽技術,及早防範仿冒風險,以保護企業之業務營運與品牌發展。

歐盟發布新人工智慧規範,以風險程度判斷防止科技濫用

  歐盟執委會於2021年4月21日提出「人工智慧規則」(AI regulation)草案,成為第一個結合人工智慧法律架構及「歐盟人工智慧協調計畫」(Coordinated Plan on AI)的法律規範。規範主要係延續其2020年提出的「人工智慧白皮書」(White Paper on Artificial Intelligence)及「歐盟資料策略」(European Data Strategy),達到為避免人工智慧科技對人民基本權產生侵害,而提出此保護規範。   「人工智慧規則」也依原白皮書中所設的風險程度判斷法(risk-based approach)為標準,將科技運用依風險程度區分為:不可被接受風險(Unacceptable risk)、高風險(High-risk)、有限風險(Limited risk)及最小風險(Minimal risk)。   「不可被接受的風險」中全面禁止科技運用在任何違反歐盟價值及基本人權,或對歐盟人民有造成明顯隱私風險侵害上。如政府對人民進行「社會評分」制度或鼓勵兒童為危險行為的語音系統玩具等都屬於其範疇。   在「高風險」運用上,除了作為安全設備的系統及附件中所提出型態外,另將所有的「遠端生物辨識系統」(remote biometric identification systems)列入其中。規定原則上禁止執法機構於公眾場合使用相關的生物辨識系統,例外僅在有目的必要性時,才得使用,像尋找失蹤兒童、防止恐怖攻擊等。   而在為資料蒐集行為時,除對蒐集、分析行為有告知義務外,也應告知系統資料的準確性、安全性等,要求高度透明化(Transparency obligations)。不只是前述的不可被接受風險及高風險適用外,有限風險運用中的人工智慧聊天系統也需要在實際和系統互動前有充足的告知行為,以確保資料主體對資料蒐集及利用之情事有充足的認知。   在此新人工智慧規範中仍有許多部份需要加強與討論,但仍期望在2022年能發展到生效階段,以對人工智慧科技的應用多一層保障。

TOP