日本創設搭載遠距型系統自駕車基準緩和認定制度

  日本國土交通省於2017年2月修正《道路運輸車輛安全基準》第55條第1項、第56條第1項及第57條第1項規定之告示,放寬車輛安全基準規定,期望自動駕駛實驗能順利展開。惟在各種自動駕駛實驗中,遠距型自動駕駛系統是透過電信通訊技術,從遠距離外操作車輛行駛,儘管修法後已放寬安全基準規定,但其仍與現行以車內有駕駛為前提而訂定之《道路運輸車輛安全基準》相距甚遠,想一律判斷其符合安全基準有所困難。據此,為使遠距型自駕系統道路實驗能夠順利進行,國土交通省於2018年3月30日創設「搭載遠距型系統自駕車基準緩和認定制度」,明確規定遠距型自駕系統實施道路實驗所需各項手續。

  「搭載遠距型系統自駕車基準緩和認定制度」規定項目包括︰申請放寬基準之對象、申請者、申請書及繳交文件、審查項目、條件及限制、基準放寬之認定、車體標示、行政處分等。

本文為「經濟部產業技術司科技專案成果」

※ 日本創設搭載遠距型系統自駕車基準緩和認定制度, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8048&no=67&tp=1 (最後瀏覽日:2026/05/05)
引註此篇文章
你可能還會想看
歐洲藥物管理局「臨床試驗資料公開與近用政策」(草案)之定案日期將延後

  歐洲藥物管理局(European Medicine Agency,EMA)於今年六月下旬起至九月底止,開放接受公眾針對該局所擬「臨床試驗資料公開與近用政策」草案(draft policy on publication and access to clinical-trial data)提出回饋意見。所有公眾建言都將由EMA加以檢視,並將成為上述政策草案正式定案前之參考。原本EMA預計在2013年年底即對上述政策草案拍版定案,然而,由於歐洲藥物管理局收到超過一千則來自四面八方、不同立場之公眾回饋意見,為求妥適、深入檢視、分析這些意見,EMA原訂之定案時程將被迫遞延。新的定案時間表最慢將於十二月中上旬公布。   根據上述「臨床試驗資料公開與近用政策」草案之現行版本(亦即提供公眾評論並回饋意見之版本),原則上,EMA所持有之臨床試驗資料,將依其類型之差異而適用不同的公開或近用標準。依照EMA之分類,試驗資料將被區分為(1)「公開後不會導致個資保護疑慮之試驗資料」、(2)「如經公開,可能產生個資保護疑慮之試驗資料」、(3)「內含商業機密資訊之試驗資料」等三大類。上述第三類之「內含商業機密資訊之試驗資料」不會受到此一政策草案之影響,第二類資料將有限制的公開與提供近用,至於第一類資料,則將公開於EMA網站上供公眾下載。

德國卡爾斯魯爾行政法院(VG Karlsruhe)公布第一個有關DSGVO的判決

  卡爾斯魯爾行政法院在今年6月7日公布第一個關於歐盟個人資料保護規則(Datenschutzgrundverordnung,DSGVO)的判決。在本案中,原告是一間負責處個人信用資料的民間公司,其依據現行BDSG(Bundesdatenschutzgesetz,聯邦個人資料保護法)的規定來蒐集、保存與傳輸個人資料給第三人。巴登符騰堡邦的主管機關在預見原告將來會違反DSGVO規定的情況下,向原告發出一份行政處分(Verfügung),要求原告必須依照DSGVO的相關規定調整作業流程以符合DSGVO的規範。但原告認為,其只需要在2018年5月24號之後,就相關作業流程符合DSGVO的規範即可。   本案的關鍵在於,主管機關是否已經可以用DSGVO的規定來規範民間企業?因為依據DSGVO第99條的規定,DSGVO現雖已生效,但必須到2018年5月25日才開始適用。   根據BDSG第38條第5項規定,監督機構可以採取必要措施,確保民間企業在收集、傳播和使用個人資料時遵守相關保護規定;且本案中,原告在2018年5月24號後可能會出現的違法情形也已顯而易見,但法院並不同意行政機關可以預先發布行政處分的看法。因為DSGVO雖已生效,但民間企業必須適用的期限仍未屆至。行政機關不得在未有法律授權的情況下,預先規範限制未來的可能違法行為。現行法律對於行政機關的授權範圍必須被嚴格遵守,在DSGVO未開始適用的情況下,目前行政機關仍只能依據BDSG及DSAnpUG(Datenschutzanpassungs- und Umsetzungsgesetz,個人資料保護調整和施行法)的規定,來處理相關的行政措施。

Grindr交友軟體要求使用者持護照及個人資料自拍,遭到歐洲數位權利中心抗議

  歐洲數位權利中心(The European Center for Digital Rights,下稱noyb)為提倡網路隱私權、消費者隱私的非營利組織,其於2021年11月12日向奧地利資料保護局(Austrian Data Protection Authority, DSB)投訴Grindr公司,抗議該公司的Grindr應用程式違反歐盟的一般資料保護規範(即General Data Protection Regulation,下稱GDPR)。   Grindr是款交友約會軟體,主要的使用者為男同性戀、雙性戀以及跨性別者。使用者註冊帳號時,僅需提供電子郵件信箱帳號及密碼和一些個人基本資料即可。然而,若使用者想了解Grindr公司如何使用其個人資訊時,Grindr公司要求使用者需手持記載其電子郵件的字條,或拿著護照自拍,經該公司確認使用者身分後,才會配合使用者的請求。noyb直言,Grindr公司的認證政策不僅荒謬,更違反了GDPR。    noyb代表一個名為「Hunk_69」的帳號使用者提出投訴,這個帳號因為身分認證失敗而遭到Grindr公司拒絕透露該公司如何使用其個人資料。noyb指出Grindr公司對於使用者提供個人資料的政策前後不一,儘管使用者在使用Grindr交友時可以保持匿名狀態,但在向Grindr公司請求提供個人資料用途時,卻需要提供真實身分。noyb主張Grindr公司已經違反歐盟GDPR第5條(1)©「資料最少化原則」。多數公司多半以「安全理由」要求客戶提供個人資料供其認證,但這樣的要求是不當的,根據奧地利聯邦行政法院、愛爾蘭資料保護委員會(the Irish Data Protection Commissioner, DPC),以及丹麥資料保護局(Danish Data Protection Agency, Datatilsynet)近期裁決見解,認證客戶身分必須個案評估使用者的身分是否有疑慮,而非一概的要求使用者進一步提出個人資料以供公司認證。因此,使用者在Grindr註冊帳號時,既然毋庸提供真實姓名,則Grindr公司於認證使用者身分要求提出真實姓名,實際上是無任何幫助,反而違反了GDPR第5條「資料最少化原則」及第12條(6)規定。   noyb創辦人Max Schrems表示,Grindr的設計就是讓使用者保持匿名狀態,因此使用者僅須使用電子郵件信箱和密碼,就可以在Grindr上與人互動,甚至分享最私密的照片,但想要實行GDPR相關權利時,卻須自行揭露身分並提供身分證明。   Grindr公司則認為,如果使用者想要實踐GDPR賦予使用者的權利,不願與Grindr分享任何個人資訊,可以刪除Grindr帳號。

人權組織向法國最高行政法院提交申訴,要求政府停止使用歧視性演算法

.Pindent{text-indent: 2em;} .Noindent{margin-left: 2em;} .NoPindent{text-indent: 2em; margin-left: 2em;} .No2indent{margin-left: 3em;} .No2Pindent{text-indent: 2em; margin-left: 3em} .No3indent{margin-left: 4em;} .No3Pindent{text-indent: 2em; margin-left: 4em} 國際特赦組織(Amnesty International)與法國數位隱私權倡議團體La Quadrature du Net(LQDN)等組織於2024年10月15日向法國最高行政法院提交申訴,要求停止法國國家家庭津貼基金機構(Caisse nationale des allocations familiales,CNAF)所使用的歧視性風險評分演算法系統。 CNAF自2010年起即慣於使用此系統識別可能進行福利金詐欺的對象,該系統演算法對獲取家庭與住房補助的對象進行0至1之間的風險評分,分數越接近1即越可能被列入清單並受調查,政府當局並宣稱此系統將有助於提升辨識詐欺與錯誤的效率。 LQDN取得該系統的原始碼,並揭露其帶有歧視性質。該等組織說明,CNAF所使用的評分演算法自始即對社會邊緣群體如身心障礙者、單親家長,與低收入、失業、居住於弱勢地區等貧困者表現出懷疑態度,且可能蒐集與系統原先目的不相稱的資訊量,這樣的方向直接違背了人權標準,侵犯平等、非歧視與隱私等權利。 依據歐盟《人工智慧法》(Artificial Intelligence Act,下稱AIA),有兩部分規定: 1. 用於公機關評估自然人是否有資格獲得基本社會福利或服務,以及是否授予、減少、撤銷或收回此類服務的人工智慧系統;以及用於評估自然人信用或建立信用評分的人工智慧系統,應被視為高風險系統。 2. 由公機關或私人對自然人進行社會評分之人工智慧系統可能導致歧視性結果並排除特定群體,從此類人工智慧總結的社會分數可能導致自然人或其群體遭受不當連結或程度不相稱的不利待遇。因此應禁止涉及此類不可接受的評分方式,並可能導致不當結果的人工智慧系統。 然而,AIA並未針對「社會評分系統」明確定義其內涵、組成,因此人權組織同時呼籲,歐盟立法者應針對相關禁令提供具體解釋,惟無論CNAF所使用的系統為何種類型,因其所具有的歧視性,公機關皆應立即停止使用並審視其具有偏見的實務做法。

TOP