日本政府將於東京都及愛知縣成立「自駕車實證一站式中心」

  日本政府於2017年9月4日所召開之國家戰略特區區域會議(下稱戰略區域會議),決定由政府、東京都及愛知縣,共同成立「自駕車實證一站式中心」,協助企業及大學之自駕車相關實證研究。在自動駕駛實驗開始前,中心接受道路交通法等各程序相關諮詢,必要時可將相關程序以其他方式置換,將複數程序整合為一,推動相關實驗。

  戰略區域會議並決定將窗口設置於東京都及愛知縣,欲進行實驗之企業可至前述窗口諮詢,東京都及愛知縣應與相關省廳及所管轄之警察、交通部門進行協調,並將所需之資訊彙整後回覆予企業,如此一來,企業可減輕實驗前繁瑣程序所帶來之負擔,進而降低啟動實驗之門檻。

  東京都小池百合子知事於會後向記者們表示「自駕系統於汽車產業中,已是國家間之競爭」,且東京都將致力於「沙盒特區」體制之推動,於必要時可暫時停止相關現行法規之限制。愛知縣大村秀章知事則期待「透過實證實驗累積技術,促使愛知縣能維持引領世界汽車產業聚集地之地位」。

  針對上述特區的設置,未來實際落實情況以及法規排除作法與範圍,值得我國持續投入關注。

相關連結
你可能會想參加
※ 日本政府將於東京都及愛知縣成立「自駕車實證一站式中心」, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=7914&no=67&tp=1 (最後瀏覽日:2025/12/21)
引註此篇文章
你可能還會想看
中國衛生部發布「抗菌藥物臨床應用管理辦法」

  長久以來,中國民眾對於抗菌藥物(如抗生素等)存有高度的依賴性,造就了國內規模龐大的抗菌藥物市場,依據中國衛生部統計,中國民眾對抗菌藥物的人均消費額幾乎是美國民眾的10倍。對此,世界衛生組織早於2011年4月7日便正式提出警告與呼籲,若中國未能控制抗菌藥物濫用的情況,很快將面臨「無藥可用」的窘境,並演變為全球人類的災難。   為扭轉前述抗菌藥物濫用狀況,中國衛生部於2012年4月24日正式發布了「抗菌藥物臨床應用管理辦法」(以下稱管理辦法),分別對於抗菌藥物的使用及醫療院所之管理制度作了如下的完整規範: 1. 對抗菌藥物採分級管理制,分為「非限制使用級」、「限制使用級」及「特殊使用級」三類,並要求醫療院所依此分類,擬定「抗菌藥物供應目錄」,凡具有同一通用名稱者,其注射型和口服型各不得超過兩種、具有相似或相同藥理學特徵的藥物亦不得重複列入。 2. 依上述分級對抗菌藥物作臨床使用管理:「限制使用級」者,只有當發生嚴重感染、免疫功能下降合併感染,或病菌只對限制級藥物有反應時,才允許使用;「特殊使用級」者,非經醫療院所內設置的「抗菌藥物管理工作機構」同意,不得使用;惟若係為搶救生命垂危的病患或其他緊急情況下,可以越級使用,但須於24小時內補行程序。 3. 各院所必須設置「抗菌藥物管理工作機構」或專責人員,負責制定抗菌藥物管理制度、擬定「抗菌藥物供應目錄」,並建立細菌抗藥預警制度。   管理辦法將於2012年8月起正式施行,一般預料將有助於改善中國抗菌藥物濫用的現象,然用藥限制也必定衝擊現今許多對抗菌藥物產品銷售已存有高度依賴性的企業;相反地,由於管理辦法中明文將「具有抗菌作用的中醫製劑」排除於管制範圍外,或許將促成抗菌中醫藥品的發展契機,而值得持續觀察之。

再工業化!?美國推動先進製造知基礎法制政策研析

Google挑戰法國最高行政法院對被遺忘權之看法

  2016年3月法國個人資料保護主管機關「國家資訊自由委員會」(Commission Nationale de l'Informatique et des Libertés, CNIL)要求Google等搜尋引擎公司,刪除網路搜尋所出現之歐洲公民姓名。此舉參考2014年歐洲法院(European Court of Justice)對於Mario Costeja González一案(C 131/12)所作裁決,Google公司和Google西班牙公司須遵守西班牙資料保護局(Agencia Española de Protección de Datos, AEPD)要求,移除出現原告姓名之搜尋結果。Google表示不服,並上訴法國最高行政法院(Conseil d'État)。   於本案中Google提出兩點主張:第一,CNIL對於被遺忘權(right to be forgotten)適用範圍過大,聲稱所搜尋到之姓名等資訊,屬於事實或來自新聞報導和政府網站之合法公開網站資訊,認為CNIL將隔絕原本在法國可為其他人所知之合法資訊;第二,Google主張向來遵守各國個人資料保護政策,將遵照CNIL要求,但僅限刪除在法國網域內之歐洲公民姓名,無法及於全球網域,除非法國政策已為全歐盟或全球所適用,不然法國個人資料保護審查制度不能延伸至其他國家。   對於網路公民權利推廣不遺餘力之「電子前線基金會」(Electronic Frontier Foundation, EFF)認為CNIL對法國公民資料保護之特別要求,將對Google造成損害。

IBM提出「人工智慧日常倫理」手冊作為研發人員指引

  隨著人工智慧快速發,各界開始意識到人工智慧系統應用、發展過程所涉及的倫理議題,應該建構出相應的規範。IBM於2018年9月02日提出了「人工智慧日常倫理」(Everyday Ethics for Artificial Intelligence)手冊,其以明確、具體的指引做為系統設計師以及開發人員間之共同範本。作為可明確操作的規範,該手冊提供了問責制度、價值協同、可理解性等關注點,以促進社會對人工智慧的信任。 一、問責制度(Accountability)   由於人工智慧的決策將作為人們判斷的重要依據,在看似客觀的演算系統中,編寫演算法、定義失敗或成功的程式設計人員,將影響到人工智慧的演算結果。因此,系統的設計和開發團隊,應詳細記錄系統之設計與決策流程,確保設計、開發階段的責任歸屬,以及程序的可檢驗性。 二、價值協同(Value Alignment)   人工智慧在協助人們做出判斷時,應充分考量到事件的背景因素,其中包括經驗、記憶、文化規範等廣泛知識的借鑑。因此系統設計和開發人員,應協同應用領域之價值體系與經驗,並確保演算時對於跨領域的文化規範與價值觀之敏感性。同時,設計師和開發人員應使人工智慧系統得以「了解並認知」用戶的價值觀,使演算系統與使用者之行為準則相符。 三、可理解性(Explainability)   人工智慧系統的設計,應盡可能地讓人們理解,甚至檢測、審視它決策的過程。隨著人工智慧應用範圍的擴大,其演算決策的過程必須以人們得以理解的方式解釋。此係讓用戶與人工智慧系統交互了解,並針對人工智慧結論或建議,進而有所反饋的重要關鍵;並使用戶面對高度敏感決策時,得以據之檢視系統之背景數據、演算邏輯、推理及建議等。   該手冊提醒,倫理考量應在人工智慧設計之初嵌入,以最小化演算的歧視,並使決策過程透明,使用戶始終能意識到他們正在與人工智慧進行互動。而作為人工智慧系統設計人員和開發團隊,應視為影響數百萬人甚至社會生態的核心角色,應負有義務設計以人為本,並與社會價值觀和道德觀一致的智慧系統。

TOP