澳洲詮釋自動駕駛「恰當駕駛」內涵

  澳洲國家交通委員會(National Transport Commission, NTC)2017年11月提出「國家自駕車實施指南(National enforcement guidelines for automated vehicles)」,協助執法單位適用目前道路駕駛法規於自駕車案例上。由於澳洲道路法規(Australian Road Rules)第297條第1項規範「駕駛者不得駕駛車輛除非其有做出恰當控制(A driver must not drive a vehicle unless the driver has proper control)」,此法規中的「恰當控制」先前被執法機關詮釋為駕駛者應坐在駕駛座上並至少有一隻手置於方向盤上。因此本指南進一步針對目前現行法規適用部分自動駕駛系統時,執法機關應如何詮釋「恰當駕駛」內涵,並確認人類駕駛於部分自動駕駛系統運作時仍應為遵循道路駕駛法規負責。

  本指南僅提供「恰當控制」之案例至SAE J2016第一級、第二級和第三級之程度,而第四級與第五級之高程度自動駕駛應不會於2020年前進入市場並合法上路,因此尚未納入本指南之詮釋範圍之中。本指南依照採取駕駛行動之對象、道路駕駛法規負責對象(誰有控制權)、是否應將一隻手放置於方向盤、是否應隨時保持警覺以採取駕駛行動、是否可於行駛中觀看其他裝置等來區分各級自動駕駛系統運作時,人類駕駛應有之恰當駕駛行為。

本文為「經濟部產業技術司科技專案成果」

相關連結
※ 澳洲詮釋自動駕駛「恰當駕駛」內涵, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=7922&no=67&tp=5 (最後瀏覽日:2026/02/27)
引註此篇文章
你可能還會想看
Skype多了測謊功能?

  以色列BATM公司研發出Skype整合性軟體-KishKish,未來將提供消費者以付費的方式使用測謊功能。此軟體係透過分析談話者聲音中的緊張程度,告知軟體使用者「對方是否說謊」。如此一來,使用者便可透過軟體分析出來的指示,而即時修正詢問的問題。據說,美軍已開始運用此套軟體!   雖然KishKish的使用如此便利,但是根據英國專家表示,網路使用者若不當使用KishKish,將可能違反「資料保護法」(Data Protection Act)而負擔民事責任,甚至還可能涉及「調查權規範法」(Regulation of Investigatory Powers Act,RIPA)將被處以兩年以上有期徒刑或科以罰金。   至今,Skype仍尚未公布其價格及發布日期。

歐盟通過「負責任奈米科技研究活動」行為準則

  全球皆認同奈米科技具有策略性潛質,而安全性確保與公眾接受度尤為其應用與產品商業化的先決條件,因此各界同意奈米科技之發展與使用不應有所失衡。在此背景下,歐盟在「歐洲奈米科技策略」﹙Towards A European Strategy for Nanotechnology﹚及「奈米科學及奈米技術︰歐洲在二○○五至二○○九的行動計畫」﹙Nanosciences and Nanotechnologies︰An Action Plan For Europe 2005-2009﹚兩份重要文件中,皆表示對於此一議題的高度重視。據此,執委會﹙Commission﹚於去﹙2007﹚年7月19日提出「負責任奈米科技研究活動行為準則﹙草案﹚」﹙Code of Conduct for Responsible Nanosciences and Nanotechnologies Research﹙draft﹚﹚並對外進行公開諮詢直到同年9月21日為止,其後修正而於今年2月通過正式版本。 本準則之規範特色主要有三: 1、明確各項定義:為合理圈畫適用範圍,本準則特別針對奈米物體﹙Nano-objects﹚、奈米科技研究﹙N&N research﹚、奈米科技利害關係人及市民團體等用詞予以界定。 2、提列管理原則:包括意義﹙meaning﹚、永續﹙sustainability﹚、預防﹙precaution﹚、含括性﹙inclusiveness﹚、卓越﹙excellence﹚、創新﹙Innovation﹚、有責性﹙accountability﹚。 3、操作指引舉隅:為落實各項原則,本準則針對「奈米科技研究之良好管理」、「踐行預防措施」及「本準則之宣導及監管」等三大部分提供細部指引。   整體而言,本準則正式版本係在預防原則及保障基本人權之思維下,先行設立各項管理原則,而後提供各項操作指引。歐盟執委會以推薦方式邀請各會員國及利害關係人參與並落實,原則上各會員國應於2008年6月30日前通知執委會其意向,並於其後每年定期報告其所採取之具體措施、建議、運用成效,以及提供實際作法;而執委會亦將定期每二年檢視相關建議並監控後續發展。

英國身份證立法-我國之借鏡?

經濟合作與發展組織發布《促進AI可歸責性:在生命週期中治理與管理風險以實現可信賴的AI》

經濟合作與發展組織(Organisation for Economic Co-operation and Development, OECD)於2023年2月23日發布《促進AI可歸責性:在生命週期中治理與管理風險以實現可信賴的AI》(Advancing accountability in AI: Governing and managing risks throughout the lifecycle for trustworthy AI)。本報告整合ISO 31000:2018風險管理框架(risk-management framework)、美國國家標準暨技術研究院(National Institute of Standards and Technology, NIST)人工智慧風險管理框架(Artificial Intelligence Risk Management Framework, AI RMF)與OECD負責任商業行為之盡職調查指南(OECD Due Diligence Guidance for Responsible Business Conduct)等文件,將AI風險管理分為「界定、評估、處理、治理」四個階段: 1.界定:範圍、背景、參與者和風險準則(Define: Scope, context, actors and criteria)。AI風險會因不同使用情境及環境而有差異,第一步應先界定AI系統生命週期中每個階段涉及之範圍、參與者與利害關係人,並就各角色適用適當的風險評估準則。 2.評估:識別並量測AI風險(Assess: Identify and measure AI risks)。透過識別與分析個人、整體及社會層面的問題,評估潛在風險與發生程度,並根據各項基本價值原則及評估標準進行風險量測。 3.處理:預防、減輕或停止AI風險(Treat: Prevent, mitigate, or cease AI risks)。風險處理考慮每個潛在風險的影響,並大致分為與流程相關(Process-related)及技術(Technical)之兩大處理策略。前者要求AI參與者建立系統設計開發之相關管理程序,後者則與系統技術規格相關,處理此類風險可能需重新訓練或重新評估AI模型。 4.治理:監控、紀錄、溝通、諮詢與融入(Govern: Monitor, document, communicate, consult and embed)。透過在組織中導入培養風險管理的文化,並持續監控、審查管理流程、溝通與諮詢,以及保存相關紀錄,以進行治理。治理之重要性在於能為AI風險管理流程進行外在監督,並能夠更廣泛地在不同類型的組織中建立相應機制。

TOP