「自動駕駛車(self-driving car)」可否合法上路?

  「自動駕駛車(self-driving car)」一般而言係指於汽車安裝感測器(sensors)以及軟體以偵測行人、腳踏車騎士以及其他動力交通工具,透過控制系統將感測到的資料轉換成導航道路,並以安全適當的方式行駛。其目前可分為兩類:「全自動駕駛車(full autonomous)」以及「半自動駕駛車(fully autonomous)」,全自動駕駛車係指可於指定地點出發後不需駕駛人(driver)在車上而到達目的地者之謂。全自動駕駛車又可為「用戶操作(user-operated)」與「無人駕駛車(driverless car)」。

  目前包含賓士(Mercedes)、BMW、特斯拉(Tesla)等公司均預期於不久將來會發布一些具備自動駕駛特徵的車種,科技公司如Google亦對於自動駕駛車的科技研發不留餘力。

  而從2012年開始,美國有17州以及哥倫比亞特區便開始在討論允許自動駕駛車上路的相關法規,而只有加利福尼亞州(California)、佛羅里達州(Florida)、內達華州(Nevada)及華盛頓哥倫比亞特區(Washington, D.C.)有相關法律的施行,其他州則尚未表態。而大部分的州傾向認為應由人類來操控(operating)汽車,但對於具體上到底有多少比例之汽車任務需由人類操控而多少比例可交由機器則尚有模糊空間。而是否肯認「人工智慧操控」符合法規之「人類操控」亦不明朗。不過在法律存有這樣灰色地帶時刻,Google搶先於加利福尼亞州進行測試其自動控制系統,期望之後於自動駕駛車逐漸上市普及後能搶占商機。

本文為「經濟部產業技術司科技專案成果」

※ 「自動駕駛車(self-driving car)」可否合法上路? , 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=7599&no=67&tp=5 (最後瀏覽日:2026/04/02)
引註此篇文章
你可能還會想看
歐盟《2022年前瞻策略報告》聚焦於新地緣政治之綠能與數位轉型

  歐盟於2022年6月29日提出《2022年前瞻策略報告:新地緣政治下之綠能與數位轉型雙生》(Twinning the green and digital transitions in the new geopolitical context,以下簡稱《2022年前瞻策略報告》),促進氣候與數位的協同和一致性,以面對現今與2025年的挑戰。歐盟主席Ursula Gertrud von der Leyen曾於2019年指出,綠能與數位轉型為首要的任務;鑒於俄羅斯與烏克蘭之戰爭,歐洲正加速提升於氣候與數位之全球性領導地位,聚焦於能源、糧食、國防與尖端技術之關鍵挑戰。《2022年前瞻策略報告》提出願景與雙生轉型(twin transitions)互動的整體分析,考量新興技術的角色,和地緣政治、社會、經濟與法規的因素,以塑造雙生,相互強化,並降低戰略依賴。   《2022年前瞻策略報告》確立十大關鍵行動,以擴大機會並減少源於雙生的潛在風險。該關鍵行動分別為: 1、在變化的地緣政治環境,歐盟需在轉型的關鍵領域中,持續強化其彈性與開放戰略的自主權。 2、歐盟須致力於促進全球的雙生轉型。 3、歐盟須策略性的管理關鍵商品的供應鏈,以達成雙生轉型,並保持其經濟上之競爭力。 4、在轉型的過程中,歐盟須強化社會與經濟上的凝聚。 5、教育與訓練系統須能適應新的社會經濟現實。 6、額外的投資須能轉向於支持技術與基礎設施。 7、引導轉型須有穩健與可信賴的監控框架。 8、具未來性與敏捷性的歐盟立法框架,須以單一市場為核心,將有利於具持續性的商業模型與消費模式。 9、制訂標準(Setting standards)為雙生和確定歐盟朝競爭持續性發展的關鍵。 10、更強健的網路安全與資料共享框架必須對潛在的雙生技術解鎖。 本文同步刊登於TIPS網站(https://www.tips.org.tw)

梵諦岡與IBM、微軟聯合呼籲對臉部辨識等侵入性技術進行監管

  2020年2月28日梵諦岡教宗與兩大科技巨頭IBM及微軟聯合簽署「羅馬呼籲AI倫理道德」文件,支持制定人工智慧(AI)發展倫理與道德規範,並特別呼籲應針對臉部辨識等侵入性技術進行監管。在聯合文件上特別提及臉部識別技術潛在之濫用風險,例如警察會使用臉部辨識系統調查犯罪行為、《財富》500強公司使用AI審查求職者,這兩個例子均具有潛在且高度之風險,使用不正確或是具有偏見之AI判斷均可能會造成傷害。誠如方濟各在致辭中說:「人工智慧記錄個人資料,並使用於商業或政治目的,而且通常是在個人不知情之情況下,這種不對稱,將使少數人了解我們的一切,但我們卻對他們一無所知,這將使批判性思維和對自由的自覺變得遲鈍,不平等現象急遽擴大,知識和財富在少數人手中累積,將對民主社會構成重大風險。」   此次會議希望在國家與國際層面上共同努力促進AI道德規範,並根據以下原則來發展和使用人工智慧。第一,良好的創新:人工智慧系統必須是可理解得,並且在包容性方面必須考慮到所有人的需求,以便每個人都能受益。第二,責任:設計和實施人工智慧者必須承擔責任和保持透明度。第三,公正性:避免根據偏見進行創造或採取行動,從而維護人類平等和尊嚴。第四,可靠性:人工智慧系統必須能夠可靠的運行。第五,安全和隱私:人工智慧系統必須安全運行並尊重用戶的隱私。   目前尚不清楚其他技術公司是否會簽署該文件,以及簽署人將如何實施,但教宗與兩大科技巨頭史無前例的合作,為人工智慧未來發展方向提供遠見卓識,能更加深入的去思考AI的道德意涵以及它將如何與人類更好的合作、互動,互利共生,相輔相成。

美國FDA為因應藥品汙染事故公告四項製藥新指導原則

  美國食品藥物管理局(the United States Food and Drug Administration,以下簡稱FDA)於2015年2月13日公告四項與藥品製造有關之指導原則(guidance)作為補充相關政策執行之依據,主要涉及藥品製程中,藥品安全不良事件回報機制、尚未經許可之生技產品的處理模式、藥品重新包裝,以及自願登記制度中外包設施之認定應進行的程序與要求。   該四項指導原則係源於FDA依據2013年立法通過之藥物品質與安全法(The Drug Quality and Security Act,以下簡稱DQSA)所制定之最新指導原則。因2012年位於麻州的新英格蘭藥物化合中心(The New England Compounding Center),生產類固醇注射藥劑卻遭到汙染,爆發致命的黴菌腦膜炎傳染事故,故美國國會制定DQSA,以避免相同事故再次發生。DQSA要求建立自願登記制度(system of voluntary registration),倘若製藥廠自願同意FDA之監督,成為所謂的外包設施(outsourcing facilities)。作為回饋,FDA即可建議特定醫院向該製藥廠購買藥品。   而本次四項指導原則之內容,其一主要涉及外包設施進行藥物安全不良事件回報之相關規定,要求製藥廠必須回報所有無法預見且嚴重的藥物安全不良事件。在不良事件報告中必須呈現四項資訊,其中包括患者、不良事件首名發現者、所述可疑藥物以及不良事件的類型。同時,禁止藥品在上市時將這些不良事件標示為潛在副作用。第二份指導原則對於尚未經許可的生技產品,規定可進行混合,稀釋或重新包裝之方法;並排除適用某些類型的產品,如細胞療法和疫苗等。第三份指導原則涉及重新包裝之規定,內容包括包裝地點以及如何進行產品的重新包裝、監督、銷售和分發等其他相關事項。而第四份指導原則規範那些類型之藥品製造實體應登記為外包設施。為此,FDA亦指出聯邦食品藥物和化妝品法(the Federal Food Drug & Cosmetic Act)之規定裡,已經要求製造商從事無菌藥品生產時,必須將法規針對外包設施之要求一併納入考量。

何謂「監理沙盒」?

  沙盒(Sandbox)是一個讓小孩可以安全遊玩與發揮創意的場所,在電腦科學領域,沙盒則是用來代稱一個封閉而安全的軟體測試環境。而監理沙盒(Regulatory Sandbox),則是在數位經濟時代,為因應各種新興科技與新商業模式的出現,解決現行法規與新興科技的落差,故透過設計一個風險可控管的實驗場域,提供給各種新興科技的新創業者測試其產品、服務以及商業模式的環境。   在監理沙盒當中,業者將暫時享有法規與相關責任的豁免,減低法規遵循風險,以使業者能夠盡可能地測試其技術、服務或商業模式。透過在測試過程中與監管者(通常為政府主管機關)的密切互動合作,針對在測試過程中所發現或產生的技術、監管或法規問題,一同找出可行的解決方案,並作為未來主管機關與立法者,修改或制定新興科技監管法規的方向跟參考。   監理沙盒一詞源自英國在2014年因應Fintech浪潮所推動的金融科技創新計畫,而類似的概念也出現在日本2014年修正產業競爭力強化法當中的灰色地帶消除制度與企業實證特例制度。我國則於2017年通過金融科技發展與創新實驗條例,為我國監理沙盒的首例,2018年我國持續推動世界首創的無人載具科技創新實驗條例立法,為我國建構更有利於產業創新的法制環境。

TOP