「自動駕駛車(self-driving car)」可否合法上路?

  「自動駕駛車(self-driving car)」一般而言係指於汽車安裝感測器(sensors)以及軟體以偵測行人、腳踏車騎士以及其他動力交通工具,透過控制系統將感測到的資料轉換成導航道路,並以安全適當的方式行駛。其目前可分為兩類:「全自動駕駛車(full autonomous)」以及「半自動駕駛車(fully autonomous)」,全自動駕駛車係指可於指定地點出發後不需駕駛人(driver)在車上而到達目的地者之謂。全自動駕駛車又可為「用戶操作(user-operated)」與「無人駕駛車(driverless car)」。

  目前包含賓士(Mercedes)、BMW、特斯拉(Tesla)等公司均預期於不久將來會發布一些具備自動駕駛特徵的車種,科技公司如Google亦對於自動駕駛車的科技研發不留餘力。

  而從2012年開始,美國有17州以及哥倫比亞特區便開始在討論允許自動駕駛車上路的相關法規,而只有加利福尼亞州(California)、佛羅里達州(Florida)、內達華州(Nevada)及華盛頓哥倫比亞特區(Washington, D.C.)有相關法律的施行,其他州則尚未表態。而大部分的州傾向認為應由人類來操控(operating)汽車,但對於具體上到底有多少比例之汽車任務需由人類操控而多少比例可交由機器則尚有模糊空間。而是否肯認「人工智慧操控」符合法規之「人類操控」亦不明朗。不過在法律存有這樣灰色地帶時刻,Google搶先於加利福尼亞州進行測試其自動控制系統,期望之後於自動駕駛車逐漸上市普及後能搶占商機。

本文為「經濟部產業技術司科技專案成果」

※ 「自動駕駛車(self-driving car)」可否合法上路? , 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=7599&no=57&tp=1 (最後瀏覽日:2026/02/24)
引註此篇文章
你可能還會想看
以Apple Pay服務捲入營業秘密糾紛案為例,提醒企業合作應留意的機密管控作法

2025年8月6日,行動支付技術開發公司Fintiv向喬治亞州北區聯邦地方法院亞特蘭大分院控訴Apple科技公司以詐欺手段竊取Fintiv公司的前身公司CorFire的專屬行動支付技術,違反《保護營業秘密法》(Defend Trade Secrets Act,DTSA)及《喬治亞州營業秘密法》(Georgia Trade Secrets Act,GTSA)等規定,向法院尋求賠償。 Fintiv公司主張Apple公司在2011年至2012年間,以行動支付技術之業務合作為由,與CorFire公司進行多次技術性洽談。Apple公司利用雙方簽訂之保密契約,取得CorFire公司的行動支付技術的詳細實施方案之接觸權限,並要求CorFire公司上傳部分機密資料至Apple公司管理的共享平臺,以促進合作交流關係,最終Apple公司放棄與CorFire公司的合作計畫,Apple公司卻將協商期間所獲技術內容整合,並應用於其在2014年推出的Apple Pay行動支付服務。Fintiv公司進一步主張Apple公司為將Apple Pay商業化,與信用卡處理商及銀行組成企業聯盟,並隱瞞其非法取得技術的真相,宣稱Apple公司自主研發Apple Pay。Fintiv公司指出,Apple公司此舉不僅損害Fintiv公司的合法權益,也嚴重破壞市場競爭秩序。此外,Fintiv公司表示,Apple公司多年來有系統地採取類似策略,如以合作名義獲取其他企業之機密,進而不當使用多項機密以進行商業化使用。 觀察前述實務案例可得知,即使雙方基於保密契約交換機密資料,仍存在終止合作衍生的機密外洩糾紛,如:機密資料歸屬不清、逾越授權範圍使用機密資料等風險。建議企業在「資料提供前」,應先透過「盤點」營業秘密與機密「分級」,確認合適揭露的機密資料,再藉由「審查」機制確認必要揭露的內容;在「資料提供後」,要求他方提供機密資料之「收受證明」以明確歸屬,並在合作關係結束後,要求他方「聲明返還或銷毀機密資料」,以降低他方不當使用機密資料的風險。 前述建議之管理作法已為資策會科法所創意智財中心於2023年發布之「營業秘密保護管理規範」所涵蓋,企業如欲精進系統化的營業秘密管理作法,可以參考此規範。 本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。 本文同步刊登於TIPS網站(https://www.tips.org.tw)

冰島政府贏得與英國連鎖超市Iceland Foods的商標戰

  歐盟智慧財產局(EUIPO , European Union Intellectual Property Office)裁定英國連鎖超市Iceland Foods(以下簡稱Iceland Foods),不得以「 Iceland」在歐盟申請註冊商標。   Iceland Foods成立於1970年,是英國的知名品牌,擁有超過800家的分店共有2.3萬名員工,主要販售海鮮等冷凍食品。這件商標爭議起源於2014年,Iceland Foods成功以「 Iceland」一詞在歐盟註冊商標,但冰島企業的冷凍魚類等產品,也有銷售到歐盟,冰島政府因而指控此結果,將造成冰島的企業,無法以「Iceland」標示其產品的來源國。此外,冰島政府也指出,「Iceland」已經被廣泛認知為地理名稱,本來就不經該允許其被註冊為商標。如今,歐盟智慧財產局支持冰島政府的主張,使英國連鎖超市的註冊商標「Iceland」完全無效。並進一步表示,歐盟國家的消費者了解冰島是歐洲的一國,也知道冰島不但與歐盟國家地理位置相接近,且與歐盟國家存在歷史與經濟方面的聯結。   冰島的外交部長表示樂見此結果,但並不感到意外,並表示此裁定對冰島的出口商,是一個重要且勝利的里程碑。冰島以純淨與永續聞名,因此產品的原產地標示「Iceland」具有價值。Iceland Foods則聲明表示,對此結果感到遺憾,並打算提起上訴。

歐盟通過最新基因改造生物指令,並堅持產品標示

  歐洲議會於今(2015)年1月13日通過最新決議(10972/3/2014 – C8-0145/2014)「修正2001/18/EC歐洲議會與理事會指令,關於會員國限制或禁止境內進行基因改造生物耕作之可能性」(Directive of the European Parliament and of the Council amending Directive 2001/18/EC as regards the possibility for the Member States to restrict or prohibit the cultivation of genetically modified organisms (GMOs) in their territory),允許會員國自行決定限制或全面禁止GMO於其國境內耕作,以排除GMO產品。此變革在於,原歐洲議會與理事會2001/18/EC指令、歐洲議會與理事會第1829/2003號決議,允許全歐盟境內使用GMO種子、植物繁殖材料進行耕作;而一旦歐盟許可後,會員國除非有符合歐盟法規定例外,否則不得於其境內再為禁止、限制或障礙。   基於歐洲聯盟「輔助原則」(Principle of Subsidiarity),並考量GMO耕作議題與國家、地區及在地區域土地利用、農業結構與生態維持之關聯度高,其與歐盟GMO產品上市之授權進入內部市場仍有所不同,因此新通過之指令,提供會員國更多裁量彈性,在不影響「歐盟食品安全局」(European Food Safety Authority)之GMO風險評估結果下,會員國在歐盟允許GMO產品上市後,得自行決定是否允許GMO作物於其境內耕作。   由於歐盟與美國之「跨大西洋貿易與投資伙伴協定」(Transatlantic Trade and Investment Partnership),及歐盟與加拿大雙邊自由貿易協定(Comprehensive Economic and Trade Agreement),使歐洲民眾對於GMO產品進入歐洲產生恐慌,且在年初即受到消費者保護團體及農民聯盟之嚴厲批評,因此在前述新通過指令之立場下,歐盟農業委員會委員Phil Hogan在今年1月15日國際綠色週(International Green Week)強調,基於消費者保護,歐盟堅持產品中含有基因改造生物者,皆需進行標示。僅透過條碼掃描才能得知是否為GMO產品,此美國建議之方式仍不符合歐盟規定。

美國國家標準暨技術研究院規劃建立「人工智慧風險管理框架」,並徵詢公眾對於該框架之意見

  美國國家標準暨技術研究院(National Institute of Standards and Technology, NIST)為管理人工智慧對於個人、組織以及社會所帶來之風險,於2021年7月29日提出將建立「人工智慧風險管理框架」(Artificial Intelligence Risk Management Framework, AI RMF)之規畫並徵詢公眾意見,截止日為9月15日,並預計於10月發布正式報告。   依照NIST說明,公眾所建議之人工智慧風險管理框架,可促進人工智慧之可信賴性,其中包含如何應對並解決人工智慧於設計、發展及使用過程中所遭遇之「精確度」(accuracy)、「可解釋性」(explainability)、「偏見」(bias)等議題。此外,上開管理框架預計為非強制性、供企業自願性使用於人工智慧設計、發展、使用、衡量及評估之人工智慧標準。   依現有公眾意見徵詢結果,其中DeepMind公司建議於人工智慧設計初期,必須預先構思整體系統之假設是否符合真正社會因果關係。舉例言之,當設計一套可預測民眾健保需求程度之系統時,如輸入參數僅考量民眾於醫療上的花費,將使僅有可負擔較高醫療費用之民眾被歸類為健保需求程度較高者,從而導致健保制度排擠經濟負擔程度較差之公民,故在設計系統時,應從預先設定之假設事實反面(counter-factual)思考並驗證是否會產生誤差或公平性之問題(例如預先思考並驗證「醫療費用支出較低之民眾是否即可被正確歸類為健保需求度低之民眾」)。惟進行上述驗證需要大量社會資料,因此DeepMind也建議NIST應建立相關機制,使這些社會資料可以被蒐集、使用。   此外,亦有民眾建議管理框架應有明確之衡量方法以及數值指標,以供工程界遵循。同時鑒於人工智慧發展極為快速,未來可能有不同於以往之人工智慧類型出現,故亦建議NIST應思考如何在「建構一套完整且詳細之人工智慧治理框架」與「保持人工智慧治理框架之彈性與靈活性」之間取得平衡。   最後,目前也有許多徵詢意見指出,許多人工智慧治理之目標會相互衝突。舉例言之,當NIST要求人工智慧系統應符合可解釋性,則人工智慧公司勢必需要經常抽取人工智慧系統中之「數據軌跡」(audit logs),惟數據軌跡可能被認為是使用者之個人資料,因此如何平衡或完善不同治理框架下之目標,為未來應持續關注之議題。

TOP