聯網自動駕駛車(CAV)

  聯網自動駕駛車(Connected and Autonomous Vehicles, CAV)是一種自動化聯網載具,係自動駕駛車以及互聯汽車兩種科技的集合,而CAV僅須符合其一即可稱之。按英國交通部的定義,自動駕駛車係為「無須稱職的駕駛者管理各種道路、交通與天候條件之下,能安全完成旅程的車輛。」目前上市產品中已可見部份自動駕駛車的身影,諸如自動路邊停車系統、先進輔助駕駛系統、自動緊急煞車系統等等。

  互聯車輛科技允許車輛之間的互相溝通以及更廣泛聯網,目前已有的互聯車輛科技如動態導航系統、緊急求救系統(eCall)等,特別是歐盟欲規範未來新車都必備eCall系統,該系統可偵測事故發生並自動開啟安全氣囊、撥打求救電話並開啟全球定位系統(GPS),以利醫護人員快速救援。目前有三種正在發展中,用以支援互聯車輛的科技:V2V(車輛之間互聯)、V2I(車輛與交通設備互聯)、V2X(車輛與任何適當的科技互聯)。而發展CAV有六種益處,包括提升行車安全、減少交通阻塞、減少碳排放、更多自由時間可運用、任何人都可平等地使用CAV以及改良道路之設計。

  我國刻正實施行政院於2014年5月核定之第2階段「智慧電動車輛發展策略與行動方案」,推動智慧電動車整車及零組件性能提升,協助廠商提升製程及資訊應用功能;研析國際驗證及測試規範,完善智慧電動車產業價值鏈。

本文為「經濟部產業技術司科技專案成果」

相關連結
你可能會想參加
※ 聯網自動駕駛車(CAV), 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?no=57&tp=5&d=7657 (最後瀏覽日:2024/04/24)
引註此篇文章
你可能還會想看
日本國土交通省航空局公布日本無人機飛行安全指引

  日本國土交通省航空局於2017年9月12日公布修正版日本無人機飛行安全指引(「無人航空機(ドローン、ラジコン機等)の安全な飛行のためのガイドライン」を改定しました),乃依據修正之航空法規定(平成27年法律第67號)制訂無人機飛行之相關基本規則。   定義所謂無人機乃指非人搭乘,透過遠距遙控或自動駕駛而飛行之飛機、旋翼飛機、滑翔機及飛艇。而無人機禁止飛行在150公尺以上高空,不得在航空站周邊空域(包含進入),以禁止在人口集中地區之上空(150公尺以下)。   除經國土交通省同意之例外規則外,無人機之飛行必須在日出後日沒前,且需在直接肉眼目視範圍內之監視下,與第三人或他人建築物、車輛等物體應距離30公尺以上,並不得在祭拜或假日等人群聚集之場所上空飛行,也不得輸送爆裂物等危險物品,亦不得從無人機上投擲物品。另外應注意事項,例如飛行場所除了航空站周邊外,直升機等降落可能之場所、迫降場所、高速公路或高速鐵路等、鐵路周邊或車道周邊等、高壓電線、變電所、電波塔及無線電設施等附近應注意飛行安全。   於飛行之際,不得飲酒等造成不當操作,飛行前應注意天氣狀況、飛機無損害或故障、電池燃料充足等,並確保周邊無障礙物,並應迴避與飛機或無人飛機之衝突。平時應保持無人機之狀況良好,且維持日常操作良好技能,並鼓勵投保人身或財產保險。

美國政府提出新法加強管理軍民兩用技術

  美國布希政府最近向國會正式提出一個以打擊恐怖主義及大規模毀滅性武器為目的的法案—出口執行法(The Export Enforcement Act of 2007),以期為執法者—美國商務部產業安全局(Bureau of Industry and Security, BIS)提供更有效的工具,防止最具有敏感性的技術或產品落入危險份子手中。   長久以來,美國用以管理敏感性技術與產品的法源是1979年制定的出口管理法(Export Administration Act),該法對軍民兩用的技術與產品,施以出口管制。出口法在2001年失效,同年發生911攻擊事件,因此,布希政府除希望獲得國會重新就出口管理法予以授權外,也希望可以有更強而有力的出口管理權限。不過行政部門迄今未得到國會就出口管理法予以重新授權。   自2001年以來,BIS係依國際緊急情形經濟權力法(International Emergency Economic Powers Act, IEEPA)行使出口管理權限,不過根據IEEPA,美國總統必須每年發布行政令(Executive Order)始能動用出口管理權限,而IEEPA對於違反出口管制規定的處罰也不若出口管理法重,因此,IEEPA除了對執法者造成出口管理的不便的困擾外,寬鬆的處罰也使得美國過去幾年非法技術外移的事件頻傳。   本次布希政府再次提出2007年出口執行法,其內容除了請求國會同意在未來五年再度授權行政部門行使1979年的出口管理法之權限外,其他重要內容尚有:(1)修正1979年的出口管理法之執行與違法規定:除增列構成犯罪之違法出口行為態樣外,並對違法者大幅加重其民刑事處罰。根據修正草案,企業之出口行為若被認定為違法,最高可科處500萬美元或違法出口技術或產品價值之十倍罰金;(2)強化了執法者打擊軍民兩用技術與產品非法出口的職權,明訂商務部特派員擁有海外調查以及秘密調查的權限;(3)對企業所提出之秘密資訊負有保護義務。   整體而言,本法案除了重新授權美國商務部管理軍民兩用技術與產品實施出口管制體系外,同時也代表美國政府於二十一世紀為維護國家安全與處理所面臨之經濟挑戰的長期與根本性改革。目前法案仍須國會討論通過後,始能生效適用。

與時俱進的新興科技法制-美國無人飛行器(UAS)管理法制初探

與時俱進的新興科技法制-美國無人飛行器(UAS)管理法制初探 科技法律研究所 法律研究員 陳世傑 2015年07月30日 壹、事件摘要   因電子與無線傳輸科技的進步,俗稱Drone的無人飛行器(Unmanned Aerial Vehicles,UAV),自美國亞瑪遜公司(Amazon)擬採為運送網路購物商品的工具後,無人飛行器的運用,已逐步從單純娛樂用途跨向商業用途的應用。無人飛行器的廣泛運用,是否可能影響安全、隱私、甚至政府監視的警察國家爭議,已經引起美國各級政府的重視,也紛紛立法加以因應。聯邦議會與各州議會亟思如何在法規上妥善調適,以因應越來越多商用無人飛行器的用途需求與其他公益保護之考量,例如飛航安全、隱私安全、甚至國土安全等,美國已經採取相關法制規劃,以完善UAV之管理。 貳、重點說明 一、美國聯邦管理法規   無人飛行器在美國由其聯邦航空總署(Federal Aviation Administration,FAA)主管,2012年2月14日生效的FAA現代化及改革法(The FAA Modernization and Reform Act of 2012,FMRA),為美國聯邦法律主要的管理法源。   FMRA對無人飛行器所採正式名稱為無人飛行機(Unmanned Aircraft),依其第331節定義,UAS指,而小型UAS(Small unmanned aircraft)則指55磅以下之UAS。   FAA指出,無人飛行系統(Unmanned Aircraft Systems,UAS)依其用途區分為公務用(Public Operations)、民用(Civil Operations)、娛樂用(Model Aircraft)三種,並有不同的管理規定。   公務用無人飛行器使用管理相關聯邦法律,有49 U.S.C. § 40102(a)(41)及49 U.S. Code § 40125就「公務用飛行器」(Public Aircraft)使用範疇之相關規定。   法律規定之公務用無人飛行器,FAA得發給飛航許可(Certificate of Waiver or Authorization,COA),而在其許可之特定空間範圍、操作方式或使用目的下操作公務用無人飛行器。FAA發給公務用無人飛行器之COA時多會附加公共安全之要求,例如不得於人口密集區域使用、避免影響其他飛行器路權(right-of-way rules)的使用。   民用無人飛行器之使用,可向FAA申請兩種使用許可,一為FMRA第333節之特許(Section 333 Exemption),其次為FAA第8130.34號行政命令特別適航性許可(Special Airworthiness Certificate,SAC)。   FMRA第333節之特許規定要求,美國聯邦運輸部得經申請,在一定體積、重量、飛行速度、安全性等要求下,特許申請人以無人飛行器進行商業使用(Certificate of Waiver or Authorization,COA),文前所述Amazon所遞交之申請即為此種COA。   SAC特別適航性許可則是要求申請人,於檢具所申請之飛行系統之硬體結構與軟體開發、控制與其管理(configuration management)之設計、規劃、製造上具適航性之說明以進行SAC申請。   娛樂用無人飛行器之使用,依照FMRA第336節規定,毋須經主管機關許可,惟仍須符合以下規定,包括飛行高度須低於400呎且維持飛行區域之淨空,且飛行器應隨時處於使用者目視可及之範圍。 二、美國各州管理法規   在聯邦層級法律以外,除華盛頓特區已為無人機禁用區(No Drone Zone)外,美國各州對於無人飛行器之使用,也各自有不同的立法。至2015年6月為止,美國共有25州對無人飛行器之定義、使用、管理等已有相關法律施行。2015年美國已有45州計151個法案與無人飛行器之使用管理進行規定。阿肯色州等15州完成立法,阿拉斯加等4州通過提案交付審查,喬治亞洲決議交由州議會成立特別委員會進行無人飛行器法案研究、新墨西哥州則由州參眾兩院通過備忘錄就無人飛行器的使用對於野生動物保護之影響進行研究。 參、事件評析   美國自聯邦乃至各州法規對於UAS之管理密度與保護面向各有不同,惟就聯邦FAA受理申請之情形,與各州之立法進度,顯見UAS此一新興科技所帶來的法制調適已經如火如荼的展開。UAS的逐漸普及所帶來的法規相應調整或跟進的需求,已促使美國聯邦與州政府的重視。甚至除了使用的管制外,有關UAS的輸出,美國國務院亦於2015年2月發布有關軍事用途UAS的出口管制政策,其中也同時對商用無人機之出口進行一定程度之管理,可見無人機技術的進步,未來將逐步帶動法制面從使用管理、產品管理甚至朝向技術管理發展。

用ChatGPT找法院判決?從Roberto Mata v. Avianca, Inc.案淺析生成式AI之侷限

用ChatGPT找法院判決?從Roberto Mata v. Avianca, Inc.案淺析生成式AI之侷限 資訊工業策進會科技法律研究所 2023年09月08日 生成式AI是透過研究過去資料,以創造新內容和想法的AI技術,其應用領域包括文字、圖像及影音。以ChatGPT為例,OpenAI自2022年11月30日發布ChatGPT後,短短二個月內,全球月均用戶數即達到1億人,無疑成為民眾日常生活中最容易近用的AI科技。 惟,生成式AI大量使用後,其中的問題也逐漸浮現。例如,ChatGPT提供的回答僅是從所學習的資料中統整歸納,無法保證資料的正確性。Roberto Mata v. Avianca, Inc.案即是因律師利用ChatGPT撰寫訴狀,卻未重新審視其所提供判決之正確性,以致後續引發訴狀中所描述的判決不存在爭議。 壹、事件摘要 Roberto Mata v. Avianca, Inc.案[1]中,原告Roberto Mata於2019年8月搭乘哥倫比亞航空從薩爾瓦多飛往紐約,飛行過程中膝蓋遭空服員的推車撞傷,並於2022年2月向法院提起訴訟,要求哥倫比亞航空為空服員的疏失作出賠償;哥倫比亞航空則主張已超過《蒙特婁公約》(Montreal Convention)第35條所訂之航空器抵達日起兩年內向法院提出損害賠償之請求時效。 R然而,法院審理過程中發現原告訴狀內引用之六個判決無法從判決系統中查詢,進而質疑判決之真實性。原告律師Steven A. Schwartz因而坦承訴狀中引用的六個判決是ChatGPT所提供,並宣稱針對ChatGPT所提供的判決,曾多次向ChatGPT確認該判決之正確性[2]。 貳、生成式AI應用之潛在風險 雖然運用生成式AI技術並結合自身專業知識執行特定任務,可能有助於提升效率,惟,從前述Roberto Mata v. Avianca, Inc.案亦可看出,依目前生成式AI技術之發展,仍可能產生資訊正確性疑慮。以下彙整生成式AI應用之8大潛在風險[3]: 一、能源使用及對環境危害 相較於傳統機器學習,生成式AI模型訓練將耗費更多運算資源與能源。根據波士頓大學電腦科學系Kate Saenko副教授表示,OpenAI的GPT-3模型擁有1,750億個參數,約會消耗1,287兆瓦/時的電力,並排放552噸二氧化碳。亦即,每當向生成式AI下一個指令,其所消耗的能源量相較於一般搜尋引擎將可能高出4至5倍[4]。 二、能力超出預期(Capability Overhang) 運算系統的黑盒子可能發展出超乎開發人員或使用者想像的隱藏功能,此發展將會對人類帶來新的助力還是成為危險的阻力,則會隨著使用者之間的相互作用而定。 三、輸出結果有偏見 生成式AI通常是利用公開資料進行訓練,若輸入資料在訓練時未受監督,而帶有真實世界既存的刻板印象(如語言、種族、性別、性取向、能力、文化等),據此建立之AI模型輸出結果可能帶有偏見。 四、智慧財產權疑慮 生成式AI進行模型訓練時,需仰賴大量網路資料或從其他大型資料庫蒐集訓練資料。然而,若原始資料來源不明確,可能引發取得資料未經同意或違反授權條款之疑慮,導致生成的內容存在侵權風險。 五、缺乏驗證事實功能 生成式AI時常提供看似正確卻與實際情形不符的回覆,若使用者誤信該答案即可能帶來風險。另外,生成式AI屬於持續動態發展的資訊生態系統,當產出結果有偏誤時,若沒有大規模的人為干預恐難以有效解決此問題。 六、數位犯罪增加與資安攻擊 過去由人工產製的釣魚郵件或網站可能受限於技術限制而容易被識破,然而,生成式AI能夠快速建立具高度說服力的各種擬真資料,降低詐騙的進入門檻。又,駭客亦有可能在不熟悉技術的情況下,利用AI進一步找出資安弱點或攻擊方法,增加防禦難度。 七、敏感資料外洩 使用雲端服務提供商所建立的生成式AI時,由於輸入的資料存儲於外部伺服器,若要追蹤或刪除有一定難度,若遭有心人士利用而導致濫用、攻擊或竄改,將可能產生資料外洩的風險。 八、影子AI(Shadow AI) 影子AI係指開發者未知或無法控制之AI使用情境。隨著AI模型複雜性增加,若開發人員與使用者未進行充分溝通,或使用者在未經充分指導下使用 AI 工具,將可能產生無法預期之風險。 參、事件評析 在Roberto Mata v. Avianca, Inc.案中,法院關注的焦點在於律師的行為,而非對AI技術使用的批判。法院認為,隨著技術的進步,利用可信賴的AI工具作為協助用途並無不當,惟,律師應踐行其專業素養,確保所提交文件之正確性[5]。 當AI科技發展逐漸朝向自主與獨立的方向前進,仍需注意生成式AI使用上之侷限。當個人在使用生成式AI時,需具備獨立思考判斷的能力,並驗證產出結果之正確性,不宜全盤接受生成式AI提供之回答。針對企業或具高度專業領域人士使用生成式AI時,除確認結果正確性外,更需注意資料保護及治理議題,例如建立AI工具合理使用情境及加強員工使用相關工具之教育訓練。在成本能負擔的情況下,可選擇透過企業內部的基礎設施訓練AI模型,或是在訓練模型前確保敏感資料已經加密或匿名。並應注意自身行業領域相關法規之更新或頒布,以適時調整資料使用之方式。 雖目前生成式AI仍有其使用之侷限,仍應抱持開放的態度,在技術使用與風險預防之間取得平衡,以能夠在技術發展的同時,更好地學習新興科技工具之使用。 [1]Mata v. Avianca, Inc., 1:22-cv-01461, (S.D.N.Y.). [2]Benjamin Weiser, Here’s What Happens When Your Lawyer Uses ChatGPT, The New York Times, May 27, 2023, https://www.nytimes.com/2023/05/27/nyregion/avianca-airline-lawsuit-chatgpt.html (last visited Aug. 4, 2023). [3]Boston Consulting Group [BCG], The CEO’s Roadmap on Generative AI (Mar. 2023), https://media-publications.bcg.com/BCG-Executive-Perspectives-CEOs-Roadmap-on-Generative-AI.pdf (last visited Aug. 29, 2023). [4]Kate Saenko, Is generative AI bad for the environment? A computer scientist explains the carbon footprint of ChatGPT and its cousins, The Conversation (May 23, 2023.), https://theconversation.com/is-generative-ai-bad-for-the-environment-a-computer-scientist-explains-the-carbon-footprint-of-chatgpt-and-its-cousins-204096 (last visited Sep. 7, 2023). [5]Robert Lufrano, ChatGPT and the Limits of AI in Legal Research, National Law Review, Volume XIII, Number 195 (Mar. 2023), https://www.natlawreview.com/article/chatgpt-and-limits-ai-legal-research (last visited Aug. 29, 2023).

TOP