日本《人工智慧技術研究開發及應用促進法》簡介

日本《人工智慧技術研究開發及應用促進法》簡介

資訊工業策進會科技法律研究所

2025年06月25日

為全面性且有計畫地推動人工智慧(以下簡稱AI)相關技術之研發及應用,同時為改善國民生活和促進國家經濟健康發展做出貢獻,日本內閣於2025年2月28日提出《人工智慧技術研究開發及應用促進法》(以下簡稱本法)草案。 [1]

本法進一步於同年5月28日經參議院表決通過[2] ,通過之條文內容與2月28日提出之草案並無二致,惟5月27日內閣委員會另外通過20點附帶決議[3] ,其中涵蓋共多具體措施。本法於6月4日公布施行[4] ,以下將介紹本次日本《人工智慧技術研究開發及應用促進法》及附帶決議內容。

壹、立法緣由

近年AI技術及應用蓬勃發展,然而日本卻深感國內對AI發展不如其他主要國家,依據科學技術創新推進事務局(科学技術・イノベーション推進事務局,以下簡稱科技事務局)釋出之立法概要,本次立法主要有兩大理由 [5]

一、國內AI技術開發、應用起步緩慢

科技事務局引用史丹佛大學於2024年所發布之《AI指數報告》(AI Index Report 2024),該份報告彙整2023年各國對於AI相關產業之民間投資額,如下圖所示。從此圖可知,作為世界主要經濟體的日本,對於AI的民間投資於2023年竟僅有6.8億美元,遠遠不及美國的670.22億美元、中國77.6億美元及英國37.8億美元。[6]


圖一、各國對於AI相關產業民間投資額統計
資料來源:STANFORD INSTITUTE FOR HUMAN-CENTERED AI [HAI], Artificial Intelligence Index Report (2024).

此外,根據日本總務省於2024年所發布之調查結果,如下圖所示,日本僅有9.1%的國民有使用過生成式AI之經驗,相較於中國的56.3%、美國的46.3%、英國的39.8%及德國的34.6%,仍有相當程度之落後。 [7]


圖二、各國國民使用過生成式AI之經驗調查
資料來源:総務省,令和6年版情報通信白書

不僅國民的AI使用率低,日本總務省亦針對企業將AI運用於其業務進行調查,如下圖所示,目前有在使用AI之企業僅有46.8%(包含已取得具體成效及尚未取得成效),其餘53.2%之企業則正在測試階段、正在商議導入或至今仍未討論導入。對比中國的95.1%、德國的80.6%及美國的78.7%,雖不如國民使用率落後,但仍有不少進步空間。[8]


圖三、各國企業業務中AI運用情形調查
資料來源:総務省,令和6年版情報通信白書

二、多數國民對於AI仍感到不安

科技事務局引用KPMG於2023年所發布的《全球AI信任研究報告》(Trust in AI: A Global Study 2023),僅有13%的日本國民認為現行法規已足以確保AI可被安全使用,亦低於中國的74%、德國的39%及美國的30%。此調查結果亦如實反映出有77%的日本國民迫切希望國內能針對AI訂定相關規範。[9]

除上述兩項主要理由外,考量日本有需要進一步促進創新發展、積極應對AI產生之風險,因此科技事務局決定訂立新的AI法規。

貳、立法重點

《人工智慧技術研究開發及應用促進法》總計28條,共分為四個章節,包含第一章總則(第1條至第10條)、第二章基本政策實施(第11條至第17條)、第三章人工智慧基本計畫(第18條)及第四章人工智慧戰略本部(第19條至第28條)。考量依法規條文及章節順序不易說明,以下將以科技事務局所提供之立法概要之脈絡進行說明。

一、目的

第1條即說明本法旨在全面且有計畫地制定AI相關政策,推動AI技術之研發與應用,以改善國民生活並為國民經濟發展做出貢獻。

二、基本理念

第3條亦規定AI技術之研發與應用應以提升AI產業之國際競爭力為目標,希冀藉由AI技術創造高效率新業務,並得以應用於國民日常生活與經濟活動之各階段,另考量AI技術若經不當使用,將有助漲犯罪行為或洩漏個資等風險發生之可能性,故應確保AI技術之正確使用。最後,同條亦規定日本應在AI技術之研發與應用上進行國際合作,並努力在國際合作中取得主導地位。

三、AI戰略本部

本法第四章皆為設立AI戰略本部相關之條文,第19條、第20條及第25條第2項規定AI戰略本部應由內閣所設立,其職責有以下兩項:

(一)研擬AI基本計畫草案,並推動相關事宜。

(二)促進AI相關技術研發及應用相關重要政策之規劃、提案及統籌協調等事宜。

(三)除本法規定的事項外,總部相關必要事項由政令規定。

為使AI戰略本部可順利履行上述職責,第25條賦予AI戰略本部認為有必要時,得向行政機關、地方公共團體、獨立行政機構、地方獨立行政機構的首長以及公共機關的代表,要求提供資料、發表意見、進行說明及提供其他必要協助。

第21條至第28條則為與本部組成相關之規定,其規定AI戰略本部組成成員包含以下三個職位:

(一)部長:由總理擔任,掌管總部事務,並領導監督總部工作人員。

(二)次長:由官房長官及AI戰略大臣(由總理任命)擔任,負責協助部長履行職責。

(三)由除部長、次長以外的所有國務大臣組成。

四、AI基本計畫

如上所述,AI戰略本部重要職責之一,即研擬AI基本計畫草案。依第18條規定,總理應將AI戰略本部所研擬之AI基本計畫草案,提請內閣決定是否同意草案內容,待內閣作成決定後,總理應立即公布AI基本計畫。

同條亦明定AI戰略本部應以前述第二節的基本理念及以下第五節的基本政策實施之相關規定為基礎,研擬AI基本計畫草案,其應涵蓋之事項包含:

(一)AI技術研發及應用政策實施的基本方針。

(二)為促進AI技術研發及應用,政府應全面性且有計畫地實施政策。

(三)政府為能全面性且有計畫地實施政策所採取的必要措施。

五、基本政策實施

第二章所涵蓋之第11條至第17條則規定政府應執行之基本政策實施事項,包含:

(一)促進AI技術研發

依第11條規定,國家應採取措施促進AI技術研發,使AI技術可順利從基礎研究階段進展至實際應用階段,並在研發機構間建立研發成果得以互相流通之制度,同時提供研發成果資訊。

(二)提升基礎設施建置與使用

依第12條規定,國家應採取措施建置AI基礎設施,包含AI技術研發及應用所需之大規模資料處理、資通訊、電磁紀錄儲存等設備及為特定目的所收集之資料集等,並使AI基礎設施得以廣泛供研發機構或企業所使用。

(三)確保符合國際規範

依第13條規定,國家應根據國際規範制定基本方針並採取其他必要措施,以確保AI技術之研發及應用得以適當之方式進行。

(四)確保人力資源

依第14條規定,國家應與地方政府、研發機構和企業緊密合作,並採取必要措施,以確保、培訓和提升各領域人才的專業素質,使其具備AI技術從基礎研究至實際應用於民眾生活或經濟活動之各階段所需之專業知識,並提升其專業知識之廣度及深度。

(五)提升教育

依第15條規定,國家應提升與AI技術相關之教育與學習、辦理推廣活動或採取其他必要措施,以增進大眾對AI技術之認知與興趣。

(六)研究調查

依第16條規定,國家應掌握國內外AI技術研發及應用之最新趨勢,並進行有助於AI技術研發及應用發展之研究與調查,包含分析因不正當目的或不適當方法研發應用所導致國民受侵害之案例,及針對不正當使用之因應對策。

同時,國家亦應根據此類研究調查成果,向研發機構、企業和其他人員提供指導、建議和最新資訊,並採取其他必要措施。

(七)國際合作

依第17條規定,國家應進行AI技術研發及應用之國際合作,積極參與國際規範之制定過程。

六、職責

第4條至第8條分別規定國家、地方政府、研發機構、企業與國民應各司其職,其職責分述如下:

(一)國家

依第4條規定,國家應依前述第二節的基本理念,制定並實施促進AI技術研發及應用之基本政策實施相關之計畫。此外,國家應在行政機關間積極應用AI技術,以提升行政效率。

(二)地方政府

依第5條規定,地方政府應依前述第二節的基本理念,在與國家進行適當分工後,結合各地方特色,制定並實施自主政策,以促進AI技術之研發及應用。

(三)研發機構

依第6條規定,大學及研發機構應依前述第二節的基本理念,積極進行AI技術之研發,推廣其成果,培育具有專業性和廣泛知識之人才,並協助國家與地方政府之政策實施,而國家與地方政府則應促進大學研究活動,尊重研究人員自主權及將各大學之特色納入考量。

此外,研發機構應進行跨領域或綜合性研發,同時為有效推動AI技術研發,應綜合考量人文科學及自然科學等領域之專業知識。

(四)企業

依第7條規定,任何企業有意開發或提供使用AI技術之產品或服務,或任何其他有意在其業務活動中使用AI技術,應依前述第二節的基本理念,提升其業務之效率和品質。

此外,上述企業應透過積極使用AI技術創造新興產業,並須配合執行國家依第4條所定之措施及地方政府依第5條所定之措施。

(五)國民

國民應依前述第二節的基本理念,加深對AI技術之認知與興趣,並盡可能配合執行國家依第4條所定之措施及地方政府依第5條所定之措施。

七、附帶決議

本次立法過程除條文本身外,5月27日內閣委員會亦通過20點附帶決議,針對政府實施本法時應採取之適當措施進行補充說明,以下摘錄重點說明 :[10]

(一)政府應以「以人為本之AI社會原則」為基礎,進行AI技術研發及應用。

(二)政府制定AI基本計畫和基本方針,或執行政策措施時,應將風險降至最低,並考量推廣AI之益處。

(三)企業和國民應充分了解AI應用之注意事項及規避風險之措施,並透過教育使國民了解AI合理使用方法及其風險。

(四)政府針對AI應用導致之失業或貧富差距擴大採取必要措施。

(五)政府應透過法規打擊AI技術之濫用,特別是利用兒童圖像產生之深偽色情內容,並加強對網站管理員刪除違法內容之監管,保護受害者。

(六)政府和民間機構將合作開發以日語為基礎之大型語言模型。

(七)政府應消除新創企業等新進者之壁壘,創造公平開放之市場環境。

(八)政府應將AI定位為國家戰略重要領域。

(九)政府應考慮電力供需,策略性地建設資料中心。

(十)政府應以跨學科之觀點強化對AI人才之培養,並確保足夠有投資。

(十一)政府應積極營造有利於國家、地方政府、企業應用AI之環境,並避免因營運效率提升而出現裁員情形。

(十二)政府應執行降低AI風險之措施,並進行公私合作以確保安全。

(十三)政府於進行調查和指導時,應避免施加過重之負擔或要求過多資訊揭露,同時考慮保護企業之商業機密等智慧財產權。

(十四)政府於國民權益受害之個案進行調查和指導時,應即時自企業或服務使用者和人工取得資訊,以便迅速發現個案並因應。

(十五)針對依《廣島人工智慧進程國際行為準則》負有報告義務之企業,政府應最大限度地減少其與現行國內法規之報告義務之重複。

(十六)政府應不斷修訂本法及其他相關計畫與方針,以確保AI應用能促進國民生活改善和國民經濟發展,並及時應對新風險。

(十七)AI戰略總部之組織架構,應消除各部會、機構垂直分工造成之弊端,並積極自民間招募人才。

(十八)政府應儘早成立由AI倫理、法律和社會議題等領域專家組成的智庫機構。

(十九)如出現現行法規難以因應之新風險,政府應考慮導入風險導向之概念,依風險等級而採取不同監管措施。

(二十)因應AI應用產生之智慧財產權相關侵權行為,政府應參考其他國家之情形,探討因應措施。

參、總結

日本緊接著韓國之後,成為亞洲第二個在法律層級通過AI法規的國家,惟相較歐盟或韓國通過的AI法,日本在法律條文的訂定上,主要是針對政府與各界之職責進行規範,而缺乏對於AI技術開發或應用風險之監管。儘管附帶決議中較多具體內容,仍須待AI基本計畫訂定後,日本對於AI技術開發或應用之監管模式才會有較清晰之雛形。

考量到日本尚有通過20點附帶決議,日後仍可關注AI戰略本部如何依據AI法及附帶決議擬定AI基本計畫,未來或可成為我國人工智慧法制政策規劃之參考依據。

[1]人工知能関連技術の研究開発及び活用の推進に関する法律案(第217回閣法第29号)。

[2]〈議案情報:人工知能関連技術の研究開発及び活用の推進に関する法律案〉,参議院,https://www.sangiin.go.jp/japanese/joho1/kousei/gian/217/meisai/m217080217029.htm(最後瀏覽日:2025年6月11日)。

[3]参議院,〈人工知能関連技術の研究開発及び活用の推進に関する法律案に対する附帯決議〉,https://www.sangiin.go.jp/japanese/gianjoho/ketsugi/current/f063_052701.pdf(最後瀏覽日:2025年6月11日)。

[4]人工知能関連技術の研究開発及び活用の推進に関する法律法律(令和7年法律第53号)。

[5]內閣府,〈人工知能関連技術の研究開発及び活用の推進に関する法律案(AI法案)概要〉,https://www.cao.go.jp/houan/pdf/217/217gaiyou_2.pdf(最後瀏覽日:2025年6月11日)。

[6]STANFORD INSTITUTE FOR HUMAN-CENTERED AI [HAI], Artificial Intelligence Index Report (2024), https://hai.stanford.edu/assets/files/hai_ai-index-report-2024-smaller2.pdf (last visited June 11, 2025)

[7]総務省,〈令和6年版情報通信白書〉,https://www.soumu.go.jp/johotsusintokei/whitepaper/ja/r06/pdf/n1510000.pdf(最後瀏覽日:2025年6月11日)。

[8]総務省,〈令和6年版情報通信白書〉,https://www.soumu.go.jp/johotsusintokei/whitepaper/ja/r06/pdf/n1510000.pdf(最後瀏覽日:2025年6月11日)。

[9]KPMG, Trust Inartificial Intelligence: Country Insights on Shifting Public Perceptions of AI (2023), https://assets.kpmg.com/content/dam/kpmgsites/xx/pdf/2023/09/trust-in-ai-country-insight.pdf.coredownload.inline.pdf (last visited June 11, 2025).

[10]参議院,〈人工知能関連技術の研究開発及び活用の推進に関する法律案に対する附帯決議〉,https://www.sangiin.go.jp/japanese/gianjoho/ketsugi/current/f063_052701.pdf(最後瀏覽日:2025年6月11日)。

※ 日本《人工智慧技術研究開發及應用促進法》簡介, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=9379&no=65&tp=1 (最後瀏覽日:2026/04/15)
引註此篇文章
你可能還會想看
歐盟提出人工智慧法律框架草案

  歐盟執委會於2020年2月公布《人工智慧白皮書》(AI White Paper)後,持續蒐集各方意見並提出新的人工智慧規範與行動。2021年4月針對人工智慧法律框架提出規範草案(Proposal for a Regulation on a European approach for Artificial Intelligence),透過規範確保人民與企業運用人工智慧時之安全及基本權利,藉以強化歐盟對人工智慧之應用、投資與創新。   新的人工智慧法律框架未來預計將統一適用於歐盟各成員國,而基於風險規範方法將人工智慧系統主要分為「不可接受之風險」、「高風險」、「有限風險」及「最小風險」四個等級。「不可接受之風險」因為對人類安全、生活及基本權利構成明顯威脅,故將被禁止使用,例如:政府進行大規模的公民評分系統;「高風險」則是透過正面例舉方式提出,包括:可能使公民生命或健康處於危險之中的關鍵基礎設施、教育或職業培訓、產品安全、勞工與就業、基本之私人或公共服務、可能會干擾基本權之司法應用、移民與庇護等面向,而高風險之人工智慧在進入市場之前須要先行遵守嚴格之義務,並進行適當風險評估及緩解措施等。「有限風險」則是指部分人工智慧應有透明度之義務,例如當用戶在與該人工智慧系統交流時,需要告知並使用戶意識到其正與人工智慧系統交流。最後則是「最小風險」,大部分人工智慧應屬此類型,因對公民造成很小或零風險,各草案並未規範此類人工智慧。   未來在人工智慧之治理方面,歐盟執委會建議各國現有管理市場之主管機關督導新規範之執行,且將成立歐洲人工智慧委員會(European Artificial Intelligence Board),推動人工智慧相關規範、標準及準則之發展,也將提出法規沙盒以促進可信賴及負責任之人工智慧。

歐洲個人資料保護委員會發布數位服務法與一般資料保護規則相互影響指引

「歐洲資料保護委員會」(European Data Protection Board, EDPB)於2025年9月12日發布《數位服務法》(Digital Services Act, DSA)與《一般資料保護規則》(General Data Protection Regulation, GDPR)交互影響指引(Guidelines 3/2025 on the interplay between the DSA and the GDPR)。這份指引闡明中介服務提供者(intermediary service providers)於履行DSA義務時,應如何解釋與適用GDPR。 DSA與GDPR如何交互影響? 處理個人資料的中介服務提供者,依據處理個資的目的和方式或僅代表他人處理個資,會被歸屬於GDPR框架下的控制者或處理者。此時,DSA與GDPR產生法規適用的交互重疊,服務提供者需同時符合DSA與GDPR的要求。具體而言,DSA與GDPR產生交互影響的關鍵領域為以下: 1.非法內容檢測(Illegal content detection):DSA第7條鼓勵中介服務提供者主動進行自發性調查,或採取其他旨在偵測、識別及移除非法內容或使其無法存取的措施。指引提醒,中介服務提供者為此採取的自發性行動仍須遵守GDPR要求的處理合法性,而此時最可能援引的合法性依據為GDPR第6條第1項第f款「合法利益」(legitimate interests)。 2.通知與申訴等程序:DSA所規定設通報與處置機制及內部申訴系統,於運作過程中如涉及個資之蒐集與處理,應符GDPR之規範。服務提供者僅得蒐集履行該義務所必須之個人資料,並應確保通報機制不以通報人識別為強制要件。若為確認非法內容之性質或依法須揭露通報人身分者,應事前告知通報人。同時,DSA第20條與第23條所規範之申訴及帳號停權程序,均不得損及資料主體所享有之權利與救濟可能。 3.禁止誤導性設計模式(Deceptive design patterns):DSA第25條第1項規範,線上平台服務提供者不得以欺騙或操縱其服務接收者之方式,或以其他實質扭曲或損害其服務接收者作出自由且知情決定之能力之方式,設計、組織或營運其線上介面,但DSA第25條第2項則宣示,線上平台提供者之欺瞞性設計行為若已受GDPR規範時,不在第25條第1項之禁止範圍內。指引指出,於判斷該行為是否屬 GDPR 適用範圍時,應評估其是否涉及個人資料之處理,及該設計對資料主體行為之影響是否與資料處理相關。指引並以具體案例補充,區分屬於及不屬於 GDPR 適用之欺瞞性設計模式,以利實務適用。 4.廣告透明度要求:DSA第26條為線上平台提供者制定有關廣告透明度的規範,並禁止基於GDPR第9條之特別類別資料投放廣告,導引出平台必須揭露分析之參數要求,且平台服務提供者應提供處理個資的法律依據。 5.推薦系統:線上平台提供者得於其推薦系統(recommender systems)中使用使用者之個人資料,以個人化顯示內容之順序或顯著程度。然而,推薦系統涉及對個人資料之推論及組合,其準確性與透明度均引發指引的關切,同時亦伴隨大規模及/或敏感性個人資料處理所帶來之潛在風險。指引提醒,不能排除推薦系統透過向使用者呈現特定內容之行為,構成GDPR第22條第1項的「自動化決策」(automated decision-making),提供者於提供不同推薦選項時,應平等呈現各項選擇,不得以設計或行為誘導使用者選擇基於剖析之系統。使用者選擇非剖析選項期間,提供者不得繼續蒐集或處理個人資料以進行剖析。 6.未成年人保護:指引指出,為了符合DSA第28條第1項及第2項所要求於線上平台服務中實施適當且相稱的措施,確保未成年人享有高度的隱私、安全與保障,相關的資料處理得以GDPR第6條第1項第c款「履行法定義務」作為合法依據。 7.系統性風險管理:DSA第34與35條要求超大型在線平台和在線搜索引擎的提供商管理其服務的系統性風險,包括非法內容的傳播以及隱私和個人數據保護等基本權利的風險。而指引進一步提醒,GDPR第25條所設計及預設之資料保護,可能有助於解決這些服務中發現的系統性風險,並且如果確定系統性風險,根據GDPR,應執行資料保護影響評估。 EDPB與其他監管機關的後續? EDPB的新聞稿進一步指出,EDPB正在持續與其監管關機關合作,以釐清跨法規監理體系並確保個資保護保障之一致性。後續進一步的跨法域的指引,包含《數位市場法》(Digital Markets Act, DMA)、《人工智慧法》(Artificial Intelligence Act, AIA)與GDPR的相互影響指引,正在持續制定中,值得後續持續留意。

美國國家標準與技術研究院公布人工智慧風險管理框架(AI RMF 1.0)

美國國家標準與技術研究院(National Institute of Standards and Technology, NIST)於2023年1月26日公布「人工智慧風險管理框架1.0」(Artificial Intelligence Risk Management Framework, AI RMF 1.0),該自願性框架提供相關資源,以協助組織與個人管理人工智慧風險,並促進可信賴的人工智慧(Trustworthy AI)之設計、開發與使用。NIST曾於2021年7月29日提出「人工智慧風險管理框架」草案進行公眾徵詢,獲得業界之建議包含框架應有明確之衡量方法以及數值指標、人工智慧系統設計時應先思考整體系統之假設於真實世界中運作時,是否會產生公平性或誤差的問題等。本框架將隨著各界使用後的意見回饋持續更新,期待各產業發展出適合自己的使用方式。 本框架首先說明人工智慧技術的風險與其他科技的差異,定義人工智慧與可信賴的人工智慧,並指出設計該自願性框架的目的。再來,其分析人工智慧風險管理的困難,並用人工智慧的生命週期定義出風險管理相關人員(AI actors)。本框架提供七種評估人工智慧系統之信賴度的特徵,包含有效且可靠(valid and reliable):有客觀證據證明人工智慧系統的有效性與系統穩定度;安全性(safe):包含生命、健康、財產、環境安全,且應依照安全風險種類決定管理上的優先次序;資安與韌性(secure and resilient);可歸責與資訊透明度(accountable and transparent);可解釋性與可詮譯性(explainable and interpretable);隱私保護(privacy-enhanced);公平性—有害偏見管理(fair – with harmful bias managed)。 本框架亦提出人工智慧風險管理框架核心(AI RMF Core)概念,包含四項主要功能:治理、映射(mapping)、量測與管理。其中,治理功能為一切的基礎,負責孕育風險管理文化。各項功能皆有具體項目與子項目,並對應特定行動和結果產出。NIST同時公布「人工智慧風險管理框架教戰手冊」(AI RMF Playbook),提供實際做法之建議,並鼓勵業界分享其具體成果供他人參考。

德國聯邦政府內閣通過自駕車草案

德國聯邦政府內閣通過自駕車草案 資訊工業策進會科技法律研究所 2021年3月10日   德國聯邦交通與數位基礎設施部(Bundesministerium für Verkehr und digitale Infrastruktur, BMVI)提出之自駕車草案(Entwurf eines Gesetzes zur Änderung des Straßenverkehrsgesetzes und des Pflichtversicherungsgesetzes – Gesetz zum autonomen Fahren[1]),經聯邦政府內閣(Kabinett)於2021年2月10日批准通過。BMVI表示冀望透過該草案創建自駕車的法律框架,針對自駕車布建與落地應用之相關程序進行規定,以使指定運行範圍(festgelegter Betriebsbereich[2])為全國公共道路的等級四自駕車(Vollautomatisiertes Fahren)能夠成為人民日常生活的一環。 壹、背景目的   2017年3月,德國聯邦議會(Deutsche Bundestag)通過道路交通法(Straßenverkehrsgesetzes, StVG)修正案,修正過後之道路交通法針對具高度與完全自動駕駛功能(hoch- und vollautomatisierter Fahrfunktion)的車輛─約等同於SAE等級三與等級四之自駕車─進行規範,明確規定在操作設計範圍(Operational Design Domain, ODD)允許自駕車操作,如專為於高速公路上行駛設計之自駕車,則在該模式下不得於其他交通道路上行駛[3],該修正亦針對駕駛人[4]的概念與責任範圍進行重新定義[5]。   本次針對自動駕駛制定之草案係以包裹立法之方式,除同樣於道路交通法進行條文的增定(第1d條至第1l條)外,並修正強制汽車責任保險法(Pflichtversicherungsgesetz, PflVG)第1條,增加道路交通法規第1d條所指自駕車車主(Halter[6])的保險責任。目標為使德國成為全球首個將自駕車自研究階段帶入日常生活中之國家,並預計於2022年實現其構想。 貳、內容摘要   道路交通法規增訂之第1d條至第1l條內容概述如下: 一、第1d條:定義   本條定義道路交通法所涉及之自動駕駛相關詞彙,包含自駕車、指定運行範圍、自駕車技術監控者,以及最小風險條件。 二、第1e條:允許車輛運行自動駕駛之條件   本條規範允許車輛運行自動駕駛之條件,包含需符合規定的技術要求、已受核發行駛許可、依各邦法律主管機關批准於指定運行範圍內使用、根據道路交通法第1條第1項允許於公路上行駛等條件;本條亦針對技術設備所必備的功能進行詳細描述,如車輛得自行遵守相關交通法規、自駕系統可隨時藉由技術監控者加以停用並將車輛置於最小風險狀態,以及自駕系統在以視覺、聽覺或其他可感知方式要求技術監控者進行手動駕駛前,預留有足夠的反應時間等。 三、第1f條:使自駕車運行之相關人員(Beteiligten)義務   本條要求自駕車之車主為維護道路安全和環境相容性(Umweltverträglichkeit),需定期進行自駕系統的更新與維護、確保於手動駕駛時遵守道路交通規定,以及履行技術監控任務。在對自駕車進行技術監控時,當接收到系統以視覺、聽覺或其他可感知方式通知技術監控者,並要求切換操作模式時,技術監控者應立即改為手動駕駛模式,並採取必要之安全措施。另外本條要求自駕車之製造商有義務對自駕車進行風險評估,確保其電子電機架構(Electronic & Electrical Architecture, EEA)與聯網系統的安全性,並向德國聯邦車輛運輸管理局(Kraftfahrt-Bundesamt, KBA)和其他有關主管機關提出證明。 四、第1g條:資料處理   本條課予自駕車之車主及製造商特定義務,要求車主在駕駛自駕車時,於特定情況下進行指定資料類型之保存及傳輸;在製造商部分,則要求其需以簡單、清晰且明確的方式,告知車輛之車主隱私設置選項以及駕駛過程中資料係如何被處理。另本條授權KBA於有安全上之必要時,向車輛之車主進行資料的蒐集、儲存與使用。 五、第1h條:自動駕駛功能的追溯啟用   當動力車輛設置未符合本法所適用之國際法規所描述之自動駕駛功能,僅當停用自動駕駛功能,而不影響車輛其他功能時,方可不考量自動駕駛功能未符合國際法規描述之情況,允許依相關審驗規定運行車輛。 六、第1i條:自動駕駛功能的測試   仍處於測試開發階段之自駕車僅在經KBA核發測試許可、已根據本法第1條第1項進行註冊的情況下,方得於公共道路上行駛,且該行駛必須基於測試目的,過程中亦必須持續進行技術監控。 七、第1j條:授權   經聯邦參議院(Bundesrat)批准之法令授權,BMVI可就道路交通法第1d條至第1i條之公共道路上具自駕功能車輛的許可和操作進行細節性規定。 八、第1k條:德國聯邦國防軍隊、聯邦警察、各邦警察、民防與災難控制、消防隊和緊急服務的車輛   為執行官方任務而有配置自駕車的需要時,若能確保使用自駕車時充分考慮公共安全,則允許相關技術規範、操作設計範圍規範,與其他行駛相關規範之適用排除。 九、第1l條:評估   基於自駕車研發過程可能產生的影響與其和資料保護法規的相容性,BMVI將於2023年底前,以根據本法第1i條第2項所取得之測試資料進行評估,並將評估結果交予聯邦議會。 參、簡析   由BMVI所提出之針對自駕車的草案目前正於聯邦議會及參議院的程序進行中,預計可於2021年中通過。與2017年之道路交通法修正案進行比較,2017年之修正主要目的係使自駕車能夠受道路交通法規之規範,故將自駕車以正面表列之方式,增列入道路交通法規對車輛之定義中,並對駕駛人之義務進行規範,而較少針對自駕車特性制定專門之規定;與之相比,綜觀本次修正草案之內容,可總結出草案係針對未來可於公路上行駛之自駕車結構、品質與設備制定一致性的技術標準要求,規範操作相關人員應行使之義務如自駕系統更新、資料保存、安全性證明與風險評估等,並就操作執照的審查與自駕車測試相關程序進行制定,透過針對自駕車之發展與落實所需進行法條內容之設計,力圖藉此於促進自駕車發展與落實的同時,進一步推動德國道路交通法規之調節與一致性規範之創設。   我國政府長期以來致力於自駕車科技的研發與實驗,2019年6月施行之無人載具科技創新實驗條例以沙盒之概念,於自駕車實驗的範圍內進行特定法規與條件的排除,使技術的研發與測試能不受現有之規範或特定條件限制,最終期望能將自駕車實際投入現有交通體系中使用。為使我國法制環境能與技術發展相互配合,建議可參考德國自動駕駛法草案之內容,在確保公共安全的基礎上,於我國制定自駕車之公路行駛規範,以協助自駕車技術於交通體系之落實。    [1]Bundesministerium für Verkehr und digitale Infrastruktur ,Entwurf eines Gesetzes zur Änderung des Straßenverkehrsgesetzes und des Pflichtversicherungsgesetzes – Gesetz zum autonomen Fahren (2021), https://www.bmvi.de/SharedDocs/DE/Anlage/Gesetze/Gesetze-19/gesetz-aenderung-strassenverkehrsgesetz-pflichtversicherungsgesetz-autonomes-fahren.pdf?__blob=publicationFile (last visited Mar. 10, 2021). [2]指定運行範圍(festgelegter Betriebsbereich)於草案第1d條中之定義為「當地與空間上確定之公共道路」,應非普遍所指操作設計範圍(Operational Design Domain, ODD),特於此說明以避免混淆。 [3]Deutsche Bundestag, Straßen­verkehrsgesetz für automatisiertes Fahren geändert (Mar. 30, 2017), https://www.bundestag.de/dokumente/textarchiv/2017/kw13-de-automatisiertes-fahren-499928 (last visited Mar. 10, 2021). [4]2017年道路交通法之修正係針對駕駛人(Fahrzeugführer)之概念與責任範圍進行重新定義,而非針對車主(Fahrzeughalter/Halter),特於此敘明。 [5]§§1a,1b,63a StVG. [6]車主(Fahrzeughalter/Halter)與所有人(Eigentümer)之概念於德國道路交通法上非完全相等,普遍情況兩者為同一人,但在少數情況則否,以車輛租賃為例,在此車輛之出租人為所有人,而車輛之承租人為車主,特於此敘明。

TOP