日本國土交通省公布最後一哩路自駕車系統指引

  為促進自駕車研發和推廣,日本國土交通省召集產官學研各界成立先進安全汽車(Advanced Safety Vehicle, ASV)推進檢討會,檢討設計自駕車時之注意事項,並於2020年7月17日公布「最後一哩路自駕車系統基本設計書」(ラストマイル自動運転車両システム基本設計書),希望能藉此達成確保地方交通運輸能量及加速自駕車落地之目標。

  「最後一哩路自駕車系統基本設計書」將操作適用範圍(Operational Design Domain, ODD)定義為限定區域或駕駛環境條件,並提出所有自駕車應具備之共通ODD,包括(1)道路/地理條件︰目標道路、行駛道路;(2)環境條件︰時間、天氣;(3)行駛條件︰行駛速度;(4)行駛空間︰可支援自駕車行駛之基礎設施,以及可提醒用路人注意正在進行自駕車實驗之設施。此外,由於不同應用情境會影響ODD之設定,故本書以限定路線下往返之自駕車為代表,說明在個案中該如何進一步檢討ODD。以行駛速度為例,在共通ODD中,最後一哩路自駕車時速應為30公里,但在提供限定路線內往返之載客服務時,自駕車的時速應設定在12公里以下。最後,「最後一哩路自駕車系統基本設計書」內整理最後一哩路自駕車共通及特有之技術要件,以及設計時應留意和確認的問題。

本文為「經濟部產業技術司科技專案成果」

相關連結
※ 日本國土交通省公布最後一哩路自駕車系統指引, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw//article-detail.aspx?d=8547&no=67&tp=5 (最後瀏覽日:2026/05/09)
引註此篇文章
你可能還會想看
歐盟發布資料法案草案

  2022年2月23日,歐盟委員會(European Commission,以下簡稱委員會)公開資料法案草案(Data Act,以下簡稱草案),基於促進資料共享的目的,草案其中一個目標是使不同規模的企業、用戶在資料利用上有著更加平等的地位,內容包含確保用戶資料可攜性、打破資料存取限制、推動大型企業的資料共享,扶植微/小型企業等幾大方向。   以下就草案對大型企業要求的義務切入,說明草案所帶來的影響: 確保用戶訪問資料的權利: 基本資訊的告知,包含所蒐集資料性質以及訪問方式、使用資料的目的;用戶可在不同產品/服務提供者(以下簡稱提供者)之間切換,且提供者須有技術支援;提供者需要有合理技術,避免資料在未經授權被查閱。 對於提供者的限制: 提供者不得將所蒐集的資料用於取得用戶的經濟地位、資產、使用喜好;具守門人性質的企業不得採取獎勵措施以鼓勵用戶提供自其他提供者處所取得的資料;提供者提供資料可以收取補償,但必須以公平、合理、非歧視、透明的方式為之,需要提供補償計算方式與基礎。 對於微/小/中型企業的保護 提供者對於微/小型企業所收取的資料補償,不得超過提供資料所需的成本;提供者利用市場優勢,對於微/小/中型企業的不合理/公平的約定無效(如單方面免除一方的重大過失/故意行為的責任)。   該資料法案草案須經歐盟議會(European Parliament)通過後才會生效,目前草案規定只要有在歐盟提供物聯網產品或服務之企業,就須遵守草案內容規範,考量到網路服務可跨國提供服務,草案規範與進度仍值得國內企業關注。 「本文同步刊登於TIPS網站(https://www.tips.org.tw )」

青少年在網路使用安全的議題上需要更多的協助及指引

  為瞭解兒童及青少年透過行動裝置接取網路不當內容(inappropriate content)之情形,以及父母或監護人如何限制孩子使用網路設備等議題,英國通訊管理局(Office of Communications, Ofcom)委託英國第二大研究機構Ipsos MORI於2009年3-4月間,與797組7-16歲的兒童及青少年進行面對面的親子訪談,並於2009年9月公布該調查之研究結果。   根據該份兒童及青少年接取網路內容訪談的研究報告(Children’s and young people’s access to online content on mobile devices, games consoles and portable media players)顯示,分別有90%及74%的兒童及青少年透過遊戲裝置及行動電話使用接取網路,利用其他多媒體影音裝置上網的則占13%。另外有三分之二透過行動電話上網的使用者,可自由瀏覽及接取網路內容,而無任何內容分級或不當內容接取上的限制。該研究報告同時亦指出,對於使用行動電話上網的兒童及青少年,僅有10%的父母及監護人「非常關心」(major concerns)其瀏覽或接取不當網頁內容的問題;而使用遊戲裝置上網的兒童及青少年中,僅有11%的父母或監護人「非常關心」其對於接取或瀏覽不當內容之問題。對於兒童及青少年利用行動電話上網的管制議題上,父母及監護人多半透過通話及簡訊的使用量來限制兒童及青少年使用行動電話,而非直接要求兒童及青少年禁止其上網瀏覽不當的內容或教導其如何安全的使用網路。此外,就兒童及青少年本身使用網路所遇到的安全性問題上,介於11-16歲的青少年有54%表示,其需要有關如何維護隱私權及個人資料的建議與協助;而28%的青少年則提及,其需要資訊安全的建議,尤其是如何強化密碼及個人識別碼(personal identification numbers, PINs);至於7-11歲的兒童則多以「不知道」來回答調查問卷上的問題。   藉由該份研究報告數據的公開,英國政府開始針對兒童及青少年透過行動裝置使用網路之安全性問題進行研議,期望透過更多的宣導與教育,使父母及監護人更為關心兒童及青少年網路內容帶來的身心健康影響,並提昇父母、監護人、兒童及青少年對於網路使用的安全意識,以建立兒童及青少年對於網路安全的正確觀念。

世界衛生組織發布歐洲區域人工智慧於醫療系統準備情況報告,責任規則為最重要之關鍵政策因素

世界衛生組織發布歐洲區域人工智慧於醫療系統準備情況報告,責任規則為最重要之關鍵政策因素 資訊工業策進會科技法律研究所 2025年12月18日 世界衛生組織(World Health Organization, WHO)於2025年11月19日發布「人工智慧正在重塑醫療系統:世衛組織歐洲區域準備情況報告」(Artificial intelligence is reshaping health systems: state of readiness across the WHO European Region)[1],本報告為2024年至2025年於WHO歐洲區域醫療照護領域人工智慧(AI for health care)調查結果,借鑒50個成員國之經驗,檢視各國之國家戰略、治理模式、法律與倫理框架、勞動力準備、資料治理、利益相關者參與、私部門角色以及AI應用之普及情況,探討各國如何應對AI於醫療系統中之機會與挑戰。其中責任規則(liability rules)之建立,為成員國認為係推動AI於醫療照護領域廣泛應用之最重要關鍵政策因素,因此本報告建議應明確開發者、臨床醫生、資料提供者與醫療機構之責任,透過救濟與執法管道以保護病患與醫療系統之權益。 壹、事件摘要 本報告發現調查對象中僅有8%成員國已發布國家級醫療領域特定AI策略(national health-specific AI strategy),顯示此處仍有相當大之缺口需要補足。而就醫療領域AI之法律、政策與指導方針框架方面,46%之成員國已評估於現有法律及政策相對於醫療衛生領域AI系統不足之處;54%之成員國已設立監管機構以評估與核准AI系統;惟僅有8%之成員國已制定醫療領域AI之責任標準(liability standards for AI in health),更僅有6%之成員國就醫療照護領域之生成式AI系統提出法律要求。依此可知,成員國對於AI政策之優先事項通常集中於醫療領域AI系統之採購、開發與使用,而對個人或群體不利影響之重視與責任標準之建立仍然有限。於缺乏明確責任標準之情況下,可能會導致臨床醫師對AI之依賴猶豫不決,或者相反地過度依賴AI,從而增加病患安全風險。 就可信賴AI之醫療資料治理方面(health data governance for trustworthy AI),66%成員國已制定專門之國家醫療資料戰略,76%成員國已建立或正在制定醫療資料治理框架,66%成員國已建立區域或國家級醫療資料中心(health data hub),30%成員國已發布關於醫療資料二次利用之指引(the secondary use of health data),30%成員國已制定規則,促進以研究為目的之跨境共享醫療資料(cross-border sharing of health data for research purposes)。依此,許多成員國已在制定國家醫療資料戰略與建立治理框架方面取得顯著進展,惟資料二次利用與跨境利用等領域仍較遲滯,這些資料問題仍需解決,以避免產生技術先進卻無法完全滿足臨床或公衛需求之工具。 就於醫療照護領域採用AI之障礙,有高達86%之成員國認為,最主要之障礙為法律之不確定性(legal uncertainty),其次之障礙為78%之成員國所認為之財務可負擔性(financial affordability);依此,雖AI之採用具有前景,惟仍受到監管不確定性、倫理挑戰、監管不力與資金障礙之限制;而財務上之資金障礙,包括高昂之基礎設施成本、持續員工培訓、有限之健保給付與先進AI系統訂閱費用皆限制AI之普及,特別於規模較小或資源有限之醫療系統中。 就推動AI於醫療照護領域廣泛應用之關鍵政策因素,有高達92%之成員國認為是責任規則(liability rules),其次有90%之成員國認為是關於透明度、可驗證性與可解釋性之指引。依此,幾乎所有成員國皆認為,明確AI系統製造商、部署者與使用者之責任規則為政策上之關鍵推動因素,且確保AI解決方案之透明度、可驗證性與可解釋性之指引,也被認為是信任AI所驅動成果之必要條件。 貳、重點說明 因有高達9成之成員國認為責任規則為推動AI於醫療照護領域廣泛應用之關鍵政策因素,為促進AI應用,本報告建議應明確開發者、臨床醫生、資料提供者與醫療機構之責任,並建立相應機制,以便於AI系統造成損害時及時補救與追究責任,此可確保AI生命週期中每個參與者都能瞭解自身之義務,責任透明,並透過可及之救濟與執法管道以保護病患與醫療系統之權益;以及可利用監管沙盒,使監管機構、開發人員與醫療機構能夠在真實但風險較低之環境中進行合作,從而於監管監督下,於廣泛部署前能及早發現安全、倫理與效能問題,同時促進創新。 此外,WHO歐洲區域官員指出,此次調查結果顯示AI於醫療領域之革命已開始,惟準備程度、能力與治理水準尚未完全跟進,因此呼籲醫療領域之領導者與決策者們可考慮往以下四個方向前進[2]: 1.應有目的性地管理AI:使AI安全、合乎倫理與符合人權; 2.應投資人才:因科技無法治癒病人,人才是治癒病人之根本; 3.需建構可信賴之資料生態系:若大眾對資料缺乏信任,創新就會失敗; 4.需進行跨國合作:AI無國界,合作亦不應受限於國界。 參、事件評析 AI於醫療系統之應用實際上已大幅開展,就歐洲之調查可知,目前雖多數國家已致力於AI於醫材監管法規與資料利用規則之建立,據以推動與監管AI醫療科技之發展,惟由於醫療涉及患者生命身體之健康安全,因此絕大多數國家皆同意,真正影響AI於醫療領域利用之因素,為責任規則之建立,然而,調查結果顯示,實際上已建立醫療領域AI之責任標準者,卻僅有8%之成員國(50個國家中僅有4個國家已建立標準),意味著其為重要之真空地帶,亟待責任法制上之發展與填補,以使廠商願意繼續開發先進AI醫療器材、醫療從業人員願意利用AI醫療科技增進患者福祉,亦使患者於受害時得以獲得適當救濟。亦即是,當有明確之責任歸屬規則,各方當事人方能據以瞭解與評估將AI技術應用於醫療可能帶來之風險與機會,新興AI醫療科技才能真正被信任與利用,而帶來廣泛推廣促進醫療進步之效益。由於保護患者之健康安全為醫療領域之普世價值,此項結論應不僅得適用於歐洲,對於世界各國亦應同樣適用,未來觀察各國於AI醫療領域之責任規則發展,對於我國推廣AI醫療之落地應用亦應具有重要參考價值。 [1] Artificial intelligence is reshaping health systems: state of readiness across the WHO European Region, WHO, Nov. 19, 2025, https://iris.who.int/items/84f1c491-c9d0-4bb3-83cf-3a6f4bf3c3b1 (last visited Dec. 9, 2025). [2] Humanity Must Hold the Pen: The European Region Can Write the Story of Ethical AI for Health, Georgia Today, Dec. 8, 2025,https://georgiatoday.ge/humanity-must-hold-the-pen-the-european-region-can-write-the-story-of-ethical-ai-for-health/ (last visited Dec. 9, 2025).

從英國 NHS 國家 IT 計畫看電子病歷之推動:以病患個人資訊隱私保護為中心

TOP