國際海事組織海事安全委員會決議於2025年前制定非強制性自駕船國際章程

  國際海事組織(International Maritime Organization,下稱IMO)於2022年4月20日至29日於線上召開為期9天的海事安全委員會(Maritime Safety Committee,下稱MSC)第105屆例會,會議重點係咸稱之自駕船——亦即海上自動化水面船舶(Maritime Autonomous Surface Ship,下稱MASS)之航行與操作規則。本屆會議總結並延續了MSC近年針對MASS的工作,包括2018年提出MASS實驗框架規範,以及2021年提出MASS法制框架評估等。本屆會議除了賡續規劃MASS的法制路線圖(Roadmap)外,鑒於船舶相關智慧科技快速發展,MSC決議於2025年之前,針對各級MASS制定非強制性(voluntary)之章程及規定後,蒐集各國的實務經驗與意見,再於2027年將其轉為強制性(mandatory)的規定,以於2028年生效並適用於IMO全體會員國。

  部分會員國(例如日本)從造船技術出發,建議未來的MASS指南與規範內容應全面覆蓋船舶的設計、建造、系統、設備的功能要求。挪威則建議應按第103屆會議所盤點之法規,優先處理「人員」相關議題,包括船員、船長及遠端操作員的資格,以及當值與行為準則等。韓國則建議,即便是等級最高的全自駕船,亦不可能全面取代人為操作,因此MASS的法制應以「人機協同」為基礎,方能合乎SOLAS公約與IMO促進海上航行安全的目的及宗旨。最後,各國亦擬議將MASS規範優先適用於「貨船」,而非「客船」。本屆會議顯示IMO已加快MASS法制工作的進程並規劃具體之立法期程,我國除了在《無人載具科技創新實驗條例》建立的監理沙盒下已有兩件自駕船實驗案,未來勢必需要對接國際海事規範,航政機關實須提前因應及規劃。

本文為「經濟部產業技術司科技專案成果」

相關連結
※ 國際海事組織海事安全委員會決議於2025年前制定非強制性自駕船國際章程, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8834&no=67&tp=1 (最後瀏覽日:2026/03/10)
引註此篇文章
科法觀點
你可能還會想看
美國創新戰略推動下科技政策與重要法案之觀察

全美各州醫療委員會聯合會發布人工智慧(AI)治理指引,並要求醫師為AI之利用結果負最終責任

全美各州醫療委員會聯合會(The Federation of State Medical Boards, FSMB)於2024年4月發布「引導人工智慧以負責任與符合倫理方式融入臨床實務」(Navigating the Responsible and Ethical Incorporation of Artificial Intelligence into Clinical Practice)指引,明確概述醫師於利用AI協助提供照護時可採取之步驟,以履行其倫理與專業職責,期能藉此降低對患者造成傷害之風險;本指引之特色在於,其要求醫師為AI之利用結果負最終之責任。 FSMB 向各州醫療委員會與其他利害關係人所提供之原則與建議如下,以支持對包含AI之臨床照護進行負責任與符合倫理之監管: (1)透明度與揭露(Transparency and Disclosure): 應要求維持於醫療照護領域使用AI之透明度;各州醫療委員會應制定明確之指導方針,向患者揭露AI之使用情況,其有助於患者與醫師之理解,但不會造成不必要之行政負擔;FSMB 應制定文件,詳細說明最常用之AI工具之功能與局限性,以協助醫療委員會發揮監管者之角色,並應制定常見問題與最佳實務文件,作為提供照護時利用AI方面關於透明度之資源。 (2)教育與理解(Education and Understanding): FSMB及其於醫學教育界之合作夥伴,應為醫師、醫療委員會與患者,確認有關醫療照護中AI之結構化教育資源,該等資源應包括協助瞭解AI如何運作、其優點、潛在風險以及對患者照護之影響。 (3)負責任之使用與問責(Responsible Use and Accountability): 開發人員應協助醫師瞭解何時、以及如何於患者之照護中利用AI工具;選擇AI工具支援臨床決策之醫院系統、保險公司或其他機構應向醫師提供有關AI工具之教育、存取各工具之性能報告,並應設計一個定期檢視工具功效的流程;AI工具應以得使各州醫療委員會能稽核與理解之方式設計,以便適當評估依賴工具輸出結果之醫師是否偏離照護標準(standard of care);FSMB 應支持各州醫療委員會針對臨床醫師如何負責任、可問責地使用AI之解釋。 (4)公平性與近用(Equity and Access): 應努力確保所有患者皆能公平地近用AI帶來之好處;FSMB與各州醫療委員會致力於以下原則:醫療人員所提供之照護是公平的、且不受基於種族、民族或其他形式歧視之偏見影響;FSMB應與其他利害關係人一起理解並解決演算法偏差問題。 (5)隱私與資料安全(Privacy and Data Security): AI工具之開發者必須實施嚴格之保護措施,以保護AI開發與評估時所利用之患者資料,通常情況下應告知患者資料如何被利用,且FSMB應與行業利害相關人一起制定AI系統使用與散布患者資料之政策,包括針對AI開發或評估中使用之患者資料之最低資料保護措施。 (6)監督與監管(Oversight and Regulation): 各州醫療委員會必須保留對於提供醫療服務時,不當應用AI工具之醫生進行紀律處分之權力,其包括問責議題之考慮,特別是當AI系統變得更加自主時;各州醫療委員會應審查其管轄範圍內如何對「醫療行為」(practice of medicine)進行法律定義,以確保對提供醫療照護、人力或其他方面進行持續之監管監督。 (7)法律法規之持續審查與調整(Continual Review and Adaptation of Law and Regulations): 各州醫療委員會應在FSMB之支持下,隨著AI之不斷發展,持續檢視與更新與AI相關之指引與法規;政策制定者應考慮AI對基本法律原則的影響,例如醫療行為之定義以及AI對企業醫學實務之影響;FSMB 應建立一個專門團隊,持續檢視與調整AI指引與法規。 本指引指出,AI工具通常無能力取代醫師之專業判斷、道德責任或對州醫療委員會之責任,醫療行為中之關鍵職業責任始終為確保診斷、臨床決策與建議不存在偏差。與用於診斷或治療疾病之任何其他工具或鑑別方法相同,醫療專業人員有責任確保基於證據結論之準確性與真實性,因此於將AI系統用於患者照護前,醫師應以合理努力識別與解決偏差(如虛假或不準確之資訊等)。

日本通過國家戰略特別區域法修正案

  日本國會在2020年5月27日通過《國家戰略特別區域法》修正案(国家戦略特別区域法の一部を改正する法律),亦即「超級城市法」(スーパーシティ法)。所謂超級城市,係指符合(1)在交通、物流、支付、行政、醫療、照護、教育、能源/水、環境/垃圾、防災/安全等10大領域中,至少滿足其中5個領域日常生活需求;(2)加速實現未來社會生活;(3)透過民眾參與,建立從民眾觀點出發之理想社會等三大條件之未來都市。   超級城市法修正重點有二,首先為實現超級城市構想之相關制度整備,包括(1)賦予蒐集、整理、提供各種類型服務相關資料之資料聯合平台(データ連携基盤)業者法律上地位;(2)因相關制度涉及不同法規及主管機關,故超級城市法內特別設計可併同檢討跨領域法規修正之特別程序;(3)其他規定︰如明定各中央政府機關應提供具體協助、應檢討制定Open API規範,以及本法施行後3年應檢討施行狀況等。其次,本次修法新增地區限定型之監理沙盒制度(地域限定型規制のサンドボックス制度),針對自駕車、無人機等科技創新實驗,透過強化事後監督體制,事前放寬道路運輸車輛法、道路交通法、航空法、電信法之限制,以加速實驗進行。

世界經濟論壇發布《贏得數位信任:可信賴的技術決策》

  世界經濟論壇(World Economic Forum, WEF)於2022年11月15日發布《贏得數位信任:可信賴的技術決策》(Earning Digital Trust: Decision-Making for Trustworthy Technologies),期望透過建立數位信任框架(digital trust framework)以解決技術開發及使用之間對數位信任之挑戰。   由於人工智慧及物聯網之發展,無論個人資料使用安全性還是演算法預測,都可能削弱人民對科技發展之信賴。本報告提出數位信任路線圖(Digital trust roadmap),說明建立數位信任框架所需的步驟,以鼓勵組織超越合規性,指導領導者尋求符合個人與社會期望之全面措施行動,以實現數位信任。路線圖共分為四步驟:   1.承諾及領導(commit and lead):數位信任需要最高領導階層之承諾才能成功,故需將數位信任與組織戰略或核心價值結合,並從關鍵業務領域中(例如產品開發、行銷、風險管理及隱私與網路安全)即納入數位信任概念。   2.規劃及設計(plan and design):透過數位信任差距評估(digital trust gap assessment)以瞭解組織目前之狀態或差距,評估報告應包括目前狀態說明;期望達成目標建議;治理、風險管理與合規性(governance, risk management and compliance, GRC)調查結果;將帶來之益處及可減輕之風險;計畫時程表;團隊人員及可用工具;對組織之影響等。   3.建立及整合(build and integrate):實現數位信任需關注人員、流程及技術等三大面向。首先需確保人員能力、達成該能力所需之資源,以及人員溝通與管理;第二,定義組織數位信任流程,包括制定計劃所需時程、預算及優先實施領域,調整目前現有管理流程,並識別現有資料資產;最後,針對技術使用,可考慮使用AI監控、雲端管理系統以及區塊鏈等,以監測資料之使用正確性及近用權限管理。   4.監控及滾動調整(monitor and sustain):建立數位信任框架後,需持續建構相關績效及風險評估程序,以確保框架之穩定,並根據不斷變化的數位信任期望持續改善,以及定期向董事會報告。

TOP