英格蘭與威爾斯法律委員會(The Law Commission of England and Wales)與蘇格蘭法律委員會(The Scottish Law Commission)於2022年1月26日聯合提出¬「自駕車修法建議報告(Automated Vehicles: joint report)」,總結其自2018年來三次公眾意見諮詢之回應分析,提出75項法律修正建議,提交英格蘭及蘇格蘭議會決議是否採納並修法。
修法建議範圍涵蓋廣泛,重要突破性建議包含:
(1)整合英國原有之《2018自動與電動車法(Automated and Electric Vehicles Act 2018)》中自駕車之認定標準,訂定一套雙階段自動駕駛認證許可制度,於第一階段審驗「整車」之規格是否符合國際或國內車輛型式安全審驗標準,並於第二階段審驗¬¬¬「個別自駕功能」是否能符合國內交通法規。
(2)提出「主責使用者(User-In-Charge, UIC)」概念,若車輛設計為在某些情形下需要人工接手駕駛,則自動駕駛系統(Automated Driving System, ADS)啟動時,坐在車內駕駛座之自然人即為UIC。
(3)對於不需要UIC車輛(No User-In-Charge, NUIC)營運平台業者,以及合法自駕車業者(Authorized Self-Driving Entities, ASDE),提出資格條件要求,包含必須具備良好名聲、財務穩健,必須向主管機關提交安全案例(safety cases)等。
(4)因《2018自動與電動車法》中已有要求自駕車均須投保保險,因此當自駕車造成車禍及損傷,不需先經確認有無人為故意過失,即可先行以保險進行賠償。事後若保險公司認為自駕車設計製造者有責任,得再依商品責任規範轉向車廠求償。
(5)而為了幫助事故調查、釐清責任,自駕車相關資料之持有者(如ASDE)應將相關資料保存3年又3個月,以配合侵權行為之法律請求權時效。
本分報告綜合各方意見,以務實之態度提出具體修法建議,深具參考價值,值得我國深入研析。
本文為「經濟部產業技術司科技專案成果」
世界衛生組織(World Health Organization, WHO)於2023年10月19日發布「人工智慧於健康領域之監管考量因素」(Regulatory considerations on artificial intelligence for health)文件,旨在協助各國有效監管健康領域之人工智慧,發揮其潛力同時最大限度地降低風險。本文件以下列六個領域概述健康人工智慧之監管考量因素: (1)文件化與透明度(Documentation and transparency) 開發者應預先規範(pre-specifying)以及明確記錄人工智慧系統(以下簡稱AI系統)之預期醫療目的與開發過程,如AI系統所欲解決之問題,以及資料集之選擇與利用、參考標準、參數、指標、於各開發階段與原始計畫之偏離及更新等事項,並建議以基於風險之方法(Risk-based approach),根據重要性之比例決定文件化之程度、以及AI系統之開發與確效紀錄之保持。 (2)風險管理與AI系統開發生命週期方法(Risk management and AI systems development lifecycle approaches) 開發者應在AI系統生命之所有階段,考慮整體產品生命週期方法(total product lifecycle approach),包括上市前開發管理、上市後監督與變更管理。此外,須考慮採用風險管理方法(risk management approach)來解決與AI系統相關之風險,如網路安全威脅與漏洞(vulnerabilities)、擬合不足(underfitting)、演算法偏差等。 (3)預期用途、分析及臨床確效(Intended use, and analytical and clinical validation) 開發者應考慮提供AI系統預期用途之透明化紀錄,將用於建構AI系統之訓練資料集組成(training dataset composition)之詳細資訊(包括大小、設定與族群、輸入與輸出資料及人口組成等)提供給使用者。此外,可考慮透過一獨立資料集(independent dataset)之外部分析確效(external analytical validation),展示訓練與測試資料以外之效能,並考慮將風險作為臨床確效之分級要求。最後,於AI系統之上市後監督與市場監督階段,可考慮進行一段期間密集之部署後監督(post-deployment monitoring)。 (4)資料品質(Data quality) 開發者應確認可用資料(available data)之品質,是否已足以支援AI系統之開發,且開發者應對AI系統進行嚴格之預發布評估(pre-release evaluations),以確保其不會放大訓練資料、演算法或系統設計其他元素中之偏差與錯誤等問題,且利害關係人還應考慮減輕與健康照護資料有關之品質問題與風險,並繼續努力創建資料生態系統,以促進優質資料來源之共享。 (5)隱私與資料保護(Privacy and data protection) 開發者於AI系統之設計與部署過程中,應考慮隱私與資料保護問題,並留意不同法規之適用範圍及差異,且於開發過程之早期,開發者即應充分瞭解適用之資料保護法規與隱私法規,並應確保開發過程符合或超過相關法規要求。 (6)參與及協作(Engagement and collaboration) 開發者於制定人工智慧創新與部署路線圖之期間,需考慮開發可近用且具有充足資訊之平台,以於適合與適當情況下促進利害關係人間之參與及協作;為加速人工智慧領域實務作法之進化,透過參與及協作來簡化人工智慧監管之監督流程即有必要。
美國與歐盟共同發布《藥品開發優良人工智慧實務指導原則》近年來,人工智慧(Artificial Intelligence, AI)於藥品生命週期各階段的應用快速發展,有望促進藥品研發創新並縮短上市時程。然而,AI技術開發、部署、運用與維護皆涉及複雜的治理議題,為確保AI產出結果準確且可靠,並保障藥品安全且有效,有必要於藥品監管體系建立AI管理機制。 美國食品及藥物管理局(Food and Drug Administration, FDA)與歐洲藥品管理局(European Medicines Agency, EMA)於2026年1月14日共同發布《藥品開發優良人工智慧實務指導原則》(Guiding Principles of Good AI Practice in Drug Development),建立AI應用於藥品生命週期的治理框架。 該文件提出10項指導原則,包括: 1.AI開發與使用須符合倫理原則並落實以人為本的價值 2.採取風險為本的方法進行驗證、風險緩解與監督 3.遵循相關法律、倫理、技術、科學、資安及與監管標準,包括優良實務規範(GxP) 4.明確界定使用情境(Context of Use) 5.整合AI技術與使用情境之跨領域專業能力 6.強化資料治理與文件化 7.依循系統設計與軟體工程最佳實務進行模型開發並採用適切資料 8.採行風險為本的效能評估 9.落實AI技術生命週期管理 10.提供清楚且必要的資訊揭露 兩大監管機關強調,該文件可作為未來制定共識標準與監管指引的基礎,並促進國際監管調和與合作。預期將成為各國監管機關建構AI應用於藥品監管體系相關政策、法規與指引的重要參考。
歐盟電信法規改革案將於2008年09月完成最終投票對於歐盟執委會(European Commission)所提出的「歐盟電信法規改革案」,歐洲議會(European Parliament)下之歐盟產業、研究暨能源委員會(Industry, Research and Energy Committee ,ITRE)及內部市場消費者保護委員會(Internal Market and Consumer Protection Committee ,IMCO)已於2008年7月9日對相關議題進行投票,此兩委員會之投票對於該案內容之修整具有重大意義,惟須至9月3日歐洲議會完成全員的最終投票,屆時始揭曉此改革案內容之全貌。 由於歐洲目前具有支配力的通訊公司仍支配主要通訊市場,市場競爭面臨瓶頸,消費者的選擇也隨之下降;此外,各國間欠缺一致性規範,阻礙跨國經營及泛歐普及服務,業者亦無法面對來自歐洲外的競爭勢力,因此本改革案旨在建構通訊無國界之歐洲單一市場,歐盟執委會提出建議的主要內容包括:(一)通信費率及合約透明化,使消費者能充分選擇,縱使在一日間亦得自由轉換服務,也能在不同地點依較便宜價格選擇通訊業者,;(二)為促進競爭,對於具市場支配力量之業者,得採取「功能分離」(functional separation)措施,即將網路基礎設施與提供服務兩者分離;(三)利用新的通訊裝備來阻擋垃圾郵件及電腦病毒;(四)增加對網路基礎設施的投資,擴大能利用寬頻的區域,尤其是加強農業區域的通訊建設;(五)設置歐洲獨立的通訊管制機關,以強化各國通訊管制機構的合作。
日本發布《首席AI長指引》與《實務手冊》,強化資料來源可溯,引導企業將AI風險納入資料治理框架2026年3月1日,日本人工智慧(AI)安全研究所(Japan AI Safety Institute, J-AISI)發布《首席AI長指引 1.00版》(Chief AI Officer Guidebook (Version 1.00),下稱指引)與《首席AI長設置與AI治理實施實務手冊 1.00版》(Practical Manual for Establishing a Chief AI Officer and Implementing AI Governance (Version 1.00),下稱實務手冊)。兩份文件旨於促進AI時代下的永續企業經營(sustainable business operations),提升產品與服務品質、建立客戶與使用者的信任。 一、指引與實務手冊概覽 指引內容包含設立「首席AI長」(Chief AI Officer, CAIO)職位之目的、職責。實務手冊內容則進一步指出一種組織模式,其中首席AI長為獨立的高階主管,直接向執行長匯報,並在首席AI長下設立AI治理辦公室,以及建議設立一個「跨部門AI指導委員會(Company-wide AI Steering Committee)」,成員包括首席AI長、首席資料長、首席資訊長、首席技術官、首席資訊安全官、法律合規部門、資料保護官、人力資源部門以及關鍵業務部門。各業務部門與系統所有者應依照既有標準運作,並向人工智慧治理辦公室和資料治理組織提供必要資訊。 二、將AI特定風險納入資料治理框架:降低幻覺與偏見之具體作法 在AI系統的生命週期中,資料品質影響決定模型效能、可解釋應與透明度。 首席AI長的職責為整合AI、資料與技術策略,於確保企業信任與風險管理之基礎下,驅動企業創新與數位轉型,並最大程度提升企業價值。因此,首席AI長應與首席資料長、法務部門協調,規範資料的生命週期、設定品質指標(Quality Metrics),並嚴格核實第三方素材授權(licenses for third-party materials)。 以下介紹文件建議之AI資料生命週期(資料蒐集)之管理作法: (一)區分資料用途:針對每個使用案例與模型,區分(1)AI模型訓練用資料;(2)AI訓練完成後,用於驗證與評測模型產出品質的評估資料(evaluation data),此類資料不參與模型的優化調整,僅客觀確認模型的準確度;(3)於AI模型運行過程中,使用者輸入的資料(data entered during inference),包含提示詞、上傳的文件及系統日誌(Logs)。 (二)資料分類:企業應依資料機敏程度進行分類,如機密、個資、內部及公開資訊等分類,以便加以定義資料之蒐集方式、儲存方式、資料遮罩要求(masking requirement,包含去識別化),以及控管資料傳輸至外部AI服務之權限。 (三)落實可追溯性與透明度文件:應透過實務手冊18.3之資料表(Datasheets)進行標準化記錄,包含 1. 基本資訊,如資料及名稱與版本;資料所有者;資料建立日期、最後更新日期等。 2. 目的與使用範圍,如資料集的用於訓練、評估、優化等;資料使用範圍限內部,或可對外提供等。 3. 組成與範圍,如記錄資料筆數與特徵概況;目標期間、區域與族群,如年齡、產業;資料格式,如文字/影像/音訊等。 4. 資料來源與蒐集方法,包含資料來源(內部系統、客戶提供的資料、公開資料、供應商提供的資料等);資料蒐集方法(日誌、調查、網路爬蟲等);是否取得資料主體同意等。 5. 資料品質與預處理(preprocessing),包含:紀錄去識別化等資料轉換流程;規範資料標記之品質管理機制。 6. 代表性與偏見,如列出AI預期使用情境與目標客群的一致性;特定性別、年齡、地區是否存在代表性不足的偏差等。 7. 隱私與法源依據,如資料是否包含個人資料或敏感資訊;資料處理之法律依據,如資料主體同意、契約等;採取之隱私保護措施,如去識別化等。 8. 授權、權利與資料反覆使用之條件:使用條件,如授權條款、是否允許商業使用等。 9. 安全性與存取控制:儲存位置,如資料中心、雲端或本地以及是否加密;資料之存取權限,如控管檢視、編輯、匯出等權限。 10. 資料保存與銷毀:記錄訓練資料、評估資料、輸入資料等不同類型資料之儲存期限,並規定如儲存期限過後,需以不可回復之方式銷毀資料,或必要時,應匿名後歸檔等規定。 三、接軌國內實務:企業可參考EDGS規範健全AI風險管理需求 面對AI資料生命週期管理,建議我國企業可參考資策會科法所創意智財中心發布之《重要數位資料治理暨管理制度規範(EDGS)》。EDGS同樣強調數位資料歷程管理,從資料生成、保護到維護的管理流程,有效強化資料的完整性。透過導入EDGS,企業不僅能提升內部創新、數位轉型,更能在面對AI糾紛時,提供歷程紀錄,從源頭端落實首席AI長所要求的循證治理目標。 本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。 本文同步刊登於TIPS網站(https://www.tips.org.tw)