加拿大之地區航空公司-波特航空(Porter Airlines),因違反當地「反垃圾郵件法」(Anti-Spam Law),於2015年6月29日被加拿大廣播電視及通訊委員會(Canadian Radio-television and Telecommunications Commission,簡稱CRTC)裁罰150,000美元。 2014年7月1日施行之反垃圾郵件法,係為杜絕因濫發郵件而對資料當事人造成困擾所制定。在該法中,針對寄送商業電子訊息要求需符合「獲得當事人同意」、「識別發送人之資訊」、「取消訂閱功能設計」等三項條件。然而,波特航空所寄出之商業電子訊息,卻:(1)未設計退訂機制供資料當事人選擇退訂;(2)未提供法規要求之發送人完整聯絡訊息;(3)資料當事人提出取消商業電子郵件訂閱之請求,未於法定之10個工作日內執行;(4)自2014年7月至2015年2月寄出之每一封商業電子郵件,波特航空無法證明其已獲當事人之同意而為之。 CRTC法遵暨執行部門主席Manon Bombardier認為,在過去,企業都習慣依照一般商業慣例或內部政策執行相關工作,透過此一個案,希望能對其他企業產生警示作用。企業應針對發送電子商業訊息之部分,重新檢視並審查其內部相關程序及步驟,是否確實符合當地法規要求及條件,以免類似觸法事件再度發生。
世界衛生組織發布人工智慧於健康領域之監管考量因素文件,期能協助各國有效監管健康領域之人工智慧世界衛生組織(World Health Organization, WHO)於2023年10月19日發布「人工智慧於健康領域之監管考量因素」(Regulatory considerations on artificial intelligence for health)文件,旨在協助各國有效監管健康領域之人工智慧,發揮其潛力同時最大限度地降低風險。本文件以下列六個領域概述健康人工智慧之監管考量因素: (1)文件化與透明度(Documentation and transparency) 開發者應預先規範(pre-specifying)以及明確記錄人工智慧系統(以下簡稱AI系統)之預期醫療目的與開發過程,如AI系統所欲解決之問題,以及資料集之選擇與利用、參考標準、參數、指標、於各開發階段與原始計畫之偏離及更新等事項,並建議以基於風險之方法(Risk-based approach),根據重要性之比例決定文件化之程度、以及AI系統之開發與確效紀錄之保持。 (2)風險管理與AI系統開發生命週期方法(Risk management and AI systems development lifecycle approaches) 開發者應在AI系統生命之所有階段,考慮整體產品生命週期方法(total product lifecycle approach),包括上市前開發管理、上市後監督與變更管理。此外,須考慮採用風險管理方法(risk management approach)來解決與AI系統相關之風險,如網路安全威脅與漏洞(vulnerabilities)、擬合不足(underfitting)、演算法偏差等。 (3)預期用途、分析及臨床確效(Intended use, and analytical and clinical validation) 開發者應考慮提供AI系統預期用途之透明化紀錄,將用於建構AI系統之訓練資料集組成(training dataset composition)之詳細資訊(包括大小、設定與族群、輸入與輸出資料及人口組成等)提供給使用者。此外,可考慮透過一獨立資料集(independent dataset)之外部分析確效(external analytical validation),展示訓練與測試資料以外之效能,並考慮將風險作為臨床確效之分級要求。最後,於AI系統之上市後監督與市場監督階段,可考慮進行一段期間密集之部署後監督(post-deployment monitoring)。 (4)資料品質(Data quality) 開發者應確認可用資料(available data)之品質,是否已足以支援AI系統之開發,且開發者應對AI系統進行嚴格之預發布評估(pre-release evaluations),以確保其不會放大訓練資料、演算法或系統設計其他元素中之偏差與錯誤等問題,且利害關係人還應考慮減輕與健康照護資料有關之品質問題與風險,並繼續努力創建資料生態系統,以促進優質資料來源之共享。 (5)隱私與資料保護(Privacy and data protection) 開發者於AI系統之設計與部署過程中,應考慮隱私與資料保護問題,並留意不同法規之適用範圍及差異,且於開發過程之早期,開發者即應充分瞭解適用之資料保護法規與隱私法規,並應確保開發過程符合或超過相關法規要求。 (6)參與及協作(Engagement and collaboration) 開發者於制定人工智慧創新與部署路線圖之期間,需考慮開發可近用且具有充足資訊之平台,以於適合與適當情況下促進利害關係人間之參與及協作;為加速人工智慧領域實務作法之進化,透過參與及協作來簡化人工智慧監管之監督流程即有必要。
日本總務省公布AI運用原則草案日本總務省於2016年10月起召開AI聯網社會推進會議(AIネットワーク社会推進会議),該會議於2018年7月17日公布「報告書2018─邁向促進AI運用及AI聯網化健全發展」(報告書2018-AIの利活用の促進及びAIネットワーク化の健全な進展に向けて-),提出「AI應用原則草案」(AI利活用原則案)。 「AI應用原則草案」制定目的在於促進AI開發及運用,藉由AI聯網環境健全發展,實現以人為中心之「智連社會」(Wisdom Network Society:WINS),其規範主體包括︰AI系統利用者、AI服務提供者、最終利用者(以利用AI系統和服務為業)、AI網路服務提供者、離線AI服務提供者、商業利用者、消費者利用者、間接利用者、資料提供者、第三者和開發者;草案內並根據上開規範對象間關係,整理各種AI運用情境,最終提出「適當利用」、「適當學習」、「合作」、「安全」、「資安」、「隱私」、「尊嚴自律」、「公平性」、「透明性」、「歸責」等十大AI應用原則。總務省表示將持續檢討完善AI應用原則草案細節,以「利用手冊」等形式公布,提供民眾參考。 行政院於2018年初推出「台灣AI行動計畫」,將整合5+2創新產業方案,由相關部會協助發展100個以上的AI應用解決方案,日本總務省所整理之AI應用情境與研提之應用原則,或可作為我國未來推動AI發展之參考。
日本國土交通省公布最後一哩路自駕車系統指引為促進自駕車研發和推廣,日本國土交通省召集產官學研各界成立先進安全汽車(Advanced Safety Vehicle, ASV)推進檢討會,檢討設計自駕車時之注意事項,並於2020年7月17日公布「最後一哩路自駕車系統基本設計書」(ラストマイル自動運転車両システム基本設計書),希望能藉此達成確保地方交通運輸能量及加速自駕車落地之目標。 「最後一哩路自駕車系統基本設計書」將操作適用範圍(Operational Design Domain, ODD)定義為限定區域或駕駛環境條件,並提出所有自駕車應具備之共通ODD,包括(1)道路/地理條件︰目標道路、行駛道路;(2)環境條件︰時間、天氣;(3)行駛條件︰行駛速度;(4)行駛空間︰可支援自駕車行駛之基礎設施,以及可提醒用路人注意正在進行自駕車實驗之設施。此外,由於不同應用情境會影響ODD之設定,故本書以限定路線下往返之自駕車為代表,說明在個案中該如何進一步檢討ODD。以行駛速度為例,在共通ODD中,最後一哩路自駕車時速應為30公里,但在提供限定路線內往返之載客服務時,自駕車的時速應設定在12公里以下。最後,「最後一哩路自駕車系統基本設計書」內整理最後一哩路自駕車共通及特有之技術要件,以及設計時應留意和確認的問題。