2018年5月,英國資訊專員辦公室(Information Commissioner’s Office, ICO)針對歐盟GDPR有關資料自動化決策與資料剖析之規定,公布了細部指導文件(detailed guidance on automated decision-making and profiling),供企業、組織參考。
在人工智慧與大數據分析潮流下,越來越多企業、組織透過完全自動化方式,廣泛蒐集個人資料並進行剖析,預測個人偏好或做出決策,使個人難以察覺或期待。為確保個人權利和自由,GDPR第22條規定資料當事人應有權免受會產生法律或相類重大效果的單純自動化處理決策(a decision based solely on automated processing)之影響,包括對個人的資料剖析(profiling),僅得於三種例外情況下進行單純自動化決策:
英國2018年新通過之資料保護法(Data Protection Act 2018)亦配合GDPR第22條規定,制定相應國內規範,改變1998年資料保護法原則上容許資料自動化決策而僅於重大影響時通知當事人之規定。
根據指導文件,企業、組織為因應GDPR而需特別留意或做出改變的事項有:
指導文件並解釋所謂「單純自動化決策」、「資料剖析」、「有法律效果或相類重大影響」之意義,另就可進行單純自動化決策的三種例外情況簡單舉例。此外,縱使符合例外情況得進行單純自動化決策,資料控制者(data controller)仍必須提供重要資訊(meaningful information)給資料當事人,包括使用個人資料與自動化決策邏輯上的關聯性、對資料當事人可能產生的結果。指導文件亦針對如何向資料當事人解釋自動化決策處理及提供資訊較佳的方式舉例說明。
2017年7月20日,韓國未來創造科學部發表智慧資訊社會中長期計畫(Mid- to Long-Term Master Plan in Preparation for the Intelligent Information Society)。為了因應第四次產業革命,韓國將面臨關鍵轉型,目標是成為智慧資訊社會,將人工智慧、物聯網(IoT)、雲端計算、大數據分析和移動平台,融入社會的各個面向。此外依據分析,至2030年智慧資訊社會的經濟價值估計將達到460萬億韓元,屆時絕大多數簡單重複的任務將自動化,進而消除大量的工作機會。但於此同時,也將在相關發展中的產業,創造新興就業空缺,如軟體工程和數據分析等。 韓國採取的相關措施,包括積極支持具前景的科技技術,培養創意人才、加強公私合作夥伴關係,實現韓國經濟、社會和其他有關制度所需的巨大轉型與變革。目標是在第四次產業革命中取得領導地位,為此制定智慧資訊社會中長期計畫,分為以下三大方向。 一、建構智慧IT的世界級基礎設施 發展並強化數據及網路的基礎設施,使其在全球市場上居於領導地位。 二、促進智慧IT在各產業的應用 將智慧IT技術活用於公共服務及私人部門,提高生產力、效率與國家競爭力。 三、積極改進並加強社會支援系統 透過教育改革、就業及福利服務等政策,包括培養創新人才,為社會結構改變及可能的負面衝擊作出準備,加強福利政策與社會安全網絡,以確保所有公民都能夠享受到智慧資訊社會的利益。
美國FCC公布網路中立規則,確保網際網路自由與開放美國「聯邦通訊委員會」(Federal Communications Commission,FCC)於2010年12月21日表決通過「網路中立性」(Net Neutrality)規則,確保網際網路的自由開放,限制網路服務提供者(ISP)不得針對網路流量與內容進行不合理的管制,保障消費者權益、意見表達的自由、網路服務的競爭與創新。 網路中立性爭議由來已久,自2005年FCC公布網際網路政策聲明以來,對於管制機關是否介入ISP對於網際網路流量與內容之管理,一直爭執不斷。網路上服務與內容的創新驅動寬頻網路的發展,寬頻網路的普及又促進更多的創新與投資,在此時,寬頻網路壅塞的問題也日益嚴重,寬頻ISP為了確保競爭優勢,開始針對網路的流量進行管理,投入新技術建立網路流量的優先權與過濾機制中。 為了避免ISP管理網路的行為影響網路的競爭與創新發展,FCC自2009年開始探討網路中立性之管理規則。 本次公布之網路中立性規則包含五個部分: 1. 透明度(Transparency): ISP應公開揭露關於網路管理的資訊,包含網路接取服務之管理措施、商業條款,提供消費者及上下游業者做出適當的選擇。 2. 禁止封鎖(No Blocking)行為: 不得任意封鎖使用者及其他網路服務或內容提供者合法使用、接取網路的權利,凡是合法的內容、服務、應用等,皆不得被阻止。 3. 禁止不合理差別待遇(No Unreasonable Discrimination): 不得無故對於消費者接取網路之內容與流量進行差別待遇。 4. 定義合理的網路管理行為(Reasonable network management): 合理的網路管理包括:確保網路的安全與完整、解決網路壅塞的狀況、基於消費者自願的控制與過濾機制。 5. 區分無線行動網路與特殊服務 考量無線行動網路在速度、容量上與固定網路的差異,FCC制訂相關量測的規範,在合理網路管理的條件上,無線行動網路與固定網路將有不同的管制密度。 而FCC也將區分網路特殊服務,有別於單純的寬頻接取服務,特殊服務是在基礎網路上提供主要專業用途的服務,例如VOIP或視訊服務(IPTV),以促進更多元的私人網路投資與更創新的網路服務發展。 新的網路中立性規則仍然受到許多的批評,倡議者認為FCC宣示的管制強度太低,ISP有可能以各種手段迴避管制,公眾利益團體亦認為FCC未禁止「付費優先權」(Pay for priority),將使網際網路出現「高速/慢速」的不公平狀況;而反對者則認為FCC的管制將影響網路的創新服務發展,不利未來的投資。然而無論如何,這仍是在Comcast案受挫後,FCC維護網際網路的開放性所重新邁出之重要一步。
歐洲議會通過支付服務指令修正草案歐洲議會(European Parliament)於今(2015)年10月8日通過支付服務指令的修正草案(revised Directive on Payment Services; 簡稱PSD2),修正後的支付服務指令將能降低消費者使用支付服務時所花的費用、提升支付服務的安全性、吸引業者投入支付服務領域及促進支付服務的創新。 未來,擁有網路帳戶的付款人可以利用第三方支付業者提供的支付軟體及設備進行付款。新法中也明訂,若付款者使用支付工具,如金融卡(Debit Card)或信用卡(Credit Card)為付款時,支付業者不得向付款人收取額外的費用,這個規定使付款人得以省下一筆開銷。 新法也規定,提供付款人帳戶資訊的銀行,若對第三方支付業者有安全上的疑慮時,其向監管機關提出客觀合理的理由後,得拒絕第三方支付業者向其存取付款人的帳戶資訊。 另外,為降低用戶被盜款的風險及保障用戶的財務資料,支付業者有義務提供嚴格的用戶認證機制(strong customer authentication)。此機制藉由確認付款人的密碼、使用的卡片或聲音或指紋的認證來確認付款人的身分。而當用戶的付款工具(payment instrument)遺失、被竊取或不當利用,而造成有未經用戶同意而為支付的情況發生時,依新法規定,用戶負擔之損失,最多不得超過50歐元。
世界衛生組織發布人工智慧於健康領域之監管考量因素文件,期能協助各國有效監管健康領域之人工智慧世界衛生組織(World Health Organization, WHO)於2023年10月19日發布「人工智慧於健康領域之監管考量因素」(Regulatory considerations on artificial intelligence for health)文件,旨在協助各國有效監管健康領域之人工智慧,發揮其潛力同時最大限度地降低風險。本文件以下列六個領域概述健康人工智慧之監管考量因素: (1)文件化與透明度(Documentation and transparency) 開發者應預先規範(pre-specifying)以及明確記錄人工智慧系統(以下簡稱AI系統)之預期醫療目的與開發過程,如AI系統所欲解決之問題,以及資料集之選擇與利用、參考標準、參數、指標、於各開發階段與原始計畫之偏離及更新等事項,並建議以基於風險之方法(Risk-based approach),根據重要性之比例決定文件化之程度、以及AI系統之開發與確效紀錄之保持。 (2)風險管理與AI系統開發生命週期方法(Risk management and AI systems development lifecycle approaches) 開發者應在AI系統生命之所有階段,考慮整體產品生命週期方法(total product lifecycle approach),包括上市前開發管理、上市後監督與變更管理。此外,須考慮採用風險管理方法(risk management approach)來解決與AI系統相關之風險,如網路安全威脅與漏洞(vulnerabilities)、擬合不足(underfitting)、演算法偏差等。 (3)預期用途、分析及臨床確效(Intended use, and analytical and clinical validation) 開發者應考慮提供AI系統預期用途之透明化紀錄,將用於建構AI系統之訓練資料集組成(training dataset composition)之詳細資訊(包括大小、設定與族群、輸入與輸出資料及人口組成等)提供給使用者。此外,可考慮透過一獨立資料集(independent dataset)之外部分析確效(external analytical validation),展示訓練與測試資料以外之效能,並考慮將風險作為臨床確效之分級要求。最後,於AI系統之上市後監督與市場監督階段,可考慮進行一段期間密集之部署後監督(post-deployment monitoring)。 (4)資料品質(Data quality) 開發者應確認可用資料(available data)之品質,是否已足以支援AI系統之開發,且開發者應對AI系統進行嚴格之預發布評估(pre-release evaluations),以確保其不會放大訓練資料、演算法或系統設計其他元素中之偏差與錯誤等問題,且利害關係人還應考慮減輕與健康照護資料有關之品質問題與風險,並繼續努力創建資料生態系統,以促進優質資料來源之共享。 (5)隱私與資料保護(Privacy and data protection) 開發者於AI系統之設計與部署過程中,應考慮隱私與資料保護問題,並留意不同法規之適用範圍及差異,且於開發過程之早期,開發者即應充分瞭解適用之資料保護法規與隱私法規,並應確保開發過程符合或超過相關法規要求。 (6)參與及協作(Engagement and collaboration) 開發者於制定人工智慧創新與部署路線圖之期間,需考慮開發可近用且具有充足資訊之平台,以於適合與適當情況下促進利害關係人間之參與及協作;為加速人工智慧領域實務作法之進化,透過參與及協作來簡化人工智慧監管之監督流程即有必要。