世界衛生組織公布「人工智慧於健康領域之倫理與治理」指引

  世界衛生組織(World Health Organization, WHO)於2021年6月底公布「人工智慧於健康領域之倫理與治理」(Ethics and governance of artificial intelligence for health)指引。目前人工智慧於在改善診斷、治療、健康研究、藥物開發及公共衛生等健康領域皆有廣泛之應用與前景,而該指引首先指出人工智慧應用於健康領域中最相關之法律與政策外,並強調相關應用皆須以「倫理」及「人權」作為相關技術設計、部署與使用之核心,最後則提出人工智慧應用於健康領域之六大關鍵原則:

一、保護人類自主性(autonomy):本指引認為人類仍應該掌有關於醫療保健系統之所有決定權,而人工智慧只是輔助功能,無論是醫療服務提供者或患者皆應在知情之狀態下作決定或同意。

二、促進人類福祉、安全與公共利益:人工智慧不應該傷害人類,因此須滿足相關之事前監管要求,同時確保其安全性、準確性及有效性,且其不會對患者或特定群體造成不利影響。

三、確保透明度、可解釋性與可理解性(intelligibility):開發人員、用戶及監管機構應可理解人工智慧所作出之決定,故須透過記錄與資訊揭露提高其透明度。

四、確立責任歸屬(responsibility)與問責制(accountability):人工智慧在醫學中所涉及之內部責任歸屬相當複雜,關於製造商、臨床醫師及病患間相關之問責機制之設計將會成為各國之挑戰,故須存在有效之機制來確保問責,也應避免責任分散之問題產生。

五、確保包容性(inclusiveness)與衡平性(equity):應鼓勵應用於健康領域之人工智慧能被廣泛且適當地使用,無論年齡、性別、收入及其他特徵而有差別待遇,且應避免偏見之產生。

六、促進具適應性(responsive)及可持續性之人工智慧:人工智慧應符合設計者、開發者及用戶之需求與期待,且能充分具適應性之回應且符合使用環境中之要求。

相關連結
※ 世界衛生組織公布「人工智慧於健康領域之倫理與治理」指引, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8712&no=86&tp=1 (最後瀏覽日:2025/10/16)
引註此篇文章
你可能還會想看
自資料流通機制建置擴大資料經濟市場

自資料流通機制建置擴大資料經濟市場 資訊工業策進會科技法律研究所 2020年03月25日 壹、事件摘要   過往,我國之資料開放政策著力於「政府資料開放」,並將之提供予民眾及企業運用。推動上,提出主動開放,民生優先、制定開放資料規範、推動共用平台及示範宣導與服務推廣四大策略,整體成效斐然,已獲國際肯認。然而,伴隨網際網路資通訊技術的發展,智慧聯網技術的進步,人工智慧(artificial intelligence, AI)、物聯網(Internet of Things, IoT)、區塊鏈、AR/VR等涉及資料運用之新興科技相繼萌芽,觸發對資料的大量需求。   特別是我國在新興科技領域之新創企業,為扣合「少量、多樣、個人化」的長尾型市場(Long Tail Market)發展趨勢,以形塑可應對少數大量應用、重視產品或服務客製化特性之商業模式[1],資料更是驅動其成長不可或缺的石油。只是勘查我國私部門資料開放現況,首先是《個人資料保護法》等法令遵循事宜,致使企業釋出資料意願較低;次者是跨國大企業資料霸權時代下,新創、中小企業難以在資料獲取上與之競爭;其三則是即便已有資料交易管道,仍尚乏可提升資料交易透明度、信任度及品質之措施可循。是以,亟待相應措施緩解上開問題。   觀測國際間促進私部門資料釋出與流通之作法,一者係透過中介作為決定資料釋出與否之交易模式(如美國之資料仲介);二者係回歸資料自主理念,由個人決定資料是否釋出之形式(如歐盟My Data 、日本情報銀行)。為回應上開問題,本文擇定日本以個人為出發點之資料流通措施為例,研析其促進資料交易流通所採行之制度與服務模式,期能作為我國擬訂資料經濟促進措施時,可攻錯的他山之石。 貳、重點說明 一、日本情報銀行制度建立背景   日本在資料流通與運用所面臨的挑戰,與我國同樣面臨個資法遵、資料交易信任度不足以及難與資料霸權者相競爭的困境。   據研究顯示,單以日本100家主要的線上購物網站為對象調查,即有高達一半比例的業者將用戶資料與外部各方共享而未具體向用戶明示,甚至未提供用戶拒絕提供資料的方式。由於普遍發生個人資料由營運業者蒐集後,進行目的外利用,致使在資料共用及利用上,容易因為業者未充分解釋利用之資料內容及對用戶的好處,而降低用戶同意或協力提供資料之意願[2]。此外,日本也意識到多數資訊被GAFA(Google、Apple、Facebook、Amazon)等大型網路服務業者掌控,從而壓縮日本本土業者的生存空間 [3],為避免未來資料可能會被大型網路服務業者所壟斷,不利未來日本資通訊與數位化社會發展,日本政府認為有必要建立被個人信任的第三方制度協助處理資料,以鞏固國家資料價值發展能量。   為此,日本提出情報銀行概念,並且由總務省與經濟產業省於2017年11月至2018年4月間相繼召開6次「資料信託功能認定機制檢討會」(情報信託機能の認定スキームの在り方に関する検討会),檢討具備資料信託功能之「情報銀行」認定基準及契約建議記載事項[4],期藉此機制形塑有利(個人)資料流通之模式[5]。 二、日本情報銀行制度介紹 (一)情報銀行架構   日本情報銀行架構係建立於其既有的PDS(Personal Data Stores)及資料交易市場平台之上。所謂PDS是由個人管理、儲存資料的機制,並可提供予第三方使用資料,還可分為由個人擁有終端載具,自行管理個人資料的分散型,以及由個人委託營運商(即提供服務之第三方)儲存與管理資料的集中型。至於資料交易市場,則係一種對供需雙方進行仲介,促使雙方通過買賣等方式進行交易之機制。是以,資料交易市場本身具有媒合之功能,但以匿名化資料及非屬個人資料為大宗。由於資料交易市場的仲介性質,須保持中立性,本身不會參與資料之蒐集、保存、處理和交易活動。   情報銀行則是自資料交易市場衍生,同時結合了PDS之特性,因此資料銀行本身會進行資料的蒐集、保存、處理和交易行為,並根據與個人簽訂之契約,利用PDS系統管理個人資料,按個人指示或其預先設定之條件管理個人資料,必要時對資料作匿名化,以提供予第三方使用。 圖 1日本個人資料交易架構 資料來源: 21世紀政策研究所,データ利活用と產業化,2018年5月。 (二)情報銀行功能-資料信託   情報銀行的建立,相當性地將顛覆過往GAFA(Google、Apple、Facebook、Amazon)公司的商業模式。   透過情報銀行機制,過往資料持有業者提供匿名加工、統計資料交易模式下,所無法克服獲取個人同意的難題將可獲得解消。情報銀行基於以個人為中心的資料活用精神,導入「資料信託」作法大幅度提升個人資料利、活用之意願。   資料信託之「信託」,並不一定係指法律上的信託概念,而是類似信託一樣的做法,係屬一種經濟關係,分別由信託人(資料主體)、受託人(資料銀行)及受益人(可能是信託人本人)所組成[6]。具體來說,信託人通過信託行為,預先指定或設定條件將其資料信託予受託人,並由受託人按信託人設定信託之目的,為其管理個人資料,並應善盡管理個人資料之義務。   情報銀行以信託方式進行個人資料管理,可能從事個人資料匿名化、協助談判交易條件、監控資料使用方式、代收和管理使用費以及支付與管理個人利益[7]等五類事項。 (三)情報銀行之驗證系統與運作機制   為確保資料流通基礎的安全性、資料流通情形揭露之透明性以及情報銀行業者之可靠性,總務省在2018年10月偕同日本IT團體聯盟組成「情報銀行推進委員會」,設計「情報信託機能驗證指引」(2018年6月發布第1版;2019年10月提出第2版)作為情報銀行驗證之基礎。只是,該驗證並不具強制性,未取得者仍可進行情報銀行之業務,僅係藉由驗證手段建立社會大眾對情報銀行之信心[8]。而就情報銀行的驗證基準,可分成業者資格、資料安全、資料治理及業務內容,分述如下: 業者資格:能擔保資料安全,具損害賠償能力的法人; 資料安全:須確保資訊安全與隱私受到足夠的保障,並定期更新隱私標章或驗證,以符合個資法與相關法規之要求; 管理體系:建立管理體系以明確管理職責,籌組「資料倫理審查會」,委員包括工程師、安全專家、法律從業者、資料倫理專家、消費者等,情報銀行並須定期向資料倫理審查會報告; 業務內容:情報銀行應明確揭示所開展業務,尤其是涉及個人資料範圍時,應揭示取得方法與使用目的。情報銀行在提供個人資料予第三方時,須明確對第三方的判斷標準、流程與使用目的。   截至2020年2月為止,日本IT團體聯盟進行了三波情報銀行認定,共三井住友信託銀行、FiliCa Pocket Marketing、J.Score、中部電力株式會社等四家業者通過情報銀行認證[9]。   除了推行建立情報銀行驗證系統外,日本總務省考量業者與資料主體間地位的不平等,以及業者在擬定資料信託契約上,或可能需要由政府提供一定程度提示,一併推出資料信託機能定型化契約應記載事項,敘明契約應涵蓋如情報銀行業務範圍、權利義務、損害賠償等內容,以明確情報銀行和個人間就資料利用之目的、範圍以及權責關係。其中,特別的是,由於日本《個人資料保護法》對於個人資料之蒐集、處理及利用係以個人同意為基礎開展,是故,在資料信託機能定型化契約應記載事項中特別就此明示情報銀行應該按照個人事前同意的範圍為個人控制資料。只是,如何解釋事前同意的範圍,整體來說,所同意的範圍必須是個人可以預測的範圍內進行解釋和操作。再者,為了確保個人資料的可控性,針對資料需求者再提供資料予其他第三人情況,強調必須就第三方和使用目的適度獲得個人同意才可為之。   值得一提的是,情報銀行必須設置「資料倫理審查委員會」諮詢體制,就情報銀行業務考量其適當性並提供建議,包含:個人與情報銀行間契約內容、使用情報銀行信託個人資料之目的、將信託資料提供予第三方之條件等[10]。 參、事件評析 一、我國現況   我國自行政院2012年第3322次院務決議推動政府資料開放以來,持續就政府資料開放不斷精進,包含2015年建置資料開放規範與相關環境[11]、2017年討論個人資料運用與政府資料開放政策,提出以民為本的「數位服務個人化(My Data)」,打造「一站式」服務措施[12]。實質上,已隱然含有回歸資料自主理念,由個人決定資料是否釋出之精神。   我國所推行之My Data服務可分為二種,一是按照個人需求,透過平台讓個人可下載自己的個人資料;二是透過線上服務授權,由民眾授權政府或民間業者取得個人資料,如醫療、戶政、教育、金融、勞健保或水電等方面之資料,再由相關領域之業者提供民眾所需的整合式個人化服務[13]。惟目前我國在My Data應用上,仍是以民眾自行下載政府機關所蒐集資料,再由民眾依其意願與需求提供予政府機關或民間企業為主,整體上,相當程度緩解《個人資料保護法》的限制,直接由資料主體釋出資料予資料利用者;藉由個人控制自己資料形式突圍資料霸權現象。但在建立資料交易透明度與信任度上,仍尚乏相應機制;在推行資料流通機制並擴大資料經濟市場之作為上,尚未有如同日本情報銀行機制等資料流通機制做為橋樑,協助弭平私部門資料流通最後一哩路之障礙。 二、我國未來制度設計方向建議   誠如前述,我國My Data機制現階段仍以公部門持有之個人資料為主,較缺乏私部門持有之個人資料。究其原因主要有三,一為業者釋出資料時,有其《個人資料保護法》等法令遵循上之成本及考量;二是社會普遍就個人資料被利用之情況的信任度不足;三則係欠缺誘因鼓勵業者或個人將資料釋出。   是以,或許如同日本情報銀行之作法,藉由可信任之第三方作為資料流通基盤,鼓勵促進個人資料加值再利用,避免私部門運用時囿於法規範而有所侷限。只是,於此必須注意日本情報銀行機制採用之資料信託,倘欲轉化為適於我國現行法規者,或需考量資料本身性質並非財產權之範疇,無法作為信託契約標的情形,而宜採行委任契約作法為妥。此外,在信任度與透明度建立上,日本通過驗證機制和資料倫理委員會的審查制度雙重管控做法,亦值得我國未來設計資料流通機制時引為借鏡。 肆、結語   有鑑於資料逐漸成為影響競爭力的重要因素,且如今大量的個人資料皆掌握在國外大型網路服務商手中,為有效提升我國業者的國際競爭力,政府或可參考日本情報銀行之模式,由民間機構分別負責驗證、擔任情報銀行之角色,並引入資料倫理審查會,透過公正之第三方審查資料流通平台業者是否公允,以促成資料經濟發展與保障個人資料之環境的形成。 [1]趙祖佑、周駿呈、涂家瑋,〈物聯網應用發展趨勢與商機─資料經濟篇〉,頁18-19(2015)。 [2]データ流通環境整備検討会,〈AI、IoT時代におけるデータ活用ワーキンググループ 中間とりまとめ〉,頁5(2017/3)。 [3]松ヶ枝優佳,〈データ主義時代の新たな銀行「情報銀行」とはなにか〉,Open Innovation Japan,2019/03/11,https://jbpress.ismedia.jp/articles/-/55684?page=4(最後瀏覽日:2020/02/19)。 [4]周晨蕙,〈日本公布資料信託功能認定指引ver1.0並進行相關實驗〉,科技法律研究所,2018/10,https://stli.iii.org.tw/article-detail.aspx?no=55&tp=1&i=156&d=8115(最後瀏覽日:2020/02/19)。 [5]情報信託機能の認定スキームの在り方に関する検討会,〈情報信託機能の認定に係る指針ver2.0〉,2019/10,https://www.soumu.go.jp/main_content/000649152.pdf(最後瀏覽日:2020/02/19)。 [6]辰巳 憲一,〈個人情報信託の経済分析~プライバシー情報を保護しながら信託で一元管理する~〉,学習院大学経済論集第48巻第2号,頁98(2011/7)。 [7]同前註。 [8]Jiji, Japan Grants Certification for First Time to ‘Information Banks’, The Japan Times (July 9, 2019), https://www.japantimes.co.jp/news/2019/07/09/business/japan-grants-certification-first-time-information-banks/#.XkymJygzZhE (last visited Feb. 19, 2020). [9]一般社団法人日本IT団体連盟,〈日本IT団体連盟、「情報銀行」認定(第1弾)を決定〉,2019/06/26,https://itrenmei.jp/topics/2019/3646/;一般社団法人日本IT団体連盟,〈日本IT団体連盟、「情報銀行」認定(第2弾)を決定〉,2019/12/25,https://www.itrenmei.jp/topics/2019/3652/;一般社団法人日本IT団体連盟,〈日本IT団体連盟、「情報銀行」認定(第3弾)を決定〉,2020/02/17,https://www.itrenmei.jp/topics/2020/3657/(最後瀏覽日:2020/02/19)。 [10]日本IT團體聯盟,「情報銀行」の推進に向けた取組みについて,2019年9月30日。 [11]國家發展委員會,〈政府資料開放〉,https://www.ndc.gov.tw/Content_List.aspx?n=9B973A5871579AC7(最後瀏覽日:2020/02/20)。 [12]國家發展委員會,〈數位服務個人化(My Data)〉,https://www.ndc.gov.tw/cp.aspx?n=8B6C9C324E6BF233&s=460617D071481C4B(最後瀏覽日:2020/02/20)。 [13]王若樸,〈國發會My Data政策未來怎麼走?學者建議應跨產業推動資料治理〉,iThome,2019/09/12,https://www.ithome.com.tw/news/133002(最後瀏覽日:2020/02/20)。

美國NIST發布更新《網路安全資源指南》提升醫療領域的網路安全及隱私風險管理

  美國國家標準暨技術研究院(National Institute of Standards and Technology, NIST)於2022年7月21日發布更新《網路安全資源指南》(A Cybersecurity Resource Guide, NIST SP 800-66r2 ipd)。本指南源自於1996年美國《健康保險流通與責任法》(Health Insurance Portability and Accountability Act, HIPAA)旨在避免未經患者同意或不知情下揭露患者之敏感健康資料,並側重於保護由健康照護組織所建立、接收、維護或傳輸之受保護電子健康資訊(electronic protected health information, ePHI),包括就診紀錄、疫苗接種紀錄、處方箋、實驗室結果等患者資料之機密性、完整性及可用性。其適用對象包含健康照護提供者(Covered Healthcare Providers)、使用電子方式傳送任何健康資料的醫療計畫(Health Plans)、健康照護資料交換機構(Healthcare Clearinghouses)及為協助上述對象提供健康照護服務之業務夥伴(Business Associate)均應遵守。   本指南最初於2005年發布並經2008年修訂(NIST SP 800-66r1 ipd),而本次更新主要為整合其他網路安全相關指南,使本指南與《網路安全框架》(Cybersecurity Framework, NIST SP 800-53)之控制措施等規範保持一致性。具體更新重點包括:(1)簡要概述HIPAA安全規則;(2)為受監管實體在ePHI風險評估與管理上提供指導;(3)確定受監管實體可能考慮作為資訊安全計畫的一部分所實施的典型活動;(4)列出受監管實體在實施HIPAA安全規則之注意事項及其他可用資源,如操作模板、工具等。特別在本指南第三章風險評估與第四章風險管理提供組織處理之流程及控制措施,包括安全管理流程、指定安全責任、員工安全、資訊近用管理、安全意識與培訓、應變計畫、評估及業務夥伴契約等。而在管理方面包括設施權限控管、工作站使用及安全、設備媒體控制;技術方面則包含近用與審計控管、完整性、個人或實體身分驗證及傳輸安全。上述組織要求得由政策、程序規範、業務夥伴契約、團體健康計畫所組成,以助於改善醫療領域的網路安全及隱私保護風險管理。預計本指南更新將徵求公眾意見至2022年9月21日止。

歐盟執委會發布「2016-2020年e政府行動計畫」並展開公眾諮詢

  歐盟執委會先前自2015年10月30日到2016年1月22日,針對其2016-2020年e政府行動計畫(eGovernment Action Plan)進行了公眾諮詢程序。執委會依據其公眾意見諮詢之初步分析,於2016年2月23日說明其2016-2020年的e政府行動計畫政策,將藉由公共行政管理措施(包含司法部分)的e化,實現歐盟數位單一市場的目標,提高跨境的互通性以及促進歐盟公民間的便捷交流。   歐盟執委會就該計畫目前有以下四項目標: (1) 透過資通訊之技術促進公共管理措施的現代化。 (2) 藉由數位化的公共服務提高跨境行動(cross-border mobility)的可能。 (3) 加強行政單位與歐盟公民及企業間的數位互動交流(digital interaction)。 (4) 推動數位化的關鍵措施。   相關監測及措施期程的指標,執委會將於未來幾個月內再為詳細之說明。而所有e政府行動計畫均應依循下列原則進行: (1) 數位化設定(digital-by-default):若其他可傳送服務之管道能選擇中斷服務或必須中斷服務時,行動措施應給予服務線上傳輸的特權。 (2) 跨境設定(cross-border by default):行動措施不應於歐盟內部市場製造新的跨境障礙。 (3) 一次性原則(once-only principle):行動措施應僅得於行政單位從未持有數據或資訊時,要求歐盟公民或企業提供該數據或資訊。 (4) 內含設定(inclusive by default):行動措施應促進所有歐盟公民或企業與公共行政單位的互動交流。 (5) 不保留原則(no legacy principle):超過15年的基礎設施或應用服務不再維護保留。 (6) 隱私及資料保護(privacy & data protection):所有數位化的公共服務皆應就個人資料之基本權利為完善的保護。 (7) 開放及透明化設定(open & transparency by default):行動措施應就重複使用及透明化為開放之設定。

G7第四屆資料保護與隱私圓桌會議揭示隱私保護新趨勢

G7第四屆資料保護與隱私圓桌會議揭示隱私保護新趨勢 資訊工業策進會科技法律研究所 2025年03月10日 七大工業國組織(Group of Seven,下稱G7)於2024年10月10日至11日在義大利羅馬舉辦第四屆資料保護與隱私機構圓桌會議(Data Protection and Privacy Authorities Roundtable,下稱圓桌會議),並發布「G7 DPAs公報:資料時代的隱私」(G7 DPAs’ Communiqué: Privacy in the age of data,下稱公報)[1],特別聚焦於人工智慧(AI)技術對隱私與資料保護的影響。 壹、緣起 由美國、德國、英國、法國、義大利、加拿大與日本的隱私主管機關(Data Protection and Privacy Authorities, DPAs)組成本次圓桌會議,針對數位社會中資料保護與隱私相關議題進行討論,涵蓋「基於信任的資料自由流通」(Data Free Flow with Trust, DFFT)、新興技術(Emerging technologies)、跨境執法合作(Enforcement cooperation)等三大議題。 本次公報重申,在資通訊技術主導的社會發展背景下,應以高標準來審視資料隱私,從而保障個人權益。而DPAs作為AI治理領域的關鍵角色,應確保AI技術的開發和應用既有效且負責任,同時在促進大眾對於涉及隱私與資料保護的AI技術認識與理解方面發揮重要作用[2]。此外,公報亦強調DPAs與歐盟理事會(Council of Europe, CoE)、經濟合作暨發展組織(Organisation for Economic Co-operation and Development, OECD)、亞太隱私機構(Asia Pacific Privacy Authorities, APPA)、全球隱私執行網路(Global Privacy Enforcement Network, GPEN)及全球隱私大會(Global Privacy Assembly, GPA)等國際論壇合作的重要性,並期望在推動資料保護與建立可信賴的AI技術方面作出貢獻[3]。 貳、重點說明 基於上述公報意旨,本次圓桌會議上通過《關於促進可信賴AI的資料保護機構角色的聲明》(Statement on the Role of Data Protection Authorities in Fostering Trustworthy AI)[4]、《關於AI與兒童的聲明》(Statement on AI and Children)[5]、《從跨國角度觀察降低可識別性:G7司法管轄區對匿名化、假名化與去識別化的法定及政策定義》(Reducing identifiability in cross-national perspective: Statutory and policy definitions for anonymization, pseudonymization, and de-identification in G7 jurisdictions)[6],分別說明重點如下: 一、《關於促進可信賴AI的資料保護機構角色的聲明》 繼2023年第三屆圓桌會議通過《關於生成式AI聲明》(Statement on Generative AI)[7]後,本次圓桌會議再次通過《關於促進可信賴AI的資料保護機構角色的聲明》,旨在確立管理AI技術對資料保護與隱私風險的基本原則。G7 DPAs強調許多AI技術依賴個人資料的運用,這可能引發對個人偏見及歧視、不公平等問題。此外,本聲明中還表達了擔憂對這些問題可能透過深度偽造(Deepfake)技術及假訊息擴散,進一步對社會造成更廣泛的不良影響[8]。 基於上述考量,本聲明提出以下原則,納入G7 DPAs組織管理的核心方針[9]: 1. 以人為本的方法:G7 DPAs應透過資料保護來維護個人權利與自由,並在AI技術中提供以人權為核心的觀點。 2. 現有原則的適用:G7 DPAs應審視公平性、問責性、透明性和安全性等AI治理的核心原則,並確保其適用於AI相關框架。 3. AI核心要素的監督:G7 DPAs應從專業視角出發,監督AI的開發與運作,確保其符合負責任的標準,並有效保護個人資料。 4. 問題根源的因應:G7 DPAs應在AI的開發階段(上游)和應用階段(下游)找出問題,並在問題擴大影響前採取適當措施加以解決。 5. 善用經驗:G7 DPAs應充分利用其在資料領域的豐富經驗,謹慎且有效地應對AI相關挑戰。 二、《關於AI與兒童的聲明》 鑒於AI技術發展可能對於兒童和青少年產生重大影響,G7 DPAs發布本聲明表示,由於兒童和青少年的發展階段及其對於數位隱私的瞭解、生活經驗有限,DPAs應密切監控AI對兒童和青少年的資料保護、隱私權及自由可能造成的影響程度,並透過執法、制定適合年齡的設計實務守則,以及發佈面向兒童和青少年隱私權保護實務指南,以避免AI技術導致潛在侵害兒童和青少年隱私的行為[10]。 本聲明進一步闡述,當前及潛在侵害的風險包含[11]: 1. 基於AI的決策(AI-based decision making):因AI運用透明度不足,可能使兒童及其照顧者無法獲得充足資訊,以瞭解其可能造成重大影響的決策。 2. 操縱與欺騙(Manipulation and deception):AI工具可能具有操縱性、欺騙性或能夠危害使用者情緒狀態,促使個人採取可能危害自身利益的行動。例如導入AI的玩具可能使兒童難以分辨或質疑。 3. AI模型的訓練(Training of AI models):蒐集和使用兒童個人資料來訓練AI模型,包括從公開來源爬取或透過連線裝置擷取資料,可能對兒童的隱私權造成嚴重侵害。 三、《從跨國角度觀察降低可識別性:G7司法管轄區對匿名化、假名化與去識別化的法定及政策定義》 考慮到個人資料匿名化、假名化及去識別化能促進資料的創新利用,有助於最大限度地減少隱私風險,本文件旨在整合G7成員國對於匿名化、假名化與去識別化的一致理解,針對必須降低可識別性的程度、資訊可用於識別個人的程度、減少可識別性的規定流程及技術、所產生的資訊是否被視為個人資料等要件進行整理,總結如下: 1. 去識別化(De-identification):加拿大擬議《消費者隱私保護法》(Consumer Privacy Protection Act, CPPA)、英國《2018年資料保護法》(Data Protection Act 2018, DPA)及美國《健康保險可攜性及責任法》(Health Insurance Portability and Accountability Act , HIPAA)均有去識別化相關規範。關於降低可識別性的程度,加拿大CPPA、英國DPA規定去識別化資料必須達到無法直接識別特定個人的程度;美國HIPAA則規定去識別化資料須達到無法直接或間接識別特定個人的程度。再者,關於資料去識別化的定性,加拿大CPPA、英國DPA認定去識別化資料仍被視為個人資料,然而美國HIPAA則認定去識別化資料不屬於個人資料範疇。由此可見,各國對去識別化規定仍存在顯著差異[12]。 2. 假名化(Pseudonymization):歐盟《一般資料保護規則》(General Data Protection Regulation, GDPR)及英國《一般資料保護規則》(UK GDPR)、日本《個人資料保護法》(個人情報の保護に関する法律)均有假名化相關規範。關於降低可識別性的程度,均要求假名化資料在不使用額外資訊的情況下,須達到無法直接識別特定個人的程度,但額外資訊應與假名化資料分開存放,並採取相應技術與組織措施,以確保無法重新識別特定個人,因此假名化資料仍被視為個人資料。而關於假名化程序,日本個資法明定應刪除或替換個人資料中可識別描述或符號,歐盟及英國GDPR雖未明定具體程序,但通常被認為採用類似程序[13]。 3. 匿名化(Anonymization):歐盟及英國GDPR、日本個資法及加拿大CPPA均有匿名化相關規範。關於降低可識別性的程度,均要求匿名化資料無法直接或間接識別特定個人,惟可識別性的門檻存在些微差異,如歐盟及英國GDPR要求考慮控管者或其他人「合理可能用於」識別個人的所有方式;日本個資法則規定匿名化資料之處理過程必須符合法規標準且不可逆轉。再者,上述法規均將匿名化資料視為非屬於個人資料,但仍禁止用於重新識別特定個人[14]。 參、事件評析 本次圓桌會議上發布《關於促進可信賴AI的資料保護機構角色的聲明》、《關於AI與兒童的聲明》,彰顯G7 DPAs在推動AI治理原則方面的企圖,強調在AI技術蓬勃發展的背景下,隱私保護與兒童權益應成為優先關注的議題。與此同時,我國在2024年7月15日預告《人工智慧基本法》草案,展現對AI治理的高度重視,融合美國鼓勵創新、歐盟保障人權的思維,針對AI技術的應用提出永續發展、人類自主、隱私保護、資訊安全、透明可解釋、公平不歧視、問責等七項原則,為國內AI產業與應用發展奠定穩固基礎。 此外,本次圓桌會議所發布《從跨國角度觀察降低可識別性:G7司法管轄區對匿名化、假名化與去識別化的法定及政策定義》,揭示各國在降低可識別性相關用語定義及其在資料保護與隱私框架中的定位存在差異。隨著降低可識別性的方法與技術不斷創新,這一領域的監管挑戰日益突顯,也為跨境資料流動越發頻繁的國際環境提供了深化協調合作的契機。在全球日益關注資料保護與隱私的趨勢下,我國個人資料保護委員會籌備處於2024年12月20日公告《個人資料保護法》修正草案,要求民間業者設置個人資料保護長及稽核人員、強化事故通報義務,並針對高風險行業優先實施行政檢查等規定,以提升我國在數位時代的個資保護水準。 最後,本次圓桌會議尚訂定《2024/2025年行動計畫》(G7 Data Protection and Privacy Authorities’ Action Plan)[15],圍繞DFFT、新興技術與跨境執法合作三大議題,並持續推動相關工作。然而,該行動計畫更接近於一項「基於共識的宣言」,主要呼籲各國及相關機構持續努力,而非設定具有強制力或明確期限的成果目標。G7 DPAs如何應對數位社會中的資料隱私挑戰,並建立更順暢且可信的國際資料流通機制,將成為未來關注的焦點。在全球共同面臨AI快速發展所帶來的機遇與挑戰之際,我國更應持續關注國際趨勢,結合自身需求制訂相關法規以完善相關法制,並積極推動國際合作以確保國內產業發展銜接國際標準。 [1]Office of the Privacy Commissioner of Canada [OPC], G7 DPAs’ Communiqué: Privacy in the age of data (2024), https://www.priv.gc.ca/en/opc-news/news-and-announcements/2024/communique-g7_241011/ (last visited Feb 3, 2025). [2]Id. at para. 5. [3]Id. at para. 7-9. [4]Office of the Privacy Commissioner of Canada [OPC], Statement on the Role of Data Protection Authorities in Fostering Trustworthy AI (2024), https://www.priv.gc.ca/en/opc-news/speeches-and-statements/2024/s-d_g7_20241011_ai/ (last visited Feb 3, 2025). [5]Office of the Privacy Commissioner of Canada [OPC], Statement on AI and Children (2024), https://www.priv.gc.ca/en/opc-news/speeches-and-statements/2024/s-d_g7_20241011_child-ai/ (last visited Feb 3, 2025). [6]Office of the Privacy Commissioner of Canada [OPC], Reducing identifiability in cross-national perspective: Statutory and policy definitions for anonymization, pseudonymization, and de-identification in G7 jurisdictions (2024), https://www.priv.gc.ca/en/opc-news/news-and-announcements/2024/de-id_20241011/ (last visited Feb 3, 2025). [7]Office of the Privacy Commissioner of Canada [OPC], Statement on Generative AI (2023), https://www.priv.gc.ca/en/opc-news/speeches-and-statements/2023/s-d_20230621_g7/ (last visited Feb 3, 2025). [8]Supra note 4, at para. 11. [9]Supra note 4, at para. 18. [10]Supra note 5, at para. 5-6. [11]Supra note 5, at para. 7. [12]Supra note 6, at para. 11-15. [13]Supra note 6, at para. 16-19. [14]Supra note 6, at para. 20-25. [15]Office of the Privacy Commissioner of Canada [OPC], G7 Data Protection and Privacy Authorities’ Action Plan (2024), https://www.priv.gc.ca/en/opc-news/news-and-announcements/2024/ap-g7_241011/ (last visited Feb 3, 2025).

TOP