有鑒於智慧聯網IoT環境下,許多智慧型手持裝置及行動通訊裝置,大量蒐集消費者資訊之隱私權暨資訊安全考量,美國國會於2013年5月10日提出「應用軟體隱私暨資訊安全保護法草案」(Application Privacy, Protection, and Security Act of 2013, APPS Act of 2013, H.R. 1913)進行審議。「應用軟體隱私暨資訊安全保護法草案」草案針對應用軟體(Application)在蒐集消費者資訊前,如何落實「同意」機制,乃強制行動通訊裝置應用軟體開發商(developer)應:(1)提供使用者個人資料蒐集、使用、儲存及公開之通知(notice),而該通知含括所蒐集個人資料之種類、使用目的、有償公開第三者之類別及資料儲存等;(2)取得使用者之同意(consent);消費者依據該草案亦有權撤銷其「同意」(withdrawal of consent)。此外,草案乃強制要求該行動通訊裝置應用軟體開發商,就非法近取之個人資料及經去識別化應用軟體蒐集之個人資料,應採取合理及適當之防衛措施(security measures on personal data and de-identified data)。
並且,針對網路環境下隱私權保護議題,更早之前,美國國會於2013年2月28日提出「線上禁止追蹤法草案」(Do-Not-Track Online Act of 2013) 進行審議。「線上禁止追蹤法草案」草案乃要求聯邦貿易委員會(FTC),就透過個人線上活動追蹤,以蒐集、使用個人資料之行為態樣,進行管制。該管制模式謹據以要求如下:(1)被搜集資料個人應收到簡單、明確、並載明資料使用目的之通知(clear, conspicuous and accurate notice and use of such information),而個人就該通知應予明白之同意(affirmative consent);(2)FTC未來在訂定標準規範時,應(shall)考量所被搜集之資料,是否在匿(隱)名基礎上處理之,遂該資料無法有效被聯結(指認)到特定個人或裝置上;此外,消費者當享有資料不被蒐集的權利(expressed preference by individual not to have personal information collected)。該草案並就違反之個人,設定最高15,000,000美元損害賠償規定。
國際藥廠Novartis被指控濫用美國食品藥品管理局(the U.S. Food and Drug Administration,簡稱FDA)為鼓勵藥廠投入研發被忽視疾病治療藥物所設立的一套獎勵制度。 這套制度是根據2007年美國國會所通過之美國食品藥品管理法修正案(the Food and Drug Administration Amendments Act of 2007)而創設,主要是給予向FDA申請治療其表列之被忽視熱帶疾病(例如瘧疾、血吸蟲病、利什曼病等)藥品查驗登記並獲通過之申請者一份所謂「藥品優先審查劵」(priority review voucher),讓該申請者可以用於之後所提出的人類藥品查驗登記申請,而得以享有優先審查之權利。 這個所謂「藥品優先審查劵」對於藥廠來說可說是價值非凡,因為藥品查驗登記程序正常情況往往超過10個月以上,但是適用優先審查程序之申請案,卻可以有九成左右在6個月內就獲得通過,這對於藥廠的好處在於,其可以比其他競爭者更快地將其所生產藥品上市販售。 Novartis於2009年4月獲得FDA通過其就治療瘧疾藥物Coartem之查驗登記申請,而成為適用此獎勵制度之首例並獲得「藥品優先審查劵」。Novartis的行為之所以招致批判,因為其所申請之藥物Coartem並非是針對治療瘧疾所研發出來的新藥,其從1999年起便已在部分國家被許可使用,只是該藥物在美國從未被申請查驗登記而獲准通過。由於上述獎勵制度並未言明是針對新開發之治療熱帶疾病的藥品,所以Novartis的動作可以符合其要件並獲得獎勵,但此舉卻有鑽法律漏洞之嫌。
新加坡資料共享法制環境建構簡介新加坡資料共享法制環境建構簡介 資訊工業策進會科技法律研究所 2019年12月31日 壹、事件摘要 如何有效運用資料創造最大效益為數位經濟(Digital Economy)重點,其中資料共享(data sharing)是有效方法之一。新加坡自2018年以來推動「資料共享安排」機制(Data Sharing Arrangements, 下稱DSAs)與「可信任資料共享框架」(Trusted Data Sharing Framework),建構資料共享環境,帶動國內組織[1]資料經濟發展與競爭力。 貳、重點說明 自從2014年新加坡政府推行「2025智慧國家(Smart Nation)」以來,即積極鋪設國家數位經濟建設,大數據資料分析等數位科技發展為其重點,預估2022年60%國內生產總值將與數位經濟有關[2] 。其中,希望透過資料共享促進組織、政府、個人三方間資料無障礙流通,降低蒐集、處理與利用成本,創造更多合作機會進行創新應用,因此從法制面、環境面與技術應用層面打造完善的資料共享生態系統(data sharing ecosystem)[3]。 然而依據《個人資料保護法》(Personal Data Protection Act 2012,下稱個資法)第14條以下規定,組織蒐集、處理與利用個人資料應取得當事人同意,除非符合第17條研究目的等例外情形。由於資料共享強調可將資料進行多節點快速傳遞近用,使資料利用價值最大化,因此若依據個資法規定每次共享皆須事前獲得當事人同意,將使近用成本增高並間接造成資料流通產生障礙。因此為因應國家政策與產業需求,新加坡個人資料保護委員會(Personal Data Protection Commission, 下稱個資委員會)依據個資法第62條所賦予的豁免權(exemption),個人或組織可在遵循個資委員會訂定的規則下,依照個案給予組織免除個資法部分規範[4] ,而DSAs機制即是一種[5]。 DSAs是由個資委員會於2018年設立的沙盒(sandbox)計畫,如組織所進行的共享模式是在特定群體並範圍具體明確,同時不會造成個人有負面影響等情事,可在不須經個人同意下進行資料共享[6]。並且,為進一步提升組織與消費者間信任,2019年6月個資委員會與資訊通信媒體發展局(Info-Communication Media Development Authority of Singapore,下稱資通發展局)共同推出「可信任資料共享框架」指南建議,由政府擔任監管角色,組織只要符合指南建議方向,如遵循法律、達到一定資料技術應用品質與實施資安與個資保護措施下,可以進行個人與商業資料之共享,DSAs機制是共享方法之一。以下簡述新加坡個資法規範、指南建議與DSAs機制運作方式。 圖1:資料共享環境建構 資料來源:新加坡資通發展局 一、新加坡個人資料保護法規範 在沒有個資法第17條所列之例外情形下,依據第14條以下規定,組織如近用個人資料應獲得個人同意,同時應符合目的使用及通知義務,尤其應給予個人可隨時撤回同意之權利[7]。 同時組織應根據個人要求,提供近用個人資料之方法、範圍與內容,以及更正錯誤資料權利[8]。並且組織必須任命資料保護官(Data Protection Officer, DPO)隨時向大眾提供通暢的個資聯絡管道,來確保個資透明性與完整性[9]。 在資料保護措施上應有合理安全的資安防護技術,以保障資料不被未經授權近用的風險。當使用目的不在時,需妥善保留或予以去識別化,同時如須境外轉移資料時,境外之資料保護措施應至少與新加坡個資法規範標準相同[10]。 二、免除同意之DSAs機制 DSAs機制是由個資委員會於2018年設立的沙盒(sandbox)計畫,也就是組織可透過申請免除資料共享前必須獲得個人同意之規範。然而如組織擬向個資委員會申請DSAs機制,必須符合三個條件[11]: 共享範圍需在特定群體、期間與組織內:即只限定在具體特定的應用情境內,若超出申請範圍,例如分享至其他非申請範圍的組織,則須再經過個資委員會批准[12]。 近用目的需具體明確:即資料共享必須應用於特定且明確目的,如以「社會研究目的」作為申請則範圍過大不夠明確[13]。 近用資料對於個人不會有不利影響,或公共利益大於個人利益:例如共享目的不是直接用於銷售或存在合法利益,或是共享本身具備公共利益且明顯大於個人可預見的(foreseeable)不利影響,此時個資委員會可考慮同意組織申請免除[14]。 三、建立以信任為基礎之資料共享模式 雖然取得DSAs機制免除同意可以使資料近用方式更為簡便,然而在進行資料共享前,仍應有完善的技術品質與資安保護措施,因此在「可信任資料共享框架」指南建議中,組織應透過法律遵循、導入AI或區塊鏈等新興技術,並具備相應資安保護措施來建構可信任的資料共享環境,實際步驟可分為以下四階段[15]: 圖2:可信任資料框架 資料來源:新加坡資通發展局 第一階段為「資料共享建構」[16],由組織自行評估存有的商業或個人資料是否具共享價值與潛在利益,並要如何進行共享,例如資料共享方式屬於雙邊(bilateral)、多邊(multilateral)或是分散式(decentralized,又稱「去中心化」)。以及資料種類有哪些,如主資料(master data)、交易資料、元資料(metadata)、非結構化資料(unstructured data)等。組織可將資料共享方式、種類依據無形資產(intangible asset)評價方式,即市場法(market approach)、成本法(cost approach)與收入法(income approach)三種評價方法進行評價,來衡量共享之價值性。除資料價值判斷外,組織必須自行評估自身組織與將來之合作夥伴是否有足夠能力管控共享之資料,包括是否具備一定技術能力的資安與資料保護措施等。 第二階段為「法律規範考量」[17],即決定哪些資料可以進行共享,從規範面檢視個資法、競爭法與銀行法等是否有例外不得共享規定,例如信用卡號碼或個人生物識別資訊不得共享。若資料共享類型不會對個人造成不利影響或具備公共利益,並有通知(notification)個人給予選擇退出(opt-out)的機會,組織可依個案申請DSAs機制之豁免。同時另外鼓勵組織向IMDA申請資料保護信任標章(Data Protection Trustmark, DPTM)認證,透過認證機制使消費者更能信任組織運用其個人資料[18]。 第三階段為「技術組織考量」[19],包含組織是否有能力建立資安風險管理與個資侵害之因應措施,是否有即時將資料安全備份技術,並針對不同傳輸技術如有線/無線網路、遠端存取(VPN)、應用程式介面(API)、區塊鏈等區分不同資安防護與風險管理能力。 最後一階段為「資料共享操作」,當已準備進行資料共享時,需再次檢視是否已符合前三個階段,包含透明性、責任義務、法律遵循、近用資料方式與取得目的外利用同意等[20]。 參、事件評析 個人資料視為21世紀驅動創新的重要價值,我國部會亦開始討論「個資資產化」的可能[21]。面對數位經濟時代來臨,有效運用數位科技將潛藏個人資料的大數據進行加值利用,不僅有利組織與創新發展,更可回饋消費者享有更好的產品與服務。 新加坡政府以資料共享作為數位經濟發展重點方向之一,在具備一定程度技術能力、資安保護措施與組織控管之條件下,可向主管機關申請免除個人同意之規範。透過一定法規鬆綁讓資料利用最大化以創造產業創新價值,同時依據主管機關要求的保護措施,使消費者信賴個人資料不會遭受不當利用或侵害。DSAs機制與「可信任資料共享框架」指南之建立,適時調適個人資料保護規範與資料應用間的衝突,並提供組織進行資料共享之依循建議,作為推動該國數位經濟發展方針之一。 [1]組織(organisation)依據新加坡個人資料保護法(Personal Data Protection Act 2012)第2條泛指個人、公司、協會、法人或團體。 [2]INFOCOMM MEDIA DEVELOPMENT AUTHORITY 【IMDA】, Trusted data sharing framework (2019), at 7, https://www.imda.gov.sg/-/media/Imda/Files/Programme/AI-Data-Innovation/Trusted-Data-Sharing-Framework.pdf (last visited Sep. 11, 2019). [3]id. [4]Personal Data Protection Act 2012 (No. 26 of 2012) §62, “The Commission may, with the approval of the Minister, by order published in the Gazette, exempt any person or organisation or any class of persons or organisations from all or any of the provisions of this Act, subject to such terms or conditions as may be specified in the order.” [5]Data Sharing Arrangements, PDPC, https://www.pdpc.gov.sg/Overview-of-PDPA/The-Legislation/Exemption-Requests/Data-Sharing-Arrangements (last visited Dec. 1, 2019). [6]id. [7]IMDA, supra note 2, at 31; Personal Data Protection Act 2012 (No. 26 of 2012) §14, 16, 20. [8]id. Personal Data Protection Act 2012 (No. 26 of 2012) §21. [9]IMDA, supra note 2, at 31. [10]id. at 32. Personal Data Protection Act 2012 (No. 26 of 2012) §24-26. [11]id. [12]PERSONAL DATA PROTECTION COMMISSION【PDPC】, Guide to Data Sharing (2018), at 14, https://www.pdpc.gov.sg/-/media/Files/PDPC/PDF-Files/Other-Guides/Guide-to-Data-Sharing-revised-26-Feb-2018.pdf (last revised Oct. 3, 2019). [13]id. [14]id. [15]PDPC, supra note 4. at 28. [16]id. at 21, 23-25. [17]id. at 35 [18]id. at 30. Data Protection Trustmark Certification, IMDA, https://www.imda.gov.sg/programme-listing/data-protection-trustmark-certification (last visited Sep. 26, 2019). [19]id. at 41-47. [20]id. at 50-51. [21]林于蘅,〈自己的個資自己賣!國發會擬推「個資資產化」〉,聯合新聞網,2019/06/17,https://udn.com/news/story/7238/3877400 (最後瀏覽日:2019/10/1)。
G7第四屆資料保護與隱私圓桌會議揭示隱私保護新趨勢G7第四屆資料保護與隱私圓桌會議揭示隱私保護新趨勢 資訊工業策進會科技法律研究所 2025年03月10日 七大工業國組織(Group of Seven,下稱G7)於2024年10月10日至11日在義大利羅馬舉辦第四屆資料保護與隱私機構圓桌會議(Data Protection and Privacy Authorities Roundtable,下稱圓桌會議),並發布「G7 DPAs公報:資料時代的隱私」(G7 DPAs’ Communiqué: Privacy in the age of data,下稱公報)[1],特別聚焦於人工智慧(AI)技術對隱私與資料保護的影響。 壹、緣起 由美國、德國、英國、法國、義大利、加拿大與日本的隱私主管機關(Data Protection and Privacy Authorities, DPAs)組成本次圓桌會議,針對數位社會中資料保護與隱私相關議題進行討論,涵蓋「基於信任的資料自由流通」(Data Free Flow with Trust, DFFT)、新興技術(Emerging technologies)、跨境執法合作(Enforcement cooperation)等三大議題。 本次公報重申,在資通訊技術主導的社會發展背景下,應以高標準來審視資料隱私,從而保障個人權益。而DPAs作為AI治理領域的關鍵角色,應確保AI技術的開發和應用既有效且負責任,同時在促進大眾對於涉及隱私與資料保護的AI技術認識與理解方面發揮重要作用[2]。此外,公報亦強調DPAs與歐盟理事會(Council of Europe, CoE)、經濟合作暨發展組織(Organisation for Economic Co-operation and Development, OECD)、亞太隱私機構(Asia Pacific Privacy Authorities, APPA)、全球隱私執行網路(Global Privacy Enforcement Network, GPEN)及全球隱私大會(Global Privacy Assembly, GPA)等國際論壇合作的重要性,並期望在推動資料保護與建立可信賴的AI技術方面作出貢獻[3]。 貳、重點說明 基於上述公報意旨,本次圓桌會議上通過《關於促進可信賴AI的資料保護機構角色的聲明》(Statement on the Role of Data Protection Authorities in Fostering Trustworthy AI)[4]、《關於AI與兒童的聲明》(Statement on AI and Children)[5]、《從跨國角度觀察降低可識別性:G7司法管轄區對匿名化、假名化與去識別化的法定及政策定義》(Reducing identifiability in cross-national perspective: Statutory and policy definitions for anonymization, pseudonymization, and de-identification in G7 jurisdictions)[6],分別說明重點如下: 一、《關於促進可信賴AI的資料保護機構角色的聲明》 繼2023年第三屆圓桌會議通過《關於生成式AI聲明》(Statement on Generative AI)[7]後,本次圓桌會議再次通過《關於促進可信賴AI的資料保護機構角色的聲明》,旨在確立管理AI技術對資料保護與隱私風險的基本原則。G7 DPAs強調許多AI技術依賴個人資料的運用,這可能引發對個人偏見及歧視、不公平等問題。此外,本聲明中還表達了擔憂對這些問題可能透過深度偽造(Deepfake)技術及假訊息擴散,進一步對社會造成更廣泛的不良影響[8]。 基於上述考量,本聲明提出以下原則,納入G7 DPAs組織管理的核心方針[9]: 1. 以人為本的方法:G7 DPAs應透過資料保護來維護個人權利與自由,並在AI技術中提供以人權為核心的觀點。 2. 現有原則的適用:G7 DPAs應審視公平性、問責性、透明性和安全性等AI治理的核心原則,並確保其適用於AI相關框架。 3. AI核心要素的監督:G7 DPAs應從專業視角出發,監督AI的開發與運作,確保其符合負責任的標準,並有效保護個人資料。 4. 問題根源的因應:G7 DPAs應在AI的開發階段(上游)和應用階段(下游)找出問題,並在問題擴大影響前採取適當措施加以解決。 5. 善用經驗:G7 DPAs應充分利用其在資料領域的豐富經驗,謹慎且有效地應對AI相關挑戰。 二、《關於AI與兒童的聲明》 鑒於AI技術發展可能對於兒童和青少年產生重大影響,G7 DPAs發布本聲明表示,由於兒童和青少年的發展階段及其對於數位隱私的瞭解、生活經驗有限,DPAs應密切監控AI對兒童和青少年的資料保護、隱私權及自由可能造成的影響程度,並透過執法、制定適合年齡的設計實務守則,以及發佈面向兒童和青少年隱私權保護實務指南,以避免AI技術導致潛在侵害兒童和青少年隱私的行為[10]。 本聲明進一步闡述,當前及潛在侵害的風險包含[11]: 1. 基於AI的決策(AI-based decision making):因AI運用透明度不足,可能使兒童及其照顧者無法獲得充足資訊,以瞭解其可能造成重大影響的決策。 2. 操縱與欺騙(Manipulation and deception):AI工具可能具有操縱性、欺騙性或能夠危害使用者情緒狀態,促使個人採取可能危害自身利益的行動。例如導入AI的玩具可能使兒童難以分辨或質疑。 3. AI模型的訓練(Training of AI models):蒐集和使用兒童個人資料來訓練AI模型,包括從公開來源爬取或透過連線裝置擷取資料,可能對兒童的隱私權造成嚴重侵害。 三、《從跨國角度觀察降低可識別性:G7司法管轄區對匿名化、假名化與去識別化的法定及政策定義》 考慮到個人資料匿名化、假名化及去識別化能促進資料的創新利用,有助於最大限度地減少隱私風險,本文件旨在整合G7成員國對於匿名化、假名化與去識別化的一致理解,針對必須降低可識別性的程度、資訊可用於識別個人的程度、減少可識別性的規定流程及技術、所產生的資訊是否被視為個人資料等要件進行整理,總結如下: 1. 去識別化(De-identification):加拿大擬議《消費者隱私保護法》(Consumer Privacy Protection Act, CPPA)、英國《2018年資料保護法》(Data Protection Act 2018, DPA)及美國《健康保險可攜性及責任法》(Health Insurance Portability and Accountability Act , HIPAA)均有去識別化相關規範。關於降低可識別性的程度,加拿大CPPA、英國DPA規定去識別化資料必須達到無法直接識別特定個人的程度;美國HIPAA則規定去識別化資料須達到無法直接或間接識別特定個人的程度。再者,關於資料去識別化的定性,加拿大CPPA、英國DPA認定去識別化資料仍被視為個人資料,然而美國HIPAA則認定去識別化資料不屬於個人資料範疇。由此可見,各國對去識別化規定仍存在顯著差異[12]。 2. 假名化(Pseudonymization):歐盟《一般資料保護規則》(General Data Protection Regulation, GDPR)及英國《一般資料保護規則》(UK GDPR)、日本《個人資料保護法》(個人情報の保護に関する法律)均有假名化相關規範。關於降低可識別性的程度,均要求假名化資料在不使用額外資訊的情況下,須達到無法直接識別特定個人的程度,但額外資訊應與假名化資料分開存放,並採取相應技術與組織措施,以確保無法重新識別特定個人,因此假名化資料仍被視為個人資料。而關於假名化程序,日本個資法明定應刪除或替換個人資料中可識別描述或符號,歐盟及英國GDPR雖未明定具體程序,但通常被認為採用類似程序[13]。 3. 匿名化(Anonymization):歐盟及英國GDPR、日本個資法及加拿大CPPA均有匿名化相關規範。關於降低可識別性的程度,均要求匿名化資料無法直接或間接識別特定個人,惟可識別性的門檻存在些微差異,如歐盟及英國GDPR要求考慮控管者或其他人「合理可能用於」識別個人的所有方式;日本個資法則規定匿名化資料之處理過程必須符合法規標準且不可逆轉。再者,上述法規均將匿名化資料視為非屬於個人資料,但仍禁止用於重新識別特定個人[14]。 參、事件評析 本次圓桌會議上發布《關於促進可信賴AI的資料保護機構角色的聲明》、《關於AI與兒童的聲明》,彰顯G7 DPAs在推動AI治理原則方面的企圖,強調在AI技術蓬勃發展的背景下,隱私保護與兒童權益應成為優先關注的議題。與此同時,我國在2024年7月15日預告《人工智慧基本法》草案,展現對AI治理的高度重視,融合美國鼓勵創新、歐盟保障人權的思維,針對AI技術的應用提出永續發展、人類自主、隱私保護、資訊安全、透明可解釋、公平不歧視、問責等七項原則,為國內AI產業與應用發展奠定穩固基礎。 此外,本次圓桌會議所發布《從跨國角度觀察降低可識別性:G7司法管轄區對匿名化、假名化與去識別化的法定及政策定義》,揭示各國在降低可識別性相關用語定義及其在資料保護與隱私框架中的定位存在差異。隨著降低可識別性的方法與技術不斷創新,這一領域的監管挑戰日益突顯,也為跨境資料流動越發頻繁的國際環境提供了深化協調合作的契機。在全球日益關注資料保護與隱私的趨勢下,我國個人資料保護委員會籌備處於2024年12月20日公告《個人資料保護法》修正草案,要求民間業者設置個人資料保護長及稽核人員、強化事故通報義務,並針對高風險行業優先實施行政檢查等規定,以提升我國在數位時代的個資保護水準。 最後,本次圓桌會議尚訂定《2024/2025年行動計畫》(G7 Data Protection and Privacy Authorities’ Action Plan)[15],圍繞DFFT、新興技術與跨境執法合作三大議題,並持續推動相關工作。然而,該行動計畫更接近於一項「基於共識的宣言」,主要呼籲各國及相關機構持續努力,而非設定具有強制力或明確期限的成果目標。G7 DPAs如何應對數位社會中的資料隱私挑戰,並建立更順暢且可信的國際資料流通機制,將成為未來關注的焦點。在全球共同面臨AI快速發展所帶來的機遇與挑戰之際,我國更應持續關注國際趨勢,結合自身需求制訂相關法規以完善相關法制,並積極推動國際合作以確保國內產業發展銜接國際標準。 [1]Office of the Privacy Commissioner of Canada [OPC], G7 DPAs’ Communiqué: Privacy in the age of data (2024), https://www.priv.gc.ca/en/opc-news/news-and-announcements/2024/communique-g7_241011/ (last visited Feb 3, 2025). [2]Id. at para. 5. [3]Id. at para. 7-9. [4]Office of the Privacy Commissioner of Canada [OPC], Statement on the Role of Data Protection Authorities in Fostering Trustworthy AI (2024), https://www.priv.gc.ca/en/opc-news/speeches-and-statements/2024/s-d_g7_20241011_ai/ (last visited Feb 3, 2025). [5]Office of the Privacy Commissioner of Canada [OPC], Statement on AI and Children (2024), https://www.priv.gc.ca/en/opc-news/speeches-and-statements/2024/s-d_g7_20241011_child-ai/ (last visited Feb 3, 2025). [6]Office of the Privacy Commissioner of Canada [OPC], Reducing identifiability in cross-national perspective: Statutory and policy definitions for anonymization, pseudonymization, and de-identification in G7 jurisdictions (2024), https://www.priv.gc.ca/en/opc-news/news-and-announcements/2024/de-id_20241011/ (last visited Feb 3, 2025). [7]Office of the Privacy Commissioner of Canada [OPC], Statement on Generative AI (2023), https://www.priv.gc.ca/en/opc-news/speeches-and-statements/2023/s-d_20230621_g7/ (last visited Feb 3, 2025). [8]Supra note 4, at para. 11. [9]Supra note 4, at para. 18. [10]Supra note 5, at para. 5-6. [11]Supra note 5, at para. 7. [12]Supra note 6, at para. 11-15. [13]Supra note 6, at para. 16-19. [14]Supra note 6, at para. 20-25. [15]Office of the Privacy Commissioner of Canada [OPC], G7 Data Protection and Privacy Authorities’ Action Plan (2024), https://www.priv.gc.ca/en/opc-news/news-and-announcements/2024/ap-g7_241011/ (last visited Feb 3, 2025).
當個人隱私遇上公共利益--從個資法角度談市長候選人病歷外洩事件