由於能源價格、供給不穩定、以及環境考量等因素,使美國思考潔淨及再生能源的開發。美國能源部在2008年公布了一份報告「20% Wind Energy by 2030: Increasing Wind Energy’s Contribution to U.S. Electricity Supply」,檢視風能利用的可行性,希望在2030年達到風能發電占全國20%的需求。
美國在2010年因為金融海嘯後期的影響,對於能源的需求及價格降低,導致風能的發展減緩。而面臨一些新興的市場,例如拉丁美洲、非洲、亞洲陸續加入風能的開發領域,尤其中國大陸,自2005年後,幾乎每年呈倍數成長,2010年所累積的風能更超越美國,美國再度投入相關的計畫研發,在今年(2012)美國能源部宣布展開一項投入1.8億、長達六年的離岸風力能源計畫。
此計畫的第一步將於今年投入二千萬於全美四處離岸地區導入風力能源,這些風力能源計畫將能加速風力科技的重大發展,並能協助美國能源的多樣性規劃、提升經濟發展。離岸風力是美國相當具有潛力的能源,估計可以提供超過4000GW的能量,可以緩和美國的能源危機及經濟和環境的挑戰,而且能夠提供大部分人民居住的沿海城市的能源和電力。
此一計畫之申請者,希望是能在能源開發、設備提供、研究機構、海洋裝置專家等領域組成世界級的團隊。其目的是為了促進美國離岸風力的發展,並協助下一代風力能源科技的設計與示範。這個試驗計畫能協助瞭解導入離岸渦輪機、連接渦輪機與電網的主要挑戰。投入這個新興的產業,政府的補助可協助降低成本並加速美國沿海風力能源科技的發展,而且在實際的沿海環境測試能提供有價值的資訊。
在積極發展風能的同時,美國參議院於2012年3月,否決了風能業者延長租稅優惠的提案,此租稅優惠方案將於年底屆至。此優惠是針對風能發電製造成本的補貼,相關業者紛紛表示,終止此補貼將會影響美國風能的發展,因此他們將會繼續爭取。
人工智慧技術用於醫療臨床決策支援之規範與挑戰—以美國FDA為例 資訊工業策進會科技法律研究所 蔡宜臻法律研究員 2018年11月27日 壹、事件摘要 美國係推動人工智慧用於醫療服務的領航國家,FDA轄下的數位健康計畫(Digital Health Program)小組負責針對軟體醫療器材規劃新的技術監管模式,在過去五年中,該計畫發布了若干指導文件 ,嘗試為醫用軟體提供更為合適的監督管理機制。但由於指導文件並非法律,監管的不確定性依舊存在,因此近兩年 FDA推動修法並做成多項草案與工作計畫,望以更具約束力的方式回應軟體醫療器材最新技術於臨床之適用。當中最為重要的法制變革,便是2016年底國會通過之《21世紀治癒法》(21st Century Cures Act)。該法重新定義了醫用軟體的監管範圍,一般認為是對人工智慧醫用軟體的監管進行鬆綁,或有助於人工智慧醫用軟體的開發與上市。然而在新法實施近兩年以來,實務上發現人工智慧的技術特質,會導致在進行某些「臨床決策支援之人工智慧軟體」是否為醫療器材軟體之認定時,產生極大的不確定性。對此FDA也於2017年12月作成《臨床與病患決策支持軟體指南草案》(Clinical and Patient Decision Support Software-Draft Guidance for Industry and Food and Drug Administration),望能就部份《21世紀治癒法》及其所修正之《聯邦食品藥物化妝品法》(Federal Food, Drug, and Cosmetic Act, FD&C Act)[1]裡的規範文字提供更為詳細的說明。 本文望能為此項法制變革與其後續衍生之爭議進行剖析。以下將在第貳部分重點說明美國2016年頒布的《21世紀治癒法》內容;在第參部份則針對人工智慧技術用於醫療臨床決策支援所發生之爭議進行分析;最後在第肆部份進行總結。 貳、重點說明 2016年12月美國國會頒布了《21世紀治癒法》,在第3060節明確界定了FDA對數位健康產品(Digital Health Products)之管轄範圍,將某些類型的數位健康產品排除在FDA醫療器材(medical device)定義之外而毋須受FDA監管。此規定亦修正了美國《聯邦食品藥物化妝品法》第520節(o)項有關FDA排除納管之軟體類別之規定。 根據新修正的《聯邦食品藥物化妝品法》第520節(o)(1)項,美國對於醫用軟體的監管範疇之劃設乃是採取負面表列,規定以下幾種類型的軟體為不屬於FDA監管的醫用軟體: 行政管理目的[2];或 目的在於非關診斷、治療、緩解、預防或病症處置之健康維持或健康生活習慣養成[3];或 目的在於進行電子化的個人健康紀錄[4];或 目的用於傳輸、儲存、格式轉換、展示臨床研究或其他裝置資料與結果[5];或 同時符合以下四點之軟體: (1)不從體外醫療器材或訊號蒐集系統來讀取、處理或分析醫療影像或訊號[6]。 (2)目的在於展示、分析或印製病患醫療資訊,或其他醫療訊息(例如:偕同診斷之醫療研究、臨床處置指南)[7]。 (3)目的在於替醫療專業人員就疾病或症狀之預防、診斷或處置提供支持或臨床建議[8]。 (4)使醫師在使用該軟體時尚能獨立審查「臨床建議產生之基礎」,因此醫師所做成之臨床診斷或決策,並非主要依賴該軟體提供之臨床建議[9]。 雖然大多數被排除的類別相對無爭議,但仍有一部分引起法律上不小的討論,即《聯邦食品藥物化妝品法》第520節(o)(1)(E)項所指涉的某些類型之臨床決策支援軟體(Clinical Decision Support Software,以下簡稱CDS軟體)。 CDS軟體係指分析數據以幫助醫療手段實施者(例如:醫師)做出臨床決策的軟體。多數以人工智慧為技術基礎的醫療軟體屬於此一類型,比方病理影像分析系統。根據《21世紀治癒法》與《聯邦食品藥物化妝品法》,CDS軟體是否被排除在FDA的管轄範圍之外,取決於該軟體是否「使醫師在使用該軟體時尚能獨立審查『臨床建議產生之基礎』,因此醫師所做成之臨床診斷或決策,並非主要依賴該軟體提供之臨床建議」[10]。若肯定,則將不被視為FDA所定義之醫療器材。為使此一規定更加明確,FDA於2017年12月8日發布了《臨床與病患決策支持軟體指南草案》,該指南草案針對如何評估軟體是否能讓醫師獨立審查臨床建議產生之基礎進行說明。FDA表示該軟體至少要能清楚解釋以下四點[11]: 該軟體功能之目的或用途;及 預期使用者(例如超音波技師、心血管外科醫師);及 用於產生臨床建議的原始資料(例如患者的年齡和性別);及 臨床建議產生背後之邏輯或支持證據 後續方有機會被FDA認定係令醫療專業人員使用該軟體時,能「獨立審查」臨床建議產生之基礎。換言之,指南草案所提的四點,為FDA肯認醫師在使用軟體時尚能「獨立審查」之必要前提。除此之外,指南草案尚稱預期使用者必須能自己做成與軟體相同之判斷,並且要求「用於生成臨床建議與演算邏輯的原始資料必須可被預期使用者辨識、近用、理解,並為公眾可得」[12],進而方有機會符合《聯邦食品藥物化妝品法》第520節(o)(1)(E)(iii)之規定;若該軟體亦同時符合第520節(o)(1)(E)之其他要件,則有望被劃分為非醫療器材而不必受FDA監管。 由於規範內容較為複雜,指南草案亦提供案例說明。比方若一糖尿病診斷軟體是由醫生輸入患者參數和實驗室測試結果(例如空腹血糖、口服葡萄糖耐量測試結果或血紅蛋白A1c測試結果),並且該裝置根據既定臨床指南建議患者的病情是否符合糖尿病的定義,可被FDA認定為「非醫療器材」[13];而諸如分析電腦斷層、超音波影像之軟體,則仍維持屬於醫療器材[14]。 另需注意的是,《聯邦食品藥物化妝品法》在第520節(o)(3)(A)(i)項亦建立「彌補性納回(claw-back)」機制,FDA需遵守通知評論程序(notice-and-comment process)以便及時發現軟體可能對健康造成嚴重危害的風險,並隨時將之納回監管範疇中。同時FDA每兩年必須向國會報告醫療器材軟體的實施經驗[15]。 參、事件評析 《21世紀治癒法》頒布至今兩年,FDA已核准多個以人工智慧為技術核心的軟體,例如在2018年2月13日通過能自動偵測可疑的大血管阻塞(large vessel occlusion, LVO),並迅速通知醫師病人可能有的中風危險的臨床決策支援軟體:Viz.AI Contact application;又比如於2018年4月11日通過利用演算法分析由視網膜攝影機(Topcon NW400)所獲得的影像,快速篩檢糖尿病病人是否有必須由專業眼科醫師治療的視網膜病變的IDx-DR。 然而,在CDS軟體以人工智慧為技術核心時,現有的法規與監管框架依舊有幾點疑慮: 一、「理解」演算法? 根據新修正之《聯邦食品藥物化妝品法》,如果CDS軟體欲不受FDA監管,醫師的決策必須保持獨立性。目前規定只要該醫療產品「企圖」(intended to)使醫師等專業人員理解演算法即可,並不論醫師是否真正理解演算法。然而,若FDA肯認理解演算法對於執行醫療行為是重要的,那麼當CDS係基於機器學習產生演算法時,具體該如何「理解」就連開發者本身都未必能清楚解釋的演算法?有學者甚至認為,CDS軟體是否受到FDA法規的約束,可能會引導至一個典型的認識論問題:「我們是怎麼知道的?(How do we know?)」[16]。對此問題,我們或許需要思考:當醫師無法理解演算法,會發生什麼問題?更甚者,未來我們是否需要訓練一批同時具備人工智慧科學背景的醫療人員?[17] 二、如何要求演算法透明度? 指南草案所提之「清楚解釋臨床建議產生背後之邏輯或支持證據」以及資料來源為公眾可得、醫生對演算法使用的資料來源之近用權限等,被認為是FDA要求廠商應使CDS軟體之演算法透明[18]。但根據FDA指南草案公告後得到的反饋,醫療軟體廠商對此要求認為並不合理。廠商認為,應該從實際使用效益來審視人工智慧或機器學習軟體所提出的臨床建議是否正確,而不是演算法是什麼、怎麼產生[19]。 三、醫療專業人員之獨立專業判斷是否會逐漸被演算法取代?未來醫療軟體廠商與醫療專業人員之責任該如何區分? FDA目前的法規與指南並未直接回應此二問題,惟其對於不被列管之CDS軟體之規定係需使醫師並非主要依賴該軟體提供之臨床建議、醫師能自己做成與軟體相同之判斷。由反面解釋,即FDA肯認部份CDS軟體具備與醫師雷同之臨床診斷、處置、決策之功能,或能部份取代醫師職能,因此需受FDA監管。是故,醫師之專業能力與人工智慧演算法相互之間具有取代關係,已是現在進行式。惟究竟醫師的判斷有多少是倚靠人工智慧現階段尚無法取得量化證據,或需數年時間透過實證研究方能研判。往後,醫療軟體廠商與醫師之責任該如何區分,將會是一大難題。 肆、結語 隨著醫療大數據分析與人工智慧技術的發展,傳統認知上的醫療器材定義已隨之改變。雖然硬體設備仍然在診斷、治療與照護上扮演極為重要的角色,但軟體技術的進步正在重新改寫現代醫療服務執行以及管理模式。這些新產品及服務為醫療器材市場帶來活水,但同時也形成新的監管議題而必須採取適當的調整措施。美國FDA針對近年來呈爆炸性發展的醫療軟體產業不斷調整或制定新的監管框架,以兼顧使用者安全與新技術開展,並於2016年通過了極具改革意義的《21世紀治癒法》,且以此法修正了《聯邦食品藥物化妝品法》。 然而,新法實施後,關於個別醫用軟體是否納為不受FDA監管的醫療器材仍有法律認定上的灰色空間。舉例而言,倍受矚目的以人工智慧為核心技術的CDS軟體,在新法框架下似乎可能存在於監管紅線的兩側。根據新修正之《聯邦食品藥物化妝品法》,一CDS軟體是否屬於醫療器材軟體,關鍵在於醫師能否「獨立審查」從而「非主要依賴」軟體所提供之臨床建議。也由於此要件概念較為模糊,FDA後續在2017年發布《臨床與病患決策支持軟體指南草案》為此提供進一步解釋,然而仍無法妥適處理人工智慧機器學習技術所導致的演算法「該如何理解?」、「透明度該如何認定?」等問題。更甚者,從整體醫療服務體系納入人工智慧協助臨床決策診斷之趨勢觀之,未來醫療專業人員的獨立判斷是否會逐漸被演算法取代?未來人工智慧軟體與醫療專業人員之責任該如何區分?都是醞釀當中的重要議題,值得持續關注。 [1] 21 U.S. Code §360j [2] FD&C Act Sec. 520(o)(1)(A) [3] FD&C Act Sec. 520(o)(1)(B) [4] FD&C Act Sec. 520(o)(1)(C) [5] FD&C Act Sec. 520(o)(1)(D) [6] FD&C Act Sec. 520(o)(1)(E) [7] FD&C Act Sec. 520(o)(1)(E)(i) [8] FD&C Act Sec. 520(o)(1)(E)(ii) [9] FD&C Act Sec. 520(o)(1)(E)(iii) [10] “Enabling such health care professionals to independently review the bases for such recommendations that such software presents so that it is not the intent that such health care professional rely primary on any of such recommendations to make clinical diagnosis or treatment decisions regarding individual patient.” FD&C Act, Sec. 520(O)(1)(E)(iii) [11] FOOD AND DRUG ADMINISTRATION[FDA], Clinical and Patient Decision Support Software-Draft Guidance for Industry and Food and Drug Administration (2017), .at 8 https://www.fda.gov/downloads/medicaldevices/deviceregulationandguidance/guidancedocuments/ucm587819.pdf (last visited Sep. 21, 2018) [12] 原文為 “The sources supporting the recommendation or underlying the rationale for the recommendation should be identified and easily accessible to the intended user, understandable by the intended user (e.g., data points whose meaning is well understood by the intended user), and publicly available (e.g., clinical practice guidelines, published literature)”, id, at 8 [13] FOOD AND DRUG ADMINISTRATION[FDA], supra note 11 [14]FOOD AND DRUG ADMINISTRATION[FDA], supra note 11 [15] 21th Century Cures Act, Sec. 3060(b) [16] Barbara J. Evans & Pilar Ossorio, The Challenge of Regulating Clinical Decision Support Software after 21st Century Cures. AMERICAN JOURNAL OF LAW AND MEDICINE (2018), https://papers.ssrn.com/sol3/Delivery.cfm/SSRN_ID3142822_code1078988.pdf?abstractid=3142822&mirid=1 (last visited Sep. 21, 2018) [17] Id. [18] Gail H. Javitt & J.D., M.P.H., ANESTHESIOLOGY, Regulatory Landscape for Clinical Decision Support Technology (2018), http://anesthesiology.pubs.asahq.org/article.aspx?articleid=2669863 (last visited Sep. 21, 2018) [19] REGULATIONS.GOV, Clinical and Patient Decision Support Software; Draft Guidance for Industry and Food and Drug Administration Staff; Availability(Dec. 8, 2017) https://www.regulations.gov/docketBrowser?rpp=25&po=0&dct=PS&D=FDA-2017-D-6569&refD=FDA-2017-D-6569-0001 (last visited Sep. 25, 2018)
美國EPA計劃創建三大生質能源研究中心美國能源局(EPA)宣布,將創建三個生質能源研究中心(bioenergy centers),以研發將植物轉化為燃料的技術方法。此舉乃是布希總統作出美國在未來十年內將降低20%的石油用量之政策宣布後,第一個採取具體配套行動的聯邦政府機關。 生質能源研究中心設立的宗旨是希望在未來五年內能夠以先進技術,成功開發生質能源的產品上市。根據EPA的對外公告資料,三大生質能源研究中心將以公司組織的形式運作,每一個研究中心總投入資本將高達1億2千5百萬美元,三大研究中心分別是位在田納西州Oak Ridge、威斯康辛州的Madison以及加州Berkeley附近,這些區域原本就是重要的研究重鎮,匯聚許多的大學、國家實驗室以及私人企業,形成產業聚落,預計三大生質能源研究中心將自2009年9月1日起的預算年度開始運作。 EPA希望藉由研究中心的聚落效應,集中資源協助這些研究中心從自然界中破壞木質素(lignin)的微生物出發,找出植物的確切細胞膜質(cellulose)之所在。細胞膜質或稱纖維素,是轉化成為乙醇、液態燃料等能源的重要來源物質,因此這些生物運轉機制的瞭解與掌握,乃是開發生物能源技術的基礎。 值得注意的是,各國致力於發展生物燃料以替代汽油的政策,已經使得某些兼具多種用途的作物價格持續攀升,此可由國際期貨市場價格獲得印證。為避免生物燃料的發展反而造成食用作物的搶奪大戰,影響作物市場價格,研究中心也將致力於尋找可以製造較易處理的木質素的新作物種類。
G7第四屆資料保護與隱私圓桌會議揭示隱私保護新趨勢G7第四屆資料保護與隱私圓桌會議揭示隱私保護新趨勢 資訊工業策進會科技法律研究所 2025年03月10日 七大工業國組織(Group of Seven,下稱G7)於2024年10月10日至11日在義大利羅馬舉辦第四屆資料保護與隱私機構圓桌會議(Data Protection and Privacy Authorities Roundtable,下稱圓桌會議),並發布「G7 DPAs公報:資料時代的隱私」(G7 DPAs’ Communiqué: Privacy in the age of data,下稱公報)[1],特別聚焦於人工智慧(AI)技術對隱私與資料保護的影響。 壹、緣起 由美國、德國、英國、法國、義大利、加拿大與日本的隱私主管機關(Data Protection and Privacy Authorities, DPAs)組成本次圓桌會議,針對數位社會中資料保護與隱私相關議題進行討論,涵蓋「基於信任的資料自由流通」(Data Free Flow with Trust, DFFT)、新興技術(Emerging technologies)、跨境執法合作(Enforcement cooperation)等三大議題。 本次公報重申,在資通訊技術主導的社會發展背景下,應以高標準來審視資料隱私,從而保障個人權益。而DPAs作為AI治理領域的關鍵角色,應確保AI技術的開發和應用既有效且負責任,同時在促進大眾對於涉及隱私與資料保護的AI技術認識與理解方面發揮重要作用[2]。此外,公報亦強調DPAs與歐盟理事會(Council of Europe, CoE)、經濟合作暨發展組織(Organisation for Economic Co-operation and Development, OECD)、亞太隱私機構(Asia Pacific Privacy Authorities, APPA)、全球隱私執行網路(Global Privacy Enforcement Network, GPEN)及全球隱私大會(Global Privacy Assembly, GPA)等國際論壇合作的重要性,並期望在推動資料保護與建立可信賴的AI技術方面作出貢獻[3]。 貳、重點說明 基於上述公報意旨,本次圓桌會議上通過《關於促進可信賴AI的資料保護機構角色的聲明》(Statement on the Role of Data Protection Authorities in Fostering Trustworthy AI)[4]、《關於AI與兒童的聲明》(Statement on AI and Children)[5]、《從跨國角度觀察降低可識別性:G7司法管轄區對匿名化、假名化與去識別化的法定及政策定義》(Reducing identifiability in cross-national perspective: Statutory and policy definitions for anonymization, pseudonymization, and de-identification in G7 jurisdictions)[6],分別說明重點如下: 一、《關於促進可信賴AI的資料保護機構角色的聲明》 繼2023年第三屆圓桌會議通過《關於生成式AI聲明》(Statement on Generative AI)[7]後,本次圓桌會議再次通過《關於促進可信賴AI的資料保護機構角色的聲明》,旨在確立管理AI技術對資料保護與隱私風險的基本原則。G7 DPAs強調許多AI技術依賴個人資料的運用,這可能引發對個人偏見及歧視、不公平等問題。此外,本聲明中還表達了擔憂對這些問題可能透過深度偽造(Deepfake)技術及假訊息擴散,進一步對社會造成更廣泛的不良影響[8]。 基於上述考量,本聲明提出以下原則,納入G7 DPAs組織管理的核心方針[9]: 1. 以人為本的方法:G7 DPAs應透過資料保護來維護個人權利與自由,並在AI技術中提供以人權為核心的觀點。 2. 現有原則的適用:G7 DPAs應審視公平性、問責性、透明性和安全性等AI治理的核心原則,並確保其適用於AI相關框架。 3. AI核心要素的監督:G7 DPAs應從專業視角出發,監督AI的開發與運作,確保其符合負責任的標準,並有效保護個人資料。 4. 問題根源的因應:G7 DPAs應在AI的開發階段(上游)和應用階段(下游)找出問題,並在問題擴大影響前採取適當措施加以解決。 5. 善用經驗:G7 DPAs應充分利用其在資料領域的豐富經驗,謹慎且有效地應對AI相關挑戰。 二、《關於AI與兒童的聲明》 鑒於AI技術發展可能對於兒童和青少年產生重大影響,G7 DPAs發布本聲明表示,由於兒童和青少年的發展階段及其對於數位隱私的瞭解、生活經驗有限,DPAs應密切監控AI對兒童和青少年的資料保護、隱私權及自由可能造成的影響程度,並透過執法、制定適合年齡的設計實務守則,以及發佈面向兒童和青少年隱私權保護實務指南,以避免AI技術導致潛在侵害兒童和青少年隱私的行為[10]。 本聲明進一步闡述,當前及潛在侵害的風險包含[11]: 1. 基於AI的決策(AI-based decision making):因AI運用透明度不足,可能使兒童及其照顧者無法獲得充足資訊,以瞭解其可能造成重大影響的決策。 2. 操縱與欺騙(Manipulation and deception):AI工具可能具有操縱性、欺騙性或能夠危害使用者情緒狀態,促使個人採取可能危害自身利益的行動。例如導入AI的玩具可能使兒童難以分辨或質疑。 3. AI模型的訓練(Training of AI models):蒐集和使用兒童個人資料來訓練AI模型,包括從公開來源爬取或透過連線裝置擷取資料,可能對兒童的隱私權造成嚴重侵害。 三、《從跨國角度觀察降低可識別性:G7司法管轄區對匿名化、假名化與去識別化的法定及政策定義》 考慮到個人資料匿名化、假名化及去識別化能促進資料的創新利用,有助於最大限度地減少隱私風險,本文件旨在整合G7成員國對於匿名化、假名化與去識別化的一致理解,針對必須降低可識別性的程度、資訊可用於識別個人的程度、減少可識別性的規定流程及技術、所產生的資訊是否被視為個人資料等要件進行整理,總結如下: 1. 去識別化(De-identification):加拿大擬議《消費者隱私保護法》(Consumer Privacy Protection Act, CPPA)、英國《2018年資料保護法》(Data Protection Act 2018, DPA)及美國《健康保險可攜性及責任法》(Health Insurance Portability and Accountability Act , HIPAA)均有去識別化相關規範。關於降低可識別性的程度,加拿大CPPA、英國DPA規定去識別化資料必須達到無法直接識別特定個人的程度;美國HIPAA則規定去識別化資料須達到無法直接或間接識別特定個人的程度。再者,關於資料去識別化的定性,加拿大CPPA、英國DPA認定去識別化資料仍被視為個人資料,然而美國HIPAA則認定去識別化資料不屬於個人資料範疇。由此可見,各國對去識別化規定仍存在顯著差異[12]。 2. 假名化(Pseudonymization):歐盟《一般資料保護規則》(General Data Protection Regulation, GDPR)及英國《一般資料保護規則》(UK GDPR)、日本《個人資料保護法》(個人情報の保護に関する法律)均有假名化相關規範。關於降低可識別性的程度,均要求假名化資料在不使用額外資訊的情況下,須達到無法直接識別特定個人的程度,但額外資訊應與假名化資料分開存放,並採取相應技術與組織措施,以確保無法重新識別特定個人,因此假名化資料仍被視為個人資料。而關於假名化程序,日本個資法明定應刪除或替換個人資料中可識別描述或符號,歐盟及英國GDPR雖未明定具體程序,但通常被認為採用類似程序[13]。 3. 匿名化(Anonymization):歐盟及英國GDPR、日本個資法及加拿大CPPA均有匿名化相關規範。關於降低可識別性的程度,均要求匿名化資料無法直接或間接識別特定個人,惟可識別性的門檻存在些微差異,如歐盟及英國GDPR要求考慮控管者或其他人「合理可能用於」識別個人的所有方式;日本個資法則規定匿名化資料之處理過程必須符合法規標準且不可逆轉。再者,上述法規均將匿名化資料視為非屬於個人資料,但仍禁止用於重新識別特定個人[14]。 參、事件評析 本次圓桌會議上發布《關於促進可信賴AI的資料保護機構角色的聲明》、《關於AI與兒童的聲明》,彰顯G7 DPAs在推動AI治理原則方面的企圖,強調在AI技術蓬勃發展的背景下,隱私保護與兒童權益應成為優先關注的議題。與此同時,我國在2024年7月15日預告《人工智慧基本法》草案,展現對AI治理的高度重視,融合美國鼓勵創新、歐盟保障人權的思維,針對AI技術的應用提出永續發展、人類自主、隱私保護、資訊安全、透明可解釋、公平不歧視、問責等七項原則,為國內AI產業與應用發展奠定穩固基礎。 此外,本次圓桌會議所發布《從跨國角度觀察降低可識別性:G7司法管轄區對匿名化、假名化與去識別化的法定及政策定義》,揭示各國在降低可識別性相關用語定義及其在資料保護與隱私框架中的定位存在差異。隨著降低可識別性的方法與技術不斷創新,這一領域的監管挑戰日益突顯,也為跨境資料流動越發頻繁的國際環境提供了深化協調合作的契機。在全球日益關注資料保護與隱私的趨勢下,我國個人資料保護委員會籌備處於2024年12月20日公告《個人資料保護法》修正草案,要求民間業者設置個人資料保護長及稽核人員、強化事故通報義務,並針對高風險行業優先實施行政檢查等規定,以提升我國在數位時代的個資保護水準。 最後,本次圓桌會議尚訂定《2024/2025年行動計畫》(G7 Data Protection and Privacy Authorities’ Action Plan)[15],圍繞DFFT、新興技術與跨境執法合作三大議題,並持續推動相關工作。然而,該行動計畫更接近於一項「基於共識的宣言」,主要呼籲各國及相關機構持續努力,而非設定具有強制力或明確期限的成果目標。G7 DPAs如何應對數位社會中的資料隱私挑戰,並建立更順暢且可信的國際資料流通機制,將成為未來關注的焦點。在全球共同面臨AI快速發展所帶來的機遇與挑戰之際,我國更應持續關注國際趨勢,結合自身需求制訂相關法規以完善相關法制,並積極推動國際合作以確保國內產業發展銜接國際標準。 [1]Office of the Privacy Commissioner of Canada [OPC], G7 DPAs’ Communiqué: Privacy in the age of data (2024), https://www.priv.gc.ca/en/opc-news/news-and-announcements/2024/communique-g7_241011/ (last visited Feb 3, 2025). [2]Id. at para. 5. [3]Id. at para. 7-9. [4]Office of the Privacy Commissioner of Canada [OPC], Statement on the Role of Data Protection Authorities in Fostering Trustworthy AI (2024), https://www.priv.gc.ca/en/opc-news/speeches-and-statements/2024/s-d_g7_20241011_ai/ (last visited Feb 3, 2025). [5]Office of the Privacy Commissioner of Canada [OPC], Statement on AI and Children (2024), https://www.priv.gc.ca/en/opc-news/speeches-and-statements/2024/s-d_g7_20241011_child-ai/ (last visited Feb 3, 2025). [6]Office of the Privacy Commissioner of Canada [OPC], Reducing identifiability in cross-national perspective: Statutory and policy definitions for anonymization, pseudonymization, and de-identification in G7 jurisdictions (2024), https://www.priv.gc.ca/en/opc-news/news-and-announcements/2024/de-id_20241011/ (last visited Feb 3, 2025). [7]Office of the Privacy Commissioner of Canada [OPC], Statement on Generative AI (2023), https://www.priv.gc.ca/en/opc-news/speeches-and-statements/2023/s-d_20230621_g7/ (last visited Feb 3, 2025). [8]Supra note 4, at para. 11. [9]Supra note 4, at para. 18. [10]Supra note 5, at para. 5-6. [11]Supra note 5, at para. 7. [12]Supra note 6, at para. 11-15. [13]Supra note 6, at para. 16-19. [14]Supra note 6, at para. 20-25. [15]Office of the Privacy Commissioner of Canada [OPC], G7 Data Protection and Privacy Authorities’ Action Plan (2024), https://www.priv.gc.ca/en/opc-news/news-and-announcements/2024/ap-g7_241011/ (last visited Feb 3, 2025).
虛擬的永恆與往生者個人資料運用逝者已矣,已不再是定律。2020年2月,韓國文化廣播公司(MBC)播放了一部紀錄片,紀錄了電視台製作團隊實現一位母親以虛擬現實VR(virtual reality)與已逝女兒重逢的過程,製作團隊透過動態捕捉技術,錄下一位兒童演員的動作,用以塑造往生者的行為動態,並重現還原往生者的聲音,製作出往生者的的三維虛擬影像。葡萄牙Henrique Jorge公司建立一個名為ETER9的社交網路,將每位用戶與AI進行配對,AI會學習複製該用戶於社交網路之行為,並可代其發表回覆與評論,即使其用戶已往生,AI仍持續運行。現今許多科技新創公司正著手研究「數位來生」,使往生者於數位中重生。 牛津網際網路研究所(Oxford Internet Institute)的一項最新研究顯示,估計約50年後,Facebook內往生者的帳號數量將超過存活者的帳號數量。而FaceBook可視為現今人類物種歷史上最大的人類行為資料庫,曾經創建過個人資料的用戶都不復存在,但他們的數位資訊卻永存於網際網路中,但在多數國家,往生者的資料並不是個人資料保護法令所含括的保護客體,往生者個人資料之運用勢必成為道德與法律上的重要課題。 英國阿斯頓大學的Harbinja教授表示,或可由遺囑中有無處置往生者個人資料之指示作為參考,但其亦表示在某些國家存在無法保證遺囑可得完全兌現的問題,例如,在英國遺囑中決定了個人資料的處理方式,仍可能僅被視為是個人意願,類似遺囑中選擇火葬的決定仍可能被執行者和繼承人推翻,且無法強制執行。 我國個人資料保護法施行細則第2條規定:「本法所稱個人,指現生存之自然人。」,所保護的個人資料對象是指「現生存有生命」的自然人,並不包括「往生者」,而歐洲部分國家允許繼承人行使被繼承人之個人資料保護相關權利,例如匈牙利規定本人可指定特定人或由直系親屬行使本人往生後之權利、西班牙則規定繼承人有權行使GDPR第15條資料查詢權、第16條更正權和第17條刪除權,而義大利則規定親屬代表可基於保護家庭之因素行使往生者於GDPR第15條至第22條之權力。ETER9便可讓用戶設置死後停止AI代替回覆的功能,也可以指定授權往生後的帳號負責人。在數位來生的議題中,我國應可參酌部分歐洲國家運用GDPR規定從而規範往生者個人資料權利之方式,進而探討我國對往生者個人資料運用之相關議題。