Facebook宣布改名為「Meta」,決心投入巨額資金發展虛擬實境並研發相關app提供用戶社交會面和辦公場所,藉此定位自己為元宇宙(Metaverse)公司。臉書創辦人Mark Zuckerberg在今(2021)年10月28日宣告將「Facebook」改名為「Meta」的公開信中提及,在元宇宙中,您幾乎能做到所有能想像到的事情,與朋友和家人聚會、工作、學習、購物等行為。
元宇宙這名詞是如此新穎,以至於沒有一個被普遍接受的定義。它被認為是網路的未來。由臉書創辦人上述的公開信可以得知,元宇宙是個讓使用者能身歷其境且包羅萬象的世界,將超脫電玩與娛樂而進入工作和商業的領域。現實生活中一切的行為幾乎都可以在元宇宙中進行,也因此,現實世界的法律問題,也可能發生在元宇宙中,進而影響法律秩序。
隨著區塊鏈和加密貨幣這類科技被廣泛採用,在元宇宙或Web3.0這樣的虛擬空間經營公司、買賣持有商品將順勢發展而來。財產的標記化(tokenization)也意味著任何實體或虛擬物的所有權可以被認證,也在無法竄改的帳本擁有權限碼,使得虛擬世界的交易更可靠。
非同質化代幣(Non-Fungible Tokens,下稱NFTs)是近來彰顯所有權的新興表現方式,這將會在元宇宙的經濟體系中扮演重要角色。所有因契約、租約而來的財產將被標記化,使人們有可能在Opensea這樣的平台購買數位土地、數位房產或者任何其他的數位虛擬物品,且一樣能證明所有權。可以說,數位財產標記化將對法律業產生最大影響。元宇宙將很有可能發展出一個數位城市,使消費者們能在數位世界購買土地,在土地上面建造房屋且將透過NFTs把房子放滿藝術品。消費者們可以好好裝扮自己在元宇宙內的分身,買電影院或者演唱會的票。所有的商品和服務可以透過NFTs標示所有權的方式跟企業購買。
在元宇宙裡,交易行為將與現實世界一模一樣。財產可以被交易、關係可以被建立,也可以成立公司,更會創造出智慧財產,也會產生著作權的爭端,或者發生利用數位資產洗錢、逃漏稅等新型態的犯罪,但元宇宙中的行為人與現實世界行為人不一定有明確連結,使得執法機關更難以追查,甚至產生管轄權之衝突。在元宇宙中存在和營運的公司也如同現實世界一樣,需要法律專家和保險制度降低他們的風險。
元宇宙對法律產業和監管機構帶來的影響是多方面的。Facebook,或者說改名後的Meta,有意激發世人對元宇宙的討論以及關注元宇宙的發展,而律師們和法律事務所也必須熟稔於這個領域,以應付那些即將要投入這項產業的客戶們。
2018年4月3日,Blackberry Limited(下稱Blackberry)向美國加州地方法院起訴(18-cv-02693),指控Snap Inc.(下稱Snap)的應用程式Snapchat,侵犯其包括行動裝置地圖改善技術、廣告技術和行動裝置的使用者介面改善技術共6項專利權。Blackberry指出Snapchat的地圖功能侵犯其關於定義與其他活動中用戶相對位置的專利;廣告功能侵犯其推播資訊至行動裝置的專利;通知點(Notification Dot)的未讀訊息計數顯示,侵犯其關於預覽新事件的專利。 Blackberry在今年3月也曾對Facebook提起訴訟,指控其社交平台Whatsapp和Instagram侵犯了Blackberry的專利權。對Snap提出的侵權訴訟中涉及的兩件專利US 8,209,634(下稱'634專利)和US 8,301,713(下稱'713專利),也同樣出現在對Facebook提起的訴訟案件。'634專利是關於通知點(Notification Dot)計數顯示的專利,而'713專利則是關於在傳訊對話中顯示時間資料的專利。 Snapchat是Snap在2011年9月發表的即時通訊應用程式,比Blackberry的通訊應用程式BlackBerry Messenger(下稱BBM)發表時間晚了6年。Blackberry認為其通訊應用程式,至今已成功使得全球有數十億的消費者在行動裝置上使用即時通訊。Snap使用Blackberry的智慧財產權並與Blackberry在即時通訊領域中競爭,分散了BBM的使用者,轉而選擇使用Snapchat,使Snap獲得可觀的不法利益。Blackberry因此向法院主張Snap應彌補其侵權行為對Blackberry所造成的損失。 「本文同步刊登於TIPS網站(https://www.tips.org.tw)」
美國財政部發布「非銀行金融、金融科技和創新」之金融科技創新報告美國財政部於今(2018)年7月31日發布一份重要報告,呼籲對金融科技領域的創新要採取更靈活,更有利的監管方法。這份報告主題為「非銀行金融、金融科技和創新」,其內容提及加密貨幣和分散式帳本技術(Distributed Ledger Technologies,DLT),並指出該些技術正由金融穩定監督委員會(Financial Stability Oversight Council)的工作組來主導進行跨部門的研究。整體來說,該報告表明美國政府大力推動新興金融技術的發展,並使現有的監管框架現代化,主張更加精簡和適當的監督,以消除發展過程中的障礙。並對於可能阻礙金融科技發展的法規,提出合理化建議,包括協調各州間加密貨幣交易的資金移轉立法。 美國財政部提及金融服務業正在開發的一系列DLT應用程式,其優勢仍有高度不確定性,因而進一步倡導使用監理沙盒,並鼓勵創建實驗室、工作組、創新辦公室,和其他讓行業參與者直接接觸監管機構的管道。監管機構和創新者之間的共生關係,是支持美國經濟和保持全球競爭力所必需的。該報告最後結論提到美國必須與新興技術並肩一起進步,要以不限制創新的方式來適當調整原有的監管策略。美國監管機構必須比過去更加靈活地履行職責,不能給創新的發展帶來不必要的阻礙。 「本文同步刊登於TIPS網站(https://www.tips.org.tw)」
電力市場2.0--2015德國電力市場改革最新發展 G7第四屆資料保護與隱私圓桌會議揭示隱私保護新趨勢G7第四屆資料保護與隱私圓桌會議揭示隱私保護新趨勢 資訊工業策進會科技法律研究所 2025年03月10日 七大工業國組織(Group of Seven,下稱G7)於2024年10月10日至11日在義大利羅馬舉辦第四屆資料保護與隱私機構圓桌會議(Data Protection and Privacy Authorities Roundtable,下稱圓桌會議),並發布「G7 DPAs公報:資料時代的隱私」(G7 DPAs’ Communiqué: Privacy in the age of data,下稱公報)[1],特別聚焦於人工智慧(AI)技術對隱私與資料保護的影響。 壹、緣起 由美國、德國、英國、法國、義大利、加拿大與日本的隱私主管機關(Data Protection and Privacy Authorities, DPAs)組成本次圓桌會議,針對數位社會中資料保護與隱私相關議題進行討論,涵蓋「基於信任的資料自由流通」(Data Free Flow with Trust, DFFT)、新興技術(Emerging technologies)、跨境執法合作(Enforcement cooperation)等三大議題。 本次公報重申,在資通訊技術主導的社會發展背景下,應以高標準來審視資料隱私,從而保障個人權益。而DPAs作為AI治理領域的關鍵角色,應確保AI技術的開發和應用既有效且負責任,同時在促進大眾對於涉及隱私與資料保護的AI技術認識與理解方面發揮重要作用[2]。此外,公報亦強調DPAs與歐盟理事會(Council of Europe, CoE)、經濟合作暨發展組織(Organisation for Economic Co-operation and Development, OECD)、亞太隱私機構(Asia Pacific Privacy Authorities, APPA)、全球隱私執行網路(Global Privacy Enforcement Network, GPEN)及全球隱私大會(Global Privacy Assembly, GPA)等國際論壇合作的重要性,並期望在推動資料保護與建立可信賴的AI技術方面作出貢獻[3]。 貳、重點說明 基於上述公報意旨,本次圓桌會議上通過《關於促進可信賴AI的資料保護機構角色的聲明》(Statement on the Role of Data Protection Authorities in Fostering Trustworthy AI)[4]、《關於AI與兒童的聲明》(Statement on AI and Children)[5]、《從跨國角度觀察降低可識別性:G7司法管轄區對匿名化、假名化與去識別化的法定及政策定義》(Reducing identifiability in cross-national perspective: Statutory and policy definitions for anonymization, pseudonymization, and de-identification in G7 jurisdictions)[6],分別說明重點如下: 一、《關於促進可信賴AI的資料保護機構角色的聲明》 繼2023年第三屆圓桌會議通過《關於生成式AI聲明》(Statement on Generative AI)[7]後,本次圓桌會議再次通過《關於促進可信賴AI的資料保護機構角色的聲明》,旨在確立管理AI技術對資料保護與隱私風險的基本原則。G7 DPAs強調許多AI技術依賴個人資料的運用,這可能引發對個人偏見及歧視、不公平等問題。此外,本聲明中還表達了擔憂對這些問題可能透過深度偽造(Deepfake)技術及假訊息擴散,進一步對社會造成更廣泛的不良影響[8]。 基於上述考量,本聲明提出以下原則,納入G7 DPAs組織管理的核心方針[9]: 1. 以人為本的方法:G7 DPAs應透過資料保護來維護個人權利與自由,並在AI技術中提供以人權為核心的觀點。 2. 現有原則的適用:G7 DPAs應審視公平性、問責性、透明性和安全性等AI治理的核心原則,並確保其適用於AI相關框架。 3. AI核心要素的監督:G7 DPAs應從專業視角出發,監督AI的開發與運作,確保其符合負責任的標準,並有效保護個人資料。 4. 問題根源的因應:G7 DPAs應在AI的開發階段(上游)和應用階段(下游)找出問題,並在問題擴大影響前採取適當措施加以解決。 5. 善用經驗:G7 DPAs應充分利用其在資料領域的豐富經驗,謹慎且有效地應對AI相關挑戰。 二、《關於AI與兒童的聲明》 鑒於AI技術發展可能對於兒童和青少年產生重大影響,G7 DPAs發布本聲明表示,由於兒童和青少年的發展階段及其對於數位隱私的瞭解、生活經驗有限,DPAs應密切監控AI對兒童和青少年的資料保護、隱私權及自由可能造成的影響程度,並透過執法、制定適合年齡的設計實務守則,以及發佈面向兒童和青少年隱私權保護實務指南,以避免AI技術導致潛在侵害兒童和青少年隱私的行為[10]。 本聲明進一步闡述,當前及潛在侵害的風險包含[11]: 1. 基於AI的決策(AI-based decision making):因AI運用透明度不足,可能使兒童及其照顧者無法獲得充足資訊,以瞭解其可能造成重大影響的決策。 2. 操縱與欺騙(Manipulation and deception):AI工具可能具有操縱性、欺騙性或能夠危害使用者情緒狀態,促使個人採取可能危害自身利益的行動。例如導入AI的玩具可能使兒童難以分辨或質疑。 3. AI模型的訓練(Training of AI models):蒐集和使用兒童個人資料來訓練AI模型,包括從公開來源爬取或透過連線裝置擷取資料,可能對兒童的隱私權造成嚴重侵害。 三、《從跨國角度觀察降低可識別性:G7司法管轄區對匿名化、假名化與去識別化的法定及政策定義》 考慮到個人資料匿名化、假名化及去識別化能促進資料的創新利用,有助於最大限度地減少隱私風險,本文件旨在整合G7成員國對於匿名化、假名化與去識別化的一致理解,針對必須降低可識別性的程度、資訊可用於識別個人的程度、減少可識別性的規定流程及技術、所產生的資訊是否被視為個人資料等要件進行整理,總結如下: 1. 去識別化(De-identification):加拿大擬議《消費者隱私保護法》(Consumer Privacy Protection Act, CPPA)、英國《2018年資料保護法》(Data Protection Act 2018, DPA)及美國《健康保險可攜性及責任法》(Health Insurance Portability and Accountability Act , HIPAA)均有去識別化相關規範。關於降低可識別性的程度,加拿大CPPA、英國DPA規定去識別化資料必須達到無法直接識別特定個人的程度;美國HIPAA則規定去識別化資料須達到無法直接或間接識別特定個人的程度。再者,關於資料去識別化的定性,加拿大CPPA、英國DPA認定去識別化資料仍被視為個人資料,然而美國HIPAA則認定去識別化資料不屬於個人資料範疇。由此可見,各國對去識別化規定仍存在顯著差異[12]。 2. 假名化(Pseudonymization):歐盟《一般資料保護規則》(General Data Protection Regulation, GDPR)及英國《一般資料保護規則》(UK GDPR)、日本《個人資料保護法》(個人情報の保護に関する法律)均有假名化相關規範。關於降低可識別性的程度,均要求假名化資料在不使用額外資訊的情況下,須達到無法直接識別特定個人的程度,但額外資訊應與假名化資料分開存放,並採取相應技術與組織措施,以確保無法重新識別特定個人,因此假名化資料仍被視為個人資料。而關於假名化程序,日本個資法明定應刪除或替換個人資料中可識別描述或符號,歐盟及英國GDPR雖未明定具體程序,但通常被認為採用類似程序[13]。 3. 匿名化(Anonymization):歐盟及英國GDPR、日本個資法及加拿大CPPA均有匿名化相關規範。關於降低可識別性的程度,均要求匿名化資料無法直接或間接識別特定個人,惟可識別性的門檻存在些微差異,如歐盟及英國GDPR要求考慮控管者或其他人「合理可能用於」識別個人的所有方式;日本個資法則規定匿名化資料之處理過程必須符合法規標準且不可逆轉。再者,上述法規均將匿名化資料視為非屬於個人資料,但仍禁止用於重新識別特定個人[14]。 參、事件評析 本次圓桌會議上發布《關於促進可信賴AI的資料保護機構角色的聲明》、《關於AI與兒童的聲明》,彰顯G7 DPAs在推動AI治理原則方面的企圖,強調在AI技術蓬勃發展的背景下,隱私保護與兒童權益應成為優先關注的議題。與此同時,我國在2024年7月15日預告《人工智慧基本法》草案,展現對AI治理的高度重視,融合美國鼓勵創新、歐盟保障人權的思維,針對AI技術的應用提出永續發展、人類自主、隱私保護、資訊安全、透明可解釋、公平不歧視、問責等七項原則,為國內AI產業與應用發展奠定穩固基礎。 此外,本次圓桌會議所發布《從跨國角度觀察降低可識別性:G7司法管轄區對匿名化、假名化與去識別化的法定及政策定義》,揭示各國在降低可識別性相關用語定義及其在資料保護與隱私框架中的定位存在差異。隨著降低可識別性的方法與技術不斷創新,這一領域的監管挑戰日益突顯,也為跨境資料流動越發頻繁的國際環境提供了深化協調合作的契機。在全球日益關注資料保護與隱私的趨勢下,我國個人資料保護委員會籌備處於2024年12月20日公告《個人資料保護法》修正草案,要求民間業者設置個人資料保護長及稽核人員、強化事故通報義務,並針對高風險行業優先實施行政檢查等規定,以提升我國在數位時代的個資保護水準。 最後,本次圓桌會議尚訂定《2024/2025年行動計畫》(G7 Data Protection and Privacy Authorities’ Action Plan)[15],圍繞DFFT、新興技術與跨境執法合作三大議題,並持續推動相關工作。然而,該行動計畫更接近於一項「基於共識的宣言」,主要呼籲各國及相關機構持續努力,而非設定具有強制力或明確期限的成果目標。G7 DPAs如何應對數位社會中的資料隱私挑戰,並建立更順暢且可信的國際資料流通機制,將成為未來關注的焦點。在全球共同面臨AI快速發展所帶來的機遇與挑戰之際,我國更應持續關注國際趨勢,結合自身需求制訂相關法規以完善相關法制,並積極推動國際合作以確保國內產業發展銜接國際標準。 [1]Office of the Privacy Commissioner of Canada [OPC], G7 DPAs’ Communiqué: Privacy in the age of data (2024), https://www.priv.gc.ca/en/opc-news/news-and-announcements/2024/communique-g7_241011/ (last visited Feb 3, 2025). [2]Id. at para. 5. [3]Id. at para. 7-9. [4]Office of the Privacy Commissioner of Canada [OPC], Statement on the Role of Data Protection Authorities in Fostering Trustworthy AI (2024), https://www.priv.gc.ca/en/opc-news/speeches-and-statements/2024/s-d_g7_20241011_ai/ (last visited Feb 3, 2025). [5]Office of the Privacy Commissioner of Canada [OPC], Statement on AI and Children (2024), https://www.priv.gc.ca/en/opc-news/speeches-and-statements/2024/s-d_g7_20241011_child-ai/ (last visited Feb 3, 2025). [6]Office of the Privacy Commissioner of Canada [OPC], Reducing identifiability in cross-national perspective: Statutory and policy definitions for anonymization, pseudonymization, and de-identification in G7 jurisdictions (2024), https://www.priv.gc.ca/en/opc-news/news-and-announcements/2024/de-id_20241011/ (last visited Feb 3, 2025). [7]Office of the Privacy Commissioner of Canada [OPC], Statement on Generative AI (2023), https://www.priv.gc.ca/en/opc-news/speeches-and-statements/2023/s-d_20230621_g7/ (last visited Feb 3, 2025). [8]Supra note 4, at para. 11. [9]Supra note 4, at para. 18. [10]Supra note 5, at para. 5-6. [11]Supra note 5, at para. 7. [12]Supra note 6, at para. 11-15. [13]Supra note 6, at para. 16-19. [14]Supra note 6, at para. 20-25. [15]Office of the Privacy Commissioner of Canada [OPC], G7 Data Protection and Privacy Authorities’ Action Plan (2024), https://www.priv.gc.ca/en/opc-news/news-and-announcements/2024/ap-g7_241011/ (last visited Feb 3, 2025).