近期,Netflix向Covid-19影視緊急救濟基金捐贈100萬英鎊,並由電影電視慈善機構與British Film Institute(BFI)的支持下進行管理,目的是向在英國各地因停產而直接影響之在職工人和自由職業者,提供緊急短期救濟。BFI和電影電視慈善機構本身並沒有直接將資金投入基金,而是希望觸發第三方的投資。目前,該基金會正制訂確切之資格標準及個人資助水平,針對從事製作,發行和展覽的人員開放救濟。
此次Netflix向Covid-19電影和電視緊急救援基金會及全球其他組織的捐款旨在為失業人員提供緊急救濟,其原創系列副總裁安妮·門薩表示:“我們很榮幸與BFI和電影電視慈善組織合作,為電視和電影製作中受災最重的工人提供支持。從電工到木匠,從髮型和化妝師到司機的英國工作人員一直對Netflix的成功至關重要,我們希望在現在這個艱難的時刻,給最需要支持的自由職業者提供幫助。”
面對來勢洶洶之Covid-19疫情,全世界之影視產業皆受到前所未有之調整,我國面對疫情,文化部亦已研擬短期抒困措施與中長期振興之因應方案,並研擬「藝文紓困及振興辦法(草案)」,就短期抒困方面,「藝文紓困補助」將補貼藝文事業、團體及個人之營運成本;長期振興部分則將藝文產業納入經濟部振興抵用劵之適用範圍可用於藝文展演、電影院等藝文消費。然目前我國文創產業之抒困措施仍以政府補貼為主,若為加速恢復產業運作,或許國內各藝文團體或協會亦可效仿英國BFI,自主建立振興與抒困機制,以利受重創之藝文從業人員維持生計。
隨著行動通訊需求的提升,各國對無線頻譜資源需求若渴,除了極力釋出更多頻譜資源外,也針對既有頻譜的使用效率加以提升,以滿足頻譜的需求,無線廣播電視為了維護收訊品質,在各頻道之間保留相當大的空白區域,以避免訊號干擾;另一方面,無線廣播電視訊號在人口較少或是有線電視較發達的區域,訊號覆蓋的要求較低,產生許多無訊號的地帶,形成頻譜閒置的狀況。因此目前許多國家將提升頻譜效率的政策,運用在無線廣播電視所使用的頻段上,透過活用上述處於閒置的頻譜資源,滿足更多的無線通訊需求。 目前動態頻譜接取技術就是這樣的一個創新,允許隨機的、免執照使用閒置頻譜,以提高頻譜效率。目前最主流的運用場域在無線廣播電視的頻道上,如前所述,這些頻譜的空白保留區域或是閒置未用的狀況,稱為電視閒置頻譜(TV White Space,TVWS)。TVWS可用以替代類似Wi-Fi功能的無線寬頻通訊,但能夠以更低的功耗與成本加以部署,並擁有更大的涵蓋範圍。TVWS技術亦可以無線連接多種智慧型的終端設備,並具有良好的成本效益,提供更多創新的應用和服務。 新加坡資通訊發展管理局(The Infocomm Development Authority of Singapore,IDA)在2011年起結合相關業者開始進行概念實證運行,目的在驗證新加坡是否具有成功使用TVWS技術的可行性,並於2012年宣布成功。隨後,在IDA的支持下,集合資通訊業者成立「新加坡閒置頻譜先導團隊(Singapore White Space Pilot Group,SWSPG)」的產業協會,在新加坡各地展開了一系列的TVWS先導計畫。 這些先導計畫包括新加坡國立大學的智慧能源控制與智慧電表、新加坡島嶼鄉村俱樂部的寬頻服務、樟宜機場與港口周邊地區提供公共的Wi-Fi熱點。這些先導計畫的作用也在於探詢TVWS技術如何補強既有的寬頻基礎設施,克服新加坡天然環境的限制,提供更多創新的消費和商業應用。這些先導計畫也展現出TVWS可以運用提供良好的多元化的商業服務,深受參與先導計畫的使用者肯定。總體而言,這些先導計畫證明TVWS技術可為新加坡的無線服務提供更多可用頻譜,從而提升了頻譜使用的整體效率。 在這些先導計畫的成功基礎上,IDA認為為了促進TVWS的更大發展,應該展開TVWS設備與使用的的準則定義與確定管制上的的需求,一方面保護既有服務,一方面則必須避免各頻段可能產生的頻率干擾。IDA於2013年6月公布關於TVWS管制架構的公眾諮詢,藉以深入了解產業的需求,制訂完善的管制架構,確保TVWS的發展符合國際趨勢、新加坡的地理條件與市場環境的需求。IDA並希望能於2014年公布TVWS相關設備與服務的準則及管制架構。
G7第四屆資料保護與隱私圓桌會議揭示隱私保護新趨勢G7第四屆資料保護與隱私圓桌會議揭示隱私保護新趨勢 資訊工業策進會科技法律研究所 2025年03月10日 七大工業國組織(Group of Seven,下稱G7)於2024年10月10日至11日在義大利羅馬舉辦第四屆資料保護與隱私機構圓桌會議(Data Protection and Privacy Authorities Roundtable,下稱圓桌會議),並發布「G7 DPAs公報:資料時代的隱私」(G7 DPAs’ Communiqué: Privacy in the age of data,下稱公報)[1],特別聚焦於人工智慧(AI)技術對隱私與資料保護的影響。 壹、緣起 由美國、德國、英國、法國、義大利、加拿大與日本的隱私主管機關(Data Protection and Privacy Authorities, DPAs)組成本次圓桌會議,針對數位社會中資料保護與隱私相關議題進行討論,涵蓋「基於信任的資料自由流通」(Data Free Flow with Trust, DFFT)、新興技術(Emerging technologies)、跨境執法合作(Enforcement cooperation)等三大議題。 本次公報重申,在資通訊技術主導的社會發展背景下,應以高標準來審視資料隱私,從而保障個人權益。而DPAs作為AI治理領域的關鍵角色,應確保AI技術的開發和應用既有效且負責任,同時在促進大眾對於涉及隱私與資料保護的AI技術認識與理解方面發揮重要作用[2]。此外,公報亦強調DPAs與歐盟理事會(Council of Europe, CoE)、經濟合作暨發展組織(Organisation for Economic Co-operation and Development, OECD)、亞太隱私機構(Asia Pacific Privacy Authorities, APPA)、全球隱私執行網路(Global Privacy Enforcement Network, GPEN)及全球隱私大會(Global Privacy Assembly, GPA)等國際論壇合作的重要性,並期望在推動資料保護與建立可信賴的AI技術方面作出貢獻[3]。 貳、重點說明 基於上述公報意旨,本次圓桌會議上通過《關於促進可信賴AI的資料保護機構角色的聲明》(Statement on the Role of Data Protection Authorities in Fostering Trustworthy AI)[4]、《關於AI與兒童的聲明》(Statement on AI and Children)[5]、《從跨國角度觀察降低可識別性:G7司法管轄區對匿名化、假名化與去識別化的法定及政策定義》(Reducing identifiability in cross-national perspective: Statutory and policy definitions for anonymization, pseudonymization, and de-identification in G7 jurisdictions)[6],分別說明重點如下: 一、《關於促進可信賴AI的資料保護機構角色的聲明》 繼2023年第三屆圓桌會議通過《關於生成式AI聲明》(Statement on Generative AI)[7]後,本次圓桌會議再次通過《關於促進可信賴AI的資料保護機構角色的聲明》,旨在確立管理AI技術對資料保護與隱私風險的基本原則。G7 DPAs強調許多AI技術依賴個人資料的運用,這可能引發對個人偏見及歧視、不公平等問題。此外,本聲明中還表達了擔憂對這些問題可能透過深度偽造(Deepfake)技術及假訊息擴散,進一步對社會造成更廣泛的不良影響[8]。 基於上述考量,本聲明提出以下原則,納入G7 DPAs組織管理的核心方針[9]: 1. 以人為本的方法:G7 DPAs應透過資料保護來維護個人權利與自由,並在AI技術中提供以人權為核心的觀點。 2. 現有原則的適用:G7 DPAs應審視公平性、問責性、透明性和安全性等AI治理的核心原則,並確保其適用於AI相關框架。 3. AI核心要素的監督:G7 DPAs應從專業視角出發,監督AI的開發與運作,確保其符合負責任的標準,並有效保護個人資料。 4. 問題根源的因應:G7 DPAs應在AI的開發階段(上游)和應用階段(下游)找出問題,並在問題擴大影響前採取適當措施加以解決。 5. 善用經驗:G7 DPAs應充分利用其在資料領域的豐富經驗,謹慎且有效地應對AI相關挑戰。 二、《關於AI與兒童的聲明》 鑒於AI技術發展可能對於兒童和青少年產生重大影響,G7 DPAs發布本聲明表示,由於兒童和青少年的發展階段及其對於數位隱私的瞭解、生活經驗有限,DPAs應密切監控AI對兒童和青少年的資料保護、隱私權及自由可能造成的影響程度,並透過執法、制定適合年齡的設計實務守則,以及發佈面向兒童和青少年隱私權保護實務指南,以避免AI技術導致潛在侵害兒童和青少年隱私的行為[10]。 本聲明進一步闡述,當前及潛在侵害的風險包含[11]: 1. 基於AI的決策(AI-based decision making):因AI運用透明度不足,可能使兒童及其照顧者無法獲得充足資訊,以瞭解其可能造成重大影響的決策。 2. 操縱與欺騙(Manipulation and deception):AI工具可能具有操縱性、欺騙性或能夠危害使用者情緒狀態,促使個人採取可能危害自身利益的行動。例如導入AI的玩具可能使兒童難以分辨或質疑。 3. AI模型的訓練(Training of AI models):蒐集和使用兒童個人資料來訓練AI模型,包括從公開來源爬取或透過連線裝置擷取資料,可能對兒童的隱私權造成嚴重侵害。 三、《從跨國角度觀察降低可識別性:G7司法管轄區對匿名化、假名化與去識別化的法定及政策定義》 考慮到個人資料匿名化、假名化及去識別化能促進資料的創新利用,有助於最大限度地減少隱私風險,本文件旨在整合G7成員國對於匿名化、假名化與去識別化的一致理解,針對必須降低可識別性的程度、資訊可用於識別個人的程度、減少可識別性的規定流程及技術、所產生的資訊是否被視為個人資料等要件進行整理,總結如下: 1. 去識別化(De-identification):加拿大擬議《消費者隱私保護法》(Consumer Privacy Protection Act, CPPA)、英國《2018年資料保護法》(Data Protection Act 2018, DPA)及美國《健康保險可攜性及責任法》(Health Insurance Portability and Accountability Act , HIPAA)均有去識別化相關規範。關於降低可識別性的程度,加拿大CPPA、英國DPA規定去識別化資料必須達到無法直接識別特定個人的程度;美國HIPAA則規定去識別化資料須達到無法直接或間接識別特定個人的程度。再者,關於資料去識別化的定性,加拿大CPPA、英國DPA認定去識別化資料仍被視為個人資料,然而美國HIPAA則認定去識別化資料不屬於個人資料範疇。由此可見,各國對去識別化規定仍存在顯著差異[12]。 2. 假名化(Pseudonymization):歐盟《一般資料保護規則》(General Data Protection Regulation, GDPR)及英國《一般資料保護規則》(UK GDPR)、日本《個人資料保護法》(個人情報の保護に関する法律)均有假名化相關規範。關於降低可識別性的程度,均要求假名化資料在不使用額外資訊的情況下,須達到無法直接識別特定個人的程度,但額外資訊應與假名化資料分開存放,並採取相應技術與組織措施,以確保無法重新識別特定個人,因此假名化資料仍被視為個人資料。而關於假名化程序,日本個資法明定應刪除或替換個人資料中可識別描述或符號,歐盟及英國GDPR雖未明定具體程序,但通常被認為採用類似程序[13]。 3. 匿名化(Anonymization):歐盟及英國GDPR、日本個資法及加拿大CPPA均有匿名化相關規範。關於降低可識別性的程度,均要求匿名化資料無法直接或間接識別特定個人,惟可識別性的門檻存在些微差異,如歐盟及英國GDPR要求考慮控管者或其他人「合理可能用於」識別個人的所有方式;日本個資法則規定匿名化資料之處理過程必須符合法規標準且不可逆轉。再者,上述法規均將匿名化資料視為非屬於個人資料,但仍禁止用於重新識別特定個人[14]。 參、事件評析 本次圓桌會議上發布《關於促進可信賴AI的資料保護機構角色的聲明》、《關於AI與兒童的聲明》,彰顯G7 DPAs在推動AI治理原則方面的企圖,強調在AI技術蓬勃發展的背景下,隱私保護與兒童權益應成為優先關注的議題。與此同時,我國在2024年7月15日預告《人工智慧基本法》草案,展現對AI治理的高度重視,融合美國鼓勵創新、歐盟保障人權的思維,針對AI技術的應用提出永續發展、人類自主、隱私保護、資訊安全、透明可解釋、公平不歧視、問責等七項原則,為國內AI產業與應用發展奠定穩固基礎。 此外,本次圓桌會議所發布《從跨國角度觀察降低可識別性:G7司法管轄區對匿名化、假名化與去識別化的法定及政策定義》,揭示各國在降低可識別性相關用語定義及其在資料保護與隱私框架中的定位存在差異。隨著降低可識別性的方法與技術不斷創新,這一領域的監管挑戰日益突顯,也為跨境資料流動越發頻繁的國際環境提供了深化協調合作的契機。在全球日益關注資料保護與隱私的趨勢下,我國個人資料保護委員會籌備處於2024年12月20日公告《個人資料保護法》修正草案,要求民間業者設置個人資料保護長及稽核人員、強化事故通報義務,並針對高風險行業優先實施行政檢查等規定,以提升我國在數位時代的個資保護水準。 最後,本次圓桌會議尚訂定《2024/2025年行動計畫》(G7 Data Protection and Privacy Authorities’ Action Plan)[15],圍繞DFFT、新興技術與跨境執法合作三大議題,並持續推動相關工作。然而,該行動計畫更接近於一項「基於共識的宣言」,主要呼籲各國及相關機構持續努力,而非設定具有強制力或明確期限的成果目標。G7 DPAs如何應對數位社會中的資料隱私挑戰,並建立更順暢且可信的國際資料流通機制,將成為未來關注的焦點。在全球共同面臨AI快速發展所帶來的機遇與挑戰之際,我國更應持續關注國際趨勢,結合自身需求制訂相關法規以完善相關法制,並積極推動國際合作以確保國內產業發展銜接國際標準。 [1]Office of the Privacy Commissioner of Canada [OPC], G7 DPAs’ Communiqué: Privacy in the age of data (2024), https://www.priv.gc.ca/en/opc-news/news-and-announcements/2024/communique-g7_241011/ (last visited Feb 3, 2025). [2]Id. at para. 5. [3]Id. at para. 7-9. [4]Office of the Privacy Commissioner of Canada [OPC], Statement on the Role of Data Protection Authorities in Fostering Trustworthy AI (2024), https://www.priv.gc.ca/en/opc-news/speeches-and-statements/2024/s-d_g7_20241011_ai/ (last visited Feb 3, 2025). [5]Office of the Privacy Commissioner of Canada [OPC], Statement on AI and Children (2024), https://www.priv.gc.ca/en/opc-news/speeches-and-statements/2024/s-d_g7_20241011_child-ai/ (last visited Feb 3, 2025). [6]Office of the Privacy Commissioner of Canada [OPC], Reducing identifiability in cross-national perspective: Statutory and policy definitions for anonymization, pseudonymization, and de-identification in G7 jurisdictions (2024), https://www.priv.gc.ca/en/opc-news/news-and-announcements/2024/de-id_20241011/ (last visited Feb 3, 2025). [7]Office of the Privacy Commissioner of Canada [OPC], Statement on Generative AI (2023), https://www.priv.gc.ca/en/opc-news/speeches-and-statements/2023/s-d_20230621_g7/ (last visited Feb 3, 2025). [8]Supra note 4, at para. 11. [9]Supra note 4, at para. 18. [10]Supra note 5, at para. 5-6. [11]Supra note 5, at para. 7. [12]Supra note 6, at para. 11-15. [13]Supra note 6, at para. 16-19. [14]Supra note 6, at para. 20-25. [15]Office of the Privacy Commissioner of Canada [OPC], G7 Data Protection and Privacy Authorities’ Action Plan (2024), https://www.priv.gc.ca/en/opc-news/news-and-announcements/2024/ap-g7_241011/ (last visited Feb 3, 2025).
日本著作權法修正促進人工智慧開發2018年5月18日,於第196次參議院會議中通過「著作權法」修正案,並於5月25日公布,預計於2019年1月1日施行。本次修正是為因應數位網路技術的發展,對需要著作權人同意的行為範圍進行檢視。其中第47條之7修正、及新增之第30條之4與第47條之5與人工智慧發展有重大相關。 日本著作權法於2009年的修正中,增加第47條之7規定,原本可能構成著作權侵害之資料分析、機器學習行為(未經原作者同意複製、改作),只要在必要限度內,不分是否有營利,皆無須權利人同意。然而本條在使用上因為未涵蓋成果物的讓與行為,也就是如果公開販售學習完成的資料集或是人工智慧模型,甚至於同一平台共享資料集都可以構成侵害。有鑑於此,才在本次修法中修正相關條文。 本次修正中,增加第30條之4規範於必要限度內可利用他人著作物的行為,其中在同條第二款中認可第47條之5第1項第2款之行為,也就是「利用電子計算機的情報解析及提供其結果」,亦可被認為不違反著作權法,因而補上原本第47條之7的漏洞。 惟須注意的是,所謂的必要限度還是有嚴格的比例限制,不能無限制使用。由於目前本次修正還尚未生效,未來對人工智慧發展的應用會產生什麼樣的實際影響,值得繼續觀察。
IE壟斷瀏覽器市場遭歐盟裁罰,股東狀告微軟公司針對2013年微軟因Internet Explorer瀏覽器壟斷問題遭歐盟裁罰,微軟股東Kim Barovic於2014年4月11日向美國華盛頓西區聯邦地區法院(U.S. District Court, Western District of Washington)提出告訴,控告包括微軟公司創辦人Bill Gates與前任CEO Steve Ballmer等高層在整起事件中決策失誤、處理不當,致使公司承受鉅額罰款,蒙受重大損失,且董事會亦未善盡職責,徹查事件發生之原因。 2013年3月,身為歐盟反壟斷監管機構的歐盟執委會(European Commission),以微軟公司自2011年5月至2012年7月間發布的Windows 7 Service Pack系統更新,未提供超過1500萬用戶除了預設IE瀏覽器以外其他上網程式的選擇,顯然未履行該公司於2009年對歐盟做出的具有法律拘束力的承諾(即確保歐洲地區的消費者有選擇網路瀏覽器的自由)為由,對該公司之義務違反處以7億3100萬美元的天價裁罰,這也是歐盟執委會首次對違反此項義務的公司開罰。 本起訴訟是自2013年事件發生以來,首次有股東向微軟公司提告。原告Kim Barovic在訴訟中要求徹查決策錯誤的發生原因並懲處管理階層的相關失職人員。她說,董事會表示:「經調查,無證據顯示有任何現任或前任主管或經理人違反受託人義務。」微軟則於11日發布聲明:「Barovic請董事會調查其要求,還對董事會與公司管理階層提告。董事會已經完整地考量過其要求,但找不到官司成立的根據。」