美國聯邦貿易委員會(FTC)提議加強兒童隱私規則,以進一步限制企業將兒童的資訊用來營利

美國聯邦貿易委員會(Federal Trade Commission, FTC)於2023年12月對《兒童線上隱私保護規則》(Children's Online Privacy Protection Rule, COPPA Rule)提出修法草案,並於2024年1月11日公告60日供公眾意見徵詢。

FTC依據兒童線上隱私保護法(Children's Online Privacy Protection Act, COPPA)第6502節授權,訂定COPPA Rule,並於2000年通過生效,要求網站或提供線上服務的業者在蒐集、使用或揭露13歲以下兒童的個人資訊之前必須通知其父母,並獲得其同意。本次提議除了限制兒童個人資訊的蒐集,亦限制業者保留此些資訊的期間,並要求他們妥善保存資料,相關規定如下:

(1)置入固定式廣告時需經認證:COPPA所涵蓋的網站和線上服務業者現在需要獲得兒童父母的同意並取得家長的授權才能向第三方(包括廣告商)揭露資訊,除非揭露資訊是線上服務所不可或缺之部分。且因此獲悉的兒童永久身分識別碼(persistent identifier)也僅止於網站內部利用而已,業者不能將其洩漏予廣告商以連結至特定個人來做使用。

(2)禁止以蒐集個資作為兒童參與條件:在蒐集兒童參與遊戲、提供獎勵或其他活動的個資時,必須在合理必要的範圍內,且不能用個資的蒐集作為兒童參與「活動」的條件,且對業者發送推播通知亦有限制,不得以鼓勵上網的方式,來蒐集兒童的個資。

(3)將科技運用於教育之隱私保護因應:FTC提議將目前教育運用科技之相關指南整理成規則,擬訂的規則將允許學校和學區授權教育軟硬體的供應商將科技運用於蒐集、使用和揭露學生的個資,但僅限使用於學校授權之目的,不得用於任何商業用途。

(4)加強對安全港計畫的說明義務:COPPA原先有一項約款,內容是必須建立安全港計畫(Safe Harbor Program),允許行業團體或其他機構提交自我監督指南以供委員會核准,以執行委員會最終定案的防護措施,此次擬議的規則將提高安全港計畫的透明度和說明義務,包括要求每個計畫公開揭露其成員名單並向委員會報告附加資訊。

(5)其它如強化資訊安全的要求以及資料留存的限制:業者對於蒐集而來的資訊不能用於次要目的,且不能無限期的留存。

FTC此次對COPPA Rule進行修改,對兒童個人資訊的使用和揭露施加新的限制,除了將兒童隱私保護的責任從孩童父母轉移到供應商身上,更重要的是在確保數位服務對兒童來說是安全的,且亦可提升兒童使用數位服務的隱私保障。

相關連結
你可能會想參加
※ 美國聯邦貿易委員會(FTC)提議加強兒童隱私規則,以進一步限制企業將兒童的資訊用來營利, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=9158&no=0&tp=1 (最後瀏覽日:2026/03/03)
引註此篇文章
你可能還會想看
Youtube測試影片下載服務,並採創用CC授權模式

  Youtub宣佈開始測試影片下載服務,未來將朝向提供使用者免費或付費下載Youtube網站上之影片。同時免費提供下載的影片,創作者可選擇五種創用CC(Creative Commons)的授權模式;另一方面,影片所有人可自訂下載影片所應支付的費用,使用者則透過Google 體系的Google Checkout 付費。Youtube在其發表的聲明中指出,因為許多影片創作者希望影片能夠更廣為流傳,因此推出影片下載服務,影片所有人可以選擇影片的創用CC授權模式,使影片下載者在授權範圍內利用所下載的影片內容,促進影片內容的流通。   目前供下載的影片格式為MP4,屬於可普遍流傳播放的格式,可下載的影片在左下角有download連結。在實際應用上,Youtube目前正與Stanford、Duke、UC Berkeley、UCLA等大學透過該站測試免費下載學校報告、研究、演講,使學生或教授在課堂上可以離線使用與教學相關的影片。另外YouTube在My Video工具列中開發”My Purchases”頁面,讓使用者能追蹤他們所下載或想下載的影片。

歐盟執委會公布《可信賴的AI政策及投資建議》

  歐盟執委會於2018年6月成立人工智慧高級專家組(The High-Level Expert Group on Artificial Intelligence, AI HLEG),主要負責兩項工作:(1)人工智慧倫理準則;(2)人工智慧政策與投資建議。並於2019年4月8日提出《可信賴的人工智慧倫理準則》(Ethics Guidelines for Trustworthy AI),2019年6月公布之《可信賴的AI政策及投資建議》(Policy and Investment Recommendations for Trustworthy Artificial Intelligence)則是人工智慧高級專家組所交付之第二項具體成果。   該報告主要分為兩大部分,首先第一部分是要透過可信賴的人工智慧建立對歐洲之正面影響,內容提及人工智慧應保護人類和社會,並促進歐洲公司各部門利用人工智慧及技術移轉,而公部門則扮演人工智慧增長及創新之催化劑,以確保歐洲具有世界一流之研究能力;第二部分則是影響歐洲各成員國建立可信賴之人工智慧,內容則提及將發展人工智慧相關基礎設施、教育措施、政策規範及資金投資,同時合法、有道德的使用各項數據。   在本報告中關於法規面的建議則是進一步制定政策和監管框架,確保人工智慧在尊重人權、民主及創新下發展,因此將建立人工智慧政策制定者、開發者及用戶間的對話機制,若是遇到將對社會或是人類產生重大影響之敏感性人工智慧系統,除透過歐洲人工智慧聯盟(The European AI Alliance)進行對話之外,也需要在尊重各成員國之語言及文化多樣性下展開協調機制。另外,報告中也特別提到如果政府以「保護社會」為由建立一個普遍的人工智慧監督系統是非常危險的作法,政府應該承諾不對個人進行大規模監視,並在遵守法律及基本權利下進行人工智慧系統之發展。

布拉格提案(The Prague Proposals)

  2019年5月3日,來自全球30多國的政府官員與來自歐盟、北大西洋公約組織的代表於捷克布拉格所舉辦的5G資安會議(Prague 5G Security Conference)中,強調各國建構與管理5G基礎建設時應考慮國家安全、經濟與商業發展等因素,特別是供應鏈的安全性,例如易受第三國影響之供應商所帶來的潛在風險,本會議結論經主辦國捷克政府彙整為布拉格提案(The Prague Proposals),作為提供世界各國建構5G基礎建設之資安建議。   在這份文件中首先肯認通訊網路在數位化與全球化時代的重要性,而5G網路將是打造未來數位世界的重要基礎,5G資安將與國家安全、經濟安全或其他國家利益,甚至與全球穩定等議題高度相關;因此應理解5G資安並非僅是技術議題,而包含技術性與非技術性之風險,國家應確保整體性資安並落實資安風險評估等,而其中最關鍵者,則為強調確保5G基礎建設的供應鏈安全。   因此在布拉格提案中強調各國建構通訊網路基礎建設,應採用國際資安標準評估其資安風險,特別是受第三國影響之供應商背後所潛藏之風險,並應重視5G技術變革例如邊緣運算所產生的新風險態樣;此外對於接受國家補貼之5G供應商,其補貼應符合公平競爭原則等。布拉格提案對於各國並無法律上拘束力,但甫提出即獲得美國的大力肯定與支持。

歐盟出資贊助開放原始碼研究

  歐盟決定斥資 66 萬歐元的經費研究全球的開放原始碼軟體與標準。   歐盟在為期兩年的 FLOSSWorld 專案中,首度贊助的國際性開放原始碼軟體研發與政策發展計畫,先前的 FLOSS 專案主要只著重在歐洲的開放原始碼部分。 FLOSS 即為自由 / 開放原始碼軟體的縮寫 (free/libre/open source) ,藉由本專案,歐盟希望能夠強化歐洲在自由軟體領域的領導力,與增加國際合作夥伴。   FLOSSWorld 召集人 Rishab Aiyer Ghosh 向對外表示,歐盟通常是不贊助國際性專案的。而此次計劃共區分五大區域,而合作的國家包括中國 ( 東亞 ) 、印度與馬來西亞 ( 南亞 ) 、非洲 ( 南非 ) 、東南歐 ( 保加利亞與克羅埃西亞 ) 、中南美洲 ( 阿根廷與巴西 ) 。   研究將專注在三大領域:開放原始碼對於技能發展的影響,以及對經濟與新增職缺的影響;軟體開發的區域差異性;政府與公家單位對使用開放原始碼的態度。 Ghosh 指出 FLOSSWorld 的目標在增加國際層次的合作,增加對其他國家對於開放原始碼的使用與影響的了解程度。

TOP