美國聯邦貿易委員會(FTC)提議加強兒童隱私規則,以進一步限制企業將兒童的資訊用來營利

美國聯邦貿易委員會(Federal Trade Commission, FTC)於2023年12月對《兒童線上隱私保護規則》(Children's Online Privacy Protection Rule, COPPA Rule)提出修法草案,並於2024年1月11日公告60日供公眾意見徵詢。

FTC依據兒童線上隱私保護法(Children's Online Privacy Protection Act, COPPA)第6502節授權,訂定COPPA Rule,並於2000年通過生效,要求網站或提供線上服務的業者在蒐集、使用或揭露13歲以下兒童的個人資訊之前必須通知其父母,並獲得其同意。本次提議除了限制兒童個人資訊的蒐集,亦限制業者保留此些資訊的期間,並要求他們妥善保存資料,相關規定如下:

(1)置入固定式廣告時需經認證:COPPA所涵蓋的網站和線上服務業者現在需要獲得兒童父母的同意並取得家長的授權才能向第三方(包括廣告商)揭露資訊,除非揭露資訊是線上服務所不可或缺之部分。且因此獲悉的兒童永久身分識別碼(persistent identifier)也僅止於網站內部利用而已,業者不能將其洩漏予廣告商以連結至特定個人來做使用。

(2)禁止以蒐集個資作為兒童參與條件:在蒐集兒童參與遊戲、提供獎勵或其他活動的個資時,必須在合理必要的範圍內,且不能用個資的蒐集作為兒童參與「活動」的條件,且對業者發送推播通知亦有限制,不得以鼓勵上網的方式,來蒐集兒童的個資。

(3)將科技運用於教育之隱私保護因應:FTC提議將目前教育運用科技之相關指南整理成規則,擬訂的規則將允許學校和學區授權教育軟硬體的供應商將科技運用於蒐集、使用和揭露學生的個資,但僅限使用於學校授權之目的,不得用於任何商業用途。

(4)加強對安全港計畫的說明義務:COPPA原先有一項約款,內容是必須建立安全港計畫(Safe Harbor Program),允許行業團體或其他機構提交自我監督指南以供委員會核准,以執行委員會最終定案的防護措施,此次擬議的規則將提高安全港計畫的透明度和說明義務,包括要求每個計畫公開揭露其成員名單並向委員會報告附加資訊。

(5)其它如強化資訊安全的要求以及資料留存的限制:業者對於蒐集而來的資訊不能用於次要目的,且不能無限期的留存。

FTC此次對COPPA Rule進行修改,對兒童個人資訊的使用和揭露施加新的限制,除了將兒童隱私保護的責任從孩童父母轉移到供應商身上,更重要的是在確保數位服務對兒童來說是安全的,且亦可提升兒童使用數位服務的隱私保障。

相關連結
你可能會想參加
※ 美國聯邦貿易委員會(FTC)提議加強兒童隱私規則,以進一步限制企業將兒童的資訊用來營利, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=9158&no=57&tp=1 (最後瀏覽日:2025/12/01)
引註此篇文章
你可能還會想看
德國公布商業無人機新規範,加強操作安全及隱私保護

  隨著資通訊技術與網路科技整合,無人機熱潮在全球各地崛起,相關創新應用蓬勃發展,產業規模也因此快速擴張,然而國內外不斷傳出多起無人機意外事件,相關操作規範及隱私等法律議題也備受矚目。   德國聯邦交通部於2017年1月18日公布無人機新規範,以提升無人機操作安全,防止碰撞等意外事件,並加強隱私保護。所謂無人機即搖控飛行器,德國航空法上之定義包括模型飛機及無人航空系統設備,前者係用於私人娛樂或體育競賽,其餘飛行器,尤其是商業用途,則歸屬於後者,本次規範重點如下: 1.特定模型飛機場域內的操作規定,不受本次規範修訂影響,惟必須於操作之飛行器上標示所有人之姓名及地址供辨識。 2.超過0.25公斤之無人機或模型飛機,有標示所有人之姓名及地址供辨識之義務。 3.超過2公斤之無人機或模型飛機操作者,必須通過聯邦航管局技能測試或取得飛行運動協會核發之技能證書。 4.超過5公斤之無人機或模型飛機,必須額外取得各邦民航局之許可。 5.除特定模型飛機場域內,或例外經由各邦民航局申請核可者外,飛行高度不得超過100公尺。一般而言,應於視線範圍內飛行,但未來將可能適度放寬,以利商業無人機之運用發展。 6.無人機或模型飛機應避免與其他無人機碰撞。 7.禁止造成各種障礙或危險之飛行行為。 8.禁止商業無人機或模型飛機在敏感區域飛行,例如憲法機構、聯邦或各邦機關、警消救災範圍、人群聚集區、主要交通幹道、機場起降區。 9.超過0.25公斤之無人機或模型飛機,或配備光學、聲音、無線電信號發送或記錄設備之飛行器不得在住宅區飛行。   近來幾起無人機入侵機場事件造成嚴重飛安威脅,相關碰撞意外新聞也不斷頻傳。為兼顧生命財產安全及促進新興技術發展,有必要進行適度合理監管及預防措施,並加強操作安全及隱私教育,以降低危害風險,並於意外或違規事件發生後,得以追究肇事者相關法律責任。

德國首例因Twitter超連結的裁定出爐

  根據德國法蘭克福地方法院日前於4月20日的一則假處分裁定(Beschluss vom 20.04.2010, Az. 3-08 O 46/10),禁止被告以超連結方式,讓點取該鏈結的人,得以連結到刊登有損害原告商業信譽的文章頁面。   本件事實起源於一名匿名的網友在不同的網路論壇中,發表刊登有侵害原告商業信譽的言論,而曾經與原告有商業上往來的被告,利用自己Twiiter帳戶,發表超連結,並在鏈結網址下加上「十分有趣」的文字,讓看到該訊息的朋友,都可以點選鏈結連接到這些不利於原告商業信譽的文章、言論。原告因而向法院申請假處分裁定,禁止被告以超連結方式繼續為有損原告商業信譽的行為。 法蘭克福地方法院的這起裁定,被視為是德國國內第一起法院對Twitter等社群網站的警告,德國輿論各界也普遍認為,法院透過裁定對外明白宣示社群網站使用者往往誤認網路社群空間為「半私人場域(須加入好友才得以分享資訊、留言等)」,在自己的帳戶上發表心得、感想、分享文章等行為,還是有構成侵權責任的可能性。   該裁定出爐後,德國各界則開始討論被告設定超連結的行為是否構成網路侵權責任,持贊成意見者認為,即使該違法言論非被告本人所發表,被告設定超連結的行為,也讓自己與該違法言論「合而為一(zueigen gemacht)」,也就是,讓外界以為該違法言論就是被告本人所撰寫刊登;根據德國電信服務法(Telemediengesetz, TMG)第7條規定,內容提供者須為「自己」的言論負擔法律責任。   反對者則拿其他超連結的案例舉出,法院認定被告是否構成網路內容提供者的侵權責任,通常會檢視被告對於該違法言論的內容是否知悉、被告是否違背其檢查監督義務(Überprüfungspflicht),例如被告須為一定行為藉以與原撰文者劃清界線等。但因各該檢驗標準都係由法院依據個案加以認定,讓人無所適從,產生網路侵權行為的判斷標準過於浮動之疑慮,德國國會也因此著手進行電信服務法的修法。

歐盟法院取消adidas(阿迪達斯)三條紋商標

  2019年6 月19日歐盟普通法院(THE GENERAL COURT)於以商標並不具備獨特性裁定,長年深植人心之Adidas「三條紋」商標(下稱系爭商標)無效。   Adidas於2013年底,將系爭商標向歐盟智慧財產局提交「圖形商標」(figurative mark)之註冊申請,並登記商標用途為服裝、鞋類、帽子。而於隔年比利時鞋類公司Shoe Branding Europe BVBA依相關規定(Article 52(1)(a)、Article 7(1)(b) of Regulation No 207/2009)提出系爭商標無效之申請,經審議後系爭商標因無任何獨特性,批准無效。隨後Adidas向歐盟智慧財產局提出上訴(Articles 58 to 64 of Regulation No 207/2009),上訴聲明中並未針對系爭商標缺乏獨特性一事提出異議,而是稱系爭商標已符合「經使用取得其獨特性」之規定(Article 7(3) and Article 52(2) of Regulation No 207/2009)。惟歐盟智慧財產局認為,Adidas無法證明系爭商標在歐盟境內有經使用而取得獨特性駁回上訴,隨後Adidas再向歐盟普通法院提出訴訟。   最終歐盟普通法院之裁決,仍維持2016年歐盟智慧財產局取消此系爭商標註冊之決定。歐盟普通法院認為Adidas未能證明「三條紋」在全歐盟28國內有「獨特性」,系爭商標僅只為「普通的象徵標記」。所謂「獨特性」應為於全歐盟國之消費者清楚知悉系爭商標之「三條紋」等於Adidas,並能與其他公司之產品作出區分。

美國國家標準暨技術研究院發布「全球AI安全機構合作策略願景目標」,期能推動全球AI安全合作

美國國家標準暨技術研究院(National Institute of Standards and Technology, NIST)於2024年5月21日提出「全球AI安全機構合作策略願景目標」(The United States Artificial Intelligence Safety Institute: Vision, Mission, and Strategic Goals,下稱本策略願景),美國商務部(Department of Commerce)亦於2024年參與AI首爾峰會(AI Seoul Summit)期間對外揭示本策略願景,期能與其他國家攜手打造安全、可靠且可信賴之AI生態系。 由於AI可信賴與否往往取決於安全性,NIST指出當前AI安全所面臨的挑戰包含:一、欠缺對先進AI之標準化衡量指標;二、風險測試、評估、驗證及確效(Test, Evaluation, Validation, and Verification, TEVV)方法不健全;三、欠缺對AI建模後模型架構與模型表現間因果關係的了解;四、產業、公民社會、國內外參與者等在實踐AI安全一事上合作程度極為有限。 為因應上述挑戰並促進AI創新,NIST在本策略願景中擬定以下三大戰略目標:(1)推動AI安全科學發展:為建立安全準則與工具進行技術合作研究,並預先部署TEVV方法,以利評估先進AI模型之潛在風險與應對措施;(2)推展AI安全實務作法:制定並發布不同領域AI風險管理之相關準則與指標,以達到負責任設計、開發、部署與應用AI模型與系統之目的;(3)支持AI安全合作:促進各界採用前述安全準則、工具或指標,並推動全球合作,以發展國際通用的AI安全風險應對機制。

TOP