Google就隱私權議題與美國FTC達成初步和解,消費者團體呼籲FTC採取更嚴厲的手段

  今年三月底,Google與美國聯邦貿易委員會(Federal Trade Commission, FTC)就Buzz案達成和解。2010年時FTC控告Google Buzz未確實保護消費者的個人資料,侵犯了消費者的隱私權,違反「聯邦貿易委員會法」(FTC Act)以及美國與歐盟所訂定之「安全港架構協議」(U.S.-EU Safe Harbor Framework)。FTC表示,Google搭配在其Gmail中的網路社交服務Buzz,讓Gmail使用者誤以為其可以自主決定是否加入該社群,但事實上縱使Gmail使用者選擇不加入,也無法完全移除此項服務。甚者,選擇加入Buzz的消費者,亦無法找到明確的方式,控制其分享的個人資料。FTC控告Google未取得消費者的同意,將Gmail的資料(通訊錄名單)供社交網路使用,構成目的範圍外的使用。

 

  依據Google與FTC和解內容,Google必須執行一套更為嚴謹的隱私權制度,不得再有誤導消費者其個人資料開放程度的行為,並且在爾後二十年都需接受獨立機構的隱私審查。初步和解內容開放30天(至2011年5月2日 )供社會大眾提供意見,之後FTC將提出最終和解內容。迄今為止,消費者團體提出的意見,包括要求FTC限制Google持有個人資料的時間,將隱私權保護制度適用到其所有的產品,對其儲存於雲端系統的個人資料進行加密動作,以及在進行個人資料蒐集前,應彈跳出視窗取得消費者同意等

 

  值得注意的是,FTC在和解案中關於隱私權政策的客體所使用的語彙為「涵蓋資料」(covered information )而非「個人資料」(personal information),「涵蓋資料」所包含的範圍除了傳統的「個人資料」,尚包含IP位址、個人實體位址,以及通訊名單等等。

 

  本案是FTC首度依職權要求業者採取更為嚴謹的隱私權保護制度以保障消費者權益,亦是FTC初次依「安全港架構協議」所採取的行動。本案對於線上服務的隱私權保護無疑是一大進展,但亦有論者擔心嚴苛的隱私權保護制度,反將造成小公司或新業者市場參進的障礙,愈發壯大Google的市場地位。

 

  除此之外,Google的Buzz服務亦被消費者以集團訴訟提起告訴,最終和解金為850萬美元。

 

  隨著Google成為搜尋引擎界的龍頭,其近年的一舉一動皆備受美國以及歐洲管理當局嚴密注意,今年二月份時,Google即時街景服務亦因不當蒐集個人資料而被法國裁罰14萬美元。

相關連結
※ Google就隱私權議題與美國FTC達成初步和解,消費者團體呼籲FTC採取更嚴厲的手段, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=5451&no=55&tp=1 (最後瀏覽日:2026/05/02)
引註此篇文章
你可能還會想看
FDA發佈「拒絕接受510(K)審查申請之政策」指導文件草案

  醫療器材在美國上市所需依循的途徑,為申請510(k)審查或上市前審查(Premarket Approval, PMA)。順序上第一步,必須在90天前向美國食品藥物管理局(U.S. Food and Drug Administration, FDA)提出「上市前通知」(Premarket Notification, PMN)申請。所謂的510(K),係指美國《食品、藥物及化妝品法》(Federal Food, Drug, and Cosmetic Act, FD&C Act)第510節之規定,在申請的流程中,FDA會審查廠商所提出的佐證,是否具備與已上市的相同器材一樣之「實質相等性」(Substantial Equivalence),若不具備「實質相等性」,即必須進入PMA申請程序。   FDA指出過往機關接受許多不適當的501(K)審查申請,而必須要求這些不適當的申請廠商進一步補充文件,以進行實質審查。FDA指出這樣的程序,進行過度頻繁的審查,而浪費不少寶貴的資源及人力。FDA於2012年8月10發佈「拒絕接受510(K)審查申請之政策」指導文件草案。作為改善與加強501(K)申請流程之效率與有效性。新的指導文件草案之改善目標,係要求廠商必須提出傳統(Traditional)、特殊(Special)、簡略(Abbreviated)三種不同的申請所需之審查文件,FDA會先進行審查文件是否具備的預先審核,始進行實質審查。廠商必須依照指導文件草案內含的核對表(Checklist)所規定必須提交之審查文件,FDA有15天的時間回應廠商是否完成繳交,或要求廠商在新的15天之內補件,而承認 (Acceptance)形式審查完備,始進行實質審查。廠商亦可針對缺繳之文件,說明不提供之理由,並提出相關證明。指導文件草案提供以下幾個準則,提供審查機關審視核對表完備與否: 該產品是否為器材; 該項申請之對象是否正確; 是否為適當合法510(k)申請; 是否有相同的器材經PMA程序核准上市; 所提出的臨床數據,申請者是否受限於「申請規範政策」(Application Integrity Policy, AIP)。   FDA透過這樣預先審查之方式,檢視廠商所提出之申請,是否符合形式的要件,而決定是否進行實質審查,以避免浪費行政機關的資源與人力進行不適當的審查,希冀改善FDA目前501(k)審查申請制度之效率與有效性。

日本設置「創新藥品等實用化支援基金」促進創新藥品及再生醫療製劑研發上市

日本在2025年2月12日閣議決定「藥機法等部分法律修正案」(原文:医薬品、医療機器等の品質、有効性及び安全性の確保等に関する法律等の一部を改正する法律案),送國會本會期審議。其中明文設置「創新藥品等實用化支援基金」,政府預先編列複數年度所需財源,並設有10年時限措施。此項基金業務預定由國立研究開發法人醫藥基盤、健康暨營養研究所(下稱研究所)負責實施,追加創新藥品等實用化支援事業為研究所新業務,並明定至令和18年(2036年)3月31日為止實施,說明如下: (1)為了「創新藥品及再生醫療製劑」(下稱創新藥品等)之實用化,整備研發所必要之具規模的設施及設備,並提供從事於創新藥品等實用化之人得以共同使用,以增加創新藥品等實用化之交流與合作之機會,對於從事此等業務以及其他提供必要支援之事業者(下稱創新藥品等實用化支援事業者),由研究所提供其必要資金及其他支援。 (2)創新藥品等實用化支援事業者欲從事前述支援事業,向厚生勞動大臣提出申請書取得認定。 該基金由政府與製藥企業等共同出資設立,以強化「製藥新創得以創造出創新藥品等之製藥基盤及基礎設施」為目標,對於實施創新藥品等新創進行支援之「創新藥品生態系園區之整備事業者」(例如:育成事業者或製藥企業等),整備育成實驗室(Incubation Lab)、動物實驗設施、臨床試驗用藥製造等設施,以及致力於新創支援之事業者作為補助之對象範圍,明文於實施3年後進行檢討,期能透過此一基金之運作強化創新藥品等之製藥基盤。

歐盟法院關於瑞典海盜灣線上分享平台(The Pirate Bay)之侵害著作權判決-

  歐盟法院(以下簡稱CJEU)於2017/07/14在Stichting Brein v Ziggo案中做出決定,認定瑞典海盜灣線上分享平台(The Pirate Bay,以下簡稱TPB)使用BitTorrent分享軟體涉及侵害公開傳輸權。 案例事實如下:   Ziggo等網路服務供應業者(以下簡稱:ISP)之眾多用戶,在未得權利人同意之情況下,使用TPB平台經由BitTorrent軟體分享及下載存於用戶電腦之作品檔案。荷蘭著作權團體Stichting Brein向荷蘭法院聲請對該等ISP業者發出禁制令,令其阻斷TPB之IP網址及網域名。本案由荷蘭最高法院向CJEU提出判決先訴問題,確認在歐盟著作權指令第3(1)條下, TPB等網站管理者於其平台上雖不提供作品檔案,但使用前述分享軟體使網站使用者得搜尋並下載受著作權保護之作品,是否構成對公眾傳輸行為? CJEU之認定如下:   任何讓用戶得接近利用受保護之著作物,即構成歐盟著作權指令第3(1)條稱之傳輸行為。在本案中著作物是經由TPB,使平台使用者能於任何時間及地點接近利用著作物,雖著作物檔案是由其他使用者而非平台業者提供,但平台業者在使作品被接近利用上扮演者關鍵角色,例如將檔案作品分類、消除過時及有錯誤檔案等使作品檔案容易被定位及下載。   CJEU又指出, TPB已被告知其平台提供未經授權之著作物檔案,仍鼓勵使用者於平台上下載違法檔案,並經由廣告賺取可觀營收,故TPB不能主張其無從得知行為之違法性。因此CJEU認定TPB協助違法接近利用及分享著作物之線上平台,是足以構成著作權之侵害。

英國發布人工智慧網路資安實務守則

英國政府於2025年1月31日發布「人工智慧網路資安實務守則」(Code of Practice for the Cyber Security of AI,以下簡稱「實務守則」),目的是提供人工智慧(AI)系統的網路資安指引。該實務守則為英國參考國際上主要標準、規範後所訂定之自願性指引,以期降低人工智慧所面臨的網路資安風險,並促使人工智慧系統開發者與供應商落實基本的資安措施,以確保人工智慧系統的安性和可靠性。 由於人工智慧系統在功能與運作模式上與傳統網路架構及軟體有明顯的不同,因此產生新的資安風險,主要包含以下: 1. 資料投毒(Data Poisoning):在AI系統的訓練資料中蓄意加入有害或錯誤的資料,影響模型訓練結果,導致人工智慧系統產出錯誤推論或決策。 2. 模型混淆(Model Obfuscation):攻擊者有意識地隱藏或掩飾AI模型的內部運作特徵與行為,以增加系統漏洞、引發混亂或防礙資安管理,可能導致AI系統的安全性與穩定性受損。 3. 輸入間接指令(Indirect Prompt Injection):藉由輸入經精心設計的指令,使人工智慧系統的產出未預期、錯誤或是有害的結果。 為了提升實務守則可操作性,實務守則涵蓋了人工智慧生命週期的各階段,並針對相關角色提出指導。角色界定如下: 1. 人工智慧系統開發者(Developers):負責設計和建立人工智慧系統的個人或組織。 2. 人工智慧系統供應鏈(Supply chain):涵蓋人工智慧系統開發、部署、營運過程中的的所有相關個人和組織。 實務守則希望上述角色能夠參考以下資安原則,以確保人工智慧系統的安全性與可靠性: 1. 風險評估(Risk Assessment):識別、分析和減輕人工智慧系統安全性或功能的潛在威脅的過程。 2. 資料管理(Data management):確保AI系統整個資料生命週期中的資料安全及有效利用,並採取完善管理措施。 3. 模型安全(Model Security):在模型訓練、部署和使用階段,均應符合當時的技術安全標準。 4. 供應鏈安全(Supply chain security):確保AI系統供應鏈中所有利益相關方落實適當的安全措施。 「人工智慧網路資安實務守則」藉由清晰且全面的指導方針,期望各角色能有效落實AI系統安全管控,促進人工智慧技術在網路環境中的安全性與穩健發展。

TOP