Google根據加州消費者隱私保護法,允許屏蔽個人化廣告

  Google近期宣布更新廣告政策,以遵守將於2020年1月1日生效之「加州消費者隱私保護法」(California Consumer Privacy Act, CCPA),要求符合該法規之事業體(不論是否於加州開設實體據點):年度總收入超過2,500萬美金、年度收入50%以上源自於出售加州居民之個人資料、每年收到或分享總計超過5萬筆加州居民、家庭或裝置之個人資料、若公司之母公司或子公司符合CCPA所定條件者,允許消費者得選擇並行使退出其個人資料銷售權利。

  Google表示使用其網站廣告工具與應用程式將能屏蔽個人化廣告,個人化廣告,係依消費者瀏覽紀錄、興趣及過去行為投放予消費者,廣告商有時花費高達10倍價錢置入,惟互聯網相關企業先前所進行之遊說未能使該法規排除個人化廣告,從使最受歡迎及利潤豐厚之線上廣告面臨行銷危機。

  依Google新合規條款,透過Google工具(如AdSense和Ad Manager)銷售廣告之網站及應用程式目前無需進行重大更改,廣告商亦可選擇停止所有來自加州網址之消費者或阻擋全球使用個人資料之個人化廣告銷售,該合規條款除於線上發布外,並已通知予各廣告商。

  Google表示,當觸發「限制數據處理」時,廣告將僅基於一般數據,例如用戶所在城市位置或廣告所在頁面主題等;此外,Google亦不會在受限制模式下記錄個人資料而用於未來之廣告行銷。

相關連結
你可能會想參加
※ Google根據加州消費者隱私保護法,允許屏蔽個人化廣告, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8340&no=67&tp=1 (最後瀏覽日:2026/04/25)
引註此篇文章
你可能還會想看
簡介人工智慧的智慧財產權保護趨勢

近期人工智慧(Artificial Intelligence, AI)的智慧財產權保護受到各界廣泛注意,而OpenAI於2023年3月所提出有關最新GPT- 4語言模型的技術報告更將此議題推向前所未有之高峰。過去OpenAI願意公布細節,係由於其標榜的是開源精神,但近期的報告卻決定不公布細節(如訓練計算集、訓練方法等),因為其認為開源將使GPT- 4語言模型面臨數據洩露的安全隱患,且尚有保持一定競爭優勢之必要。 若AI產業選擇不採取開源,通常會透過以下三種方式來保護AI創新,包括申請專利、以營業秘密保護,或同時結合兩者。相對於專利,以營業秘密保護AI創新可以使企業保有其技術優勢,因不用公開技術內容,較符合AI產業對於保護AI創新的期待。然而,企業以營業秘密保護AI創新有其限制,包含: 1.競爭者可能輕易透過還原工程了解該產品的營業秘密內容,並搶先申請專利,反過來起訴企業侵害其專利,而面臨訴訟風險; 2.面對競爭者提起的專利侵權訴訟,企業將因為沒有專利而無法提起反訴,或透過交互授權(cross-licensing)來避免訴訟; 3.縱使企業得主張「先使用權(prior user right)」,但其僅適用在競爭者於專利申請前已存在的技術,且未來若改進受先使用權保護之技術,將不再受到先使用權之保護,而有侵犯競爭者專利之虞,因此不利於企業提升其競爭力。 綜上所述,儘管AI產業面有從開源轉向保密的傾向,但若要完全仰賴營業秘密來保護AI創新仍有其侷限,專利依舊是當前各企業對AI領域的保護策略中的關鍵。 本文同步刊登於TIPS網站(https://www.tips.org.tw)

美國商會呼籲我國政府儘速通過智財三法

  我國近年來對智財權保護不遺餘力,政府除祭出各種方案使智慧財產之觀念深入人心外,相關修法動作也持續進行,今年度經濟部智慧財產局更展開大規模的修法,並分別就各修正議題舉辦多場之法案公聽與說明會。諸此種種努力逐漸獲得國際間的肯定,美國政府也釋出善意,在今年初公布之二00五年三0一報告書中,特別將我國從「特別三0一優先觀察名單」中,調降為一般觀察名單。   據美國商會表示,台灣投資環境近年最大的改善,莫過於對智慧財產權的重視,以及落實智財權保障的有效執法機制。不過美國商會也認為,網路盜版猖獗及智財權案件審理費時冗長,將是台灣未來智財權保護的兩大挑戰。尤其在網路盜版方面,保智大隊前幾年查獲的案件中,只有2%與網路侵權有關,但今年到十一月底,比例上升80%,顯示網路盜版加劇,因此建議我國應加速規範P2P傳輸業者的立法,以遏止下載未經授權的音樂、影片,或其他受著作權保障的作品。   美國商會呼籲,為維持得來不易的成績,立法院應儘速在本會期通過智慧財產法院組織法草案、智慧財產案件審理法草案,及在著作權法新增技術立法,以規範P2P(網路點對點傳輸)業者等智財三項法案;與此同時,美國商會也建議未來智財法院的法官,應具備技術背景並體認國際投資競爭、偽藥及假農藥等公共衛生議題對於生技等創新產業發展之重要性。

印度政府公告個人資料保護法草案

  2018年7月27日印度電子及資訊科技部(Ministry of Electronics and Information Technology, MeitY)公告個人資料保護法草案(Protection of Personal Data Bill),若施行將成為印度首部個人資料保護專法。   其立法背景主要可追溯2017年8月24日印度最高法院之判決,由於印度政府立法規範名為Aadhaar之全國性身分辨識系統,能夠依法強制蒐集國民之指紋及虹膜等生物辨識,國民在進行退稅、社會補助、使用福利措施等行為時都必須提供其個人生物辨識資料,因此遭到人權團體控訴侵害隱私權。最高法院最後以隱私權為印度憲法第21條「個人享有決定生活與自由權利」之保護內涵,進而認為國民有資料自主權,能決定個人資料應如何被蒐集、處理與利用而不被他人任意侵害,因此認定Aadhaar專法與相關法律違憲,政府應有義務提出個人資料專法以保護國民之個人資料。此判決結果迫使印度政府成立由前最高法院BN Srikrishna法官所領導之專家委員會,研擬個人資料保護法草案。   草案全文共112條,分為15章節。主要重點架構說明如下: 設立個資保護專責機構(Data Protection Authority of India, DPAI):規範於草案第49至68條,隸屬於中央政府並由16名委員所組成之委員會性質,具有獨立調查權以及行政檢查權力。 對於敏感個人資料(Sensitive personal data)[1]之特別保護:草案在第4章與第5章兩章節,規範個人與兒童之敏感個人資料保護。其中草案第18條規定蒐集、處理與利用敏感個人資料前,必須獲得資料主體者(Data principal)之明確同意(Explicit consent)。而明確同意是指,取得資料主體者同意前,應具體且明確告知使用其敏感個人資料之目的、範圍、操作與處理方式,以及可能對資料主體者產生之影響。 明確資料主體者之權利:規範於草案第24至28條,原則上資料主體者擁有確認與近用權(Right to confirmation and access)、更正權(Right to correction)、資料可攜權(Right to data portability)及被遺忘權(Right to be forgotten)等權利。 導入隱私保護設計(Privacy by design)概念:規範於草案第29條,資料保有者(Data fiduciary)應採取措施,確保處理個人資料所用之技術符合商業認可或認證標準,從蒐集到刪除資料過程皆應透明並保護隱私,同時所有組織管理、業務執行與設備技術等設計皆是可預測,以避免對資料主體者造成損害等。 指派(Appoint)資料保護專員(Data protection officer):散見於草案第36條等,處理個人資料為主之機構、組織皆須指派資料保護專員,負責進行資料保護影響評估(Data Protection Impact Assessment, DPIA),洩漏通知以及監控資料處理等作業。 資料保存之限制(Data storage limitation):規範於草案第10條與第40條等,資料保有者只能在合理期間內保存個人資料,同時應確保個人資料只能保存於本國內,即資料在地化限制。 違反草案規定處高額罰金與刑罰:規範於草案第69條以下,資料保有者若違反相關規定,依情節會處以5億至15億盧比(INR)或是上一年度全球營業總額2%-4%罰金以及依據相關刑事法處罰。 [1]對於敏感個人資料之定義,草案第3-35條規定,包含財務資料、密碼、身分證號碼、性生活、性取向、生物辨識資料、遺傳資料、跨性別身分(transgender status)、雙性人身分(intersex status)、種族、宗教或政治信仰,以及與資料主體者現在、過去或未來相連結之身體或精神健康狀態的健康資料(health data)。

美國情報體系發布「情報體系運用人工智慧倫理架構」

  美國國家情報體系(United States Intelligence Community)係於1981年依據行政命令第12333號(Executive Order 12333)所建立,其任務為蒐集、分析與提供外國情報與反情報資訊美國國家領導人,服務對象包含美國總統、執法單位以及軍事單位。其於2020年6月提出「情報體系人工智慧倫理架構」(Artificial Intelligence Ethics Framework for the Intelligence Community),為人工智慧系統與訓練資料、測試資料之採購、設計、研發、使用、保護、消費與管理提出指引,並指出人工智慧之利用須遵從以下事項: 一、於經過潛在風險評估後,以適當且符合目的之方法利用; 二、人工智慧之使用應尊重個人權利與自由,且資料取得應合法且符合相關政策與法規之要求; 三、應於利用程序內結合人類判斷與建立問責機制,以因應AI產品之風險並確保其決策之適當性。 四、於不破壞其功能與實用性之前提下,盡可能確認、統計以及降低潛在之歧視問題。 五、AI進行測試時應同時考量其未來利用上可預見之風險。 六、持續維持AI模型之迭代(Iteration)、版本與改動之審查。 七、AI之建立目的、限制與設計之輸出項目,應文件化。 八、盡可能使用可解釋與可理解之方式,讓使用者、審查者與公眾理解為何AI會產出相關決策。 九、持續不定期檢測AI,以確保其符合當初建置之目的。 十、確認AI於產品循環中各階段之負責人,包含其維護相關紀錄之責任。

TOP