Google根據加州消費者隱私保護法,允許屏蔽個人化廣告

  Google近期宣布更新廣告政策,以遵守將於2020年1月1日生效之「加州消費者隱私保護法」(California Consumer Privacy Act, CCPA),要求符合該法規之事業體(不論是否於加州開設實體據點):年度總收入超過2,500萬美金、年度收入50%以上源自於出售加州居民之個人資料、每年收到或分享總計超過5萬筆加州居民、家庭或裝置之個人資料、若公司之母公司或子公司符合CCPA所定條件者,允許消費者得選擇並行使退出其個人資料銷售權利。

  Google表示使用其網站廣告工具與應用程式將能屏蔽個人化廣告,個人化廣告,係依消費者瀏覽紀錄、興趣及過去行為投放予消費者,廣告商有時花費高達10倍價錢置入,惟互聯網相關企業先前所進行之遊說未能使該法規排除個人化廣告,從使最受歡迎及利潤豐厚之線上廣告面臨行銷危機。

  依Google新合規條款,透過Google工具(如AdSense和Ad Manager)銷售廣告之網站及應用程式目前無需進行重大更改,廣告商亦可選擇停止所有來自加州網址之消費者或阻擋全球使用個人資料之個人化廣告銷售,該合規條款除於線上發布外,並已通知予各廣告商。

  Google表示,當觸發「限制數據處理」時,廣告將僅基於一般數據,例如用戶所在城市位置或廣告所在頁面主題等;此外,Google亦不會在受限制模式下記錄個人資料而用於未來之廣告行銷。

相關連結
你可能會想參加
※ Google根據加州消費者隱私保護法,允許屏蔽個人化廣告, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8340&no=55&tp=1 (最後瀏覽日:2026/03/08)
引註此篇文章
你可能還會想看
美國國家標準暨技術研究院發布「人工智慧風險管理框架:生成式AI概況」

  美國國家標準暨技術研究院(National Institute of Standard and Technology, NIST)2024年7月26日發布「人工智慧風險管理框架:生成式AI概況」(Artificial Intelligence Risk Management Framework: Generative Artificial Intelligence Profile),補充2023年1月發布的AI風險管理框架,協助組織識別生成式AI(Generative AI, GAI)可能引發的風險,並提出風險管理行動。GAI特有或加劇的12項主要風險包括: 1.化學、生物、放射性物質或核武器(chemical, biological, radiological and nuclear materials and agents, CBRN)之資訊或能力:GAI可能使惡意行為者更容易取得CBRN相關資訊、知識、材料或技術,以設計、開發、生產、使用CBRN。 2.虛假內容:GAI在回應輸入內容時,常自信地呈現錯誤或虛假內容,包括在同一情境下產出自相矛盾的內容。 3.危險、暴力或仇恨內容:GAI比其他技術能更輕易產生大規模煽動性、激進或威脅性內容,或美化暴力內容。 4.資料隱私:GAI訓練時需要大量資料,包括個人資料,可能產生透明度、個人資料自主權、資料違法目的外利用等風險。 5.環境影響:訓練、維護和運行GAI系統需使用大量能源而影響碳排放。 6.偏見或同質化(homogenization):GAI可能加劇對個人、群體或社會的偏見或刻板印象,例如要求生成醫生、律師或CEO圖像時,產出女性、少數族群或身障人士的比例較低。 7.人機互動:可能涉及系統與人類互動不良的風險,包括過度依賴GAI系統,或誤認GAI內容品質比其他來源內容品質更佳。 8.資訊完整性:GAI可能無意間擴大傳播虛假、不準確或誤導性內容,從而破壞資訊完整性,降低公眾對真實或有效資訊的信任。 9.資訊安全:可能降低攻擊門檻、更輕易實現自動化攻擊,或幫助發現新的資安風險,擴大可攻擊範圍。 10.智慧財產權:若GAI訓練資料中含有受著作權保護的資料,可能導致侵權,或在未經授權的情況下使用或假冒個人身分、肖像或聲音。 11.淫穢、貶低或虐待性內容:可能導致非法或非自願性的成人私密影像或兒童性虐待素材增加,進而造成隱私、心理、情感,甚至身體上傷害。 12.價值鏈和組件整合(component integration):購買資料集、訓練模型和軟體庫等第三方零組件時,若零組件未從適當途徑取得或未經妥善審查,可能導致下游使用者資訊不透明或難以問責。   為解決前述12項風險,本報告亦從「治理、映射、量測、管理」四大面向提出約200項行動建議,期能有助組織緩解並降低GAI的潛在危害。

日本經產省修正〈電子商務交易及資訊商品交易等準則〉

  日本經濟產業省於2018年12月19日修正「電子商務交易及資訊商品交易等準則」(電子商取引及び情報財取引等に関する準則,以下稱「本準則」),主要係因應2018年《不正競爭防止法》在促進資料利用之環境整備方面,以及《著作權法》在應取得著作權人同意之行為範圍部分之修正。   本準則首次公布於2002年3月,係經產省透過學界、產業界及金融界專家、相關主管機關、消費者等各方合作,整理民法等各相關法規釋疑而成,因此,須隨著法規修正更新本準則中的法規適用、爭點、說明等內容。經產省期能透過本準則提高交易當事人對電子商務交易及資訊商品交易相關市場的可預見性(foreseeability),並促進交易。   本準則此次修正相關重點如下: 於網站上販售或公布用以安裝程式或存取、複製數位內容(digital content)及程式之帳號及密碼者,應負相關衍生之法律責任。 針對透過網路蒐集、輸出、於內部網路登載、投影他人著作物等利用行為者,加以限制規範。 若學校授課、企業培訓係使用網路進行遠距教學,或遠距教學服務之供應商有償向學校、企業提供課程而違法利用他人著作物者,則學校、企業、服務供應商須依著作權法負相關法律責任。 使用者(被授權人)基於契約取得供應商(授權人)之同意得以使用資訊商品,縱使該資訊商品之智慧財產權(著作權、特許權)受讓予他人,使用者仍得繼續使用該資訊商品。 因體驗版之手機應用程式、軟體、共享軟體,對使用功能或使用期間有所限制,若行為人違法散布解除限制方法於網路者,則行為人應負之法律責任。 向第三人提供全部或部份有償之資料集(dataset)等行為者,加以限制規範。 針對使用P2P共享軟體將檔案上傳至網路、自網路上下載以及提供P2P共享軟體等行為,就是否違反著作權法進行討論。 拍攝到第三人著作物之合理使用。

歐盟執委會發起ERA vs CORONA行動計畫,加速研發創新合作對抗COVID-19

  歐盟執委會於2020年4月7日發起ERA vs CORONA行動計畫,透過歐洲研究區(European Research Area, ERA)全力支持歐洲科研合作、共享科學資訊,並給予歐洲研究團隊與企業充足的研發疫苗資金,用以對抗COVID-19。歐盟執委會已與各國達成共識,確認ERA vs CORONA行動計畫的10項優先行動: 協調各國研究與創新(Research and innovation, R&I)資金投入,專注研發新型冠狀病毒的疫苗與治療方法,加強創新合作模式以對抗疫情。 支持新型冠狀病毒患者的臨床管理,與歐盟大規模臨床實驗計畫。 將資金投入創新領域回應社會需求,關注疫情對社會經濟、醫療及資通訊技術應用、衛生系統及製造業的影響。 藉由Horizon 2020 增加對新創公司的研發財務支持;拓展歐洲創新委員會ePitching計畫(EIC ePitching),鼓勵公私夥伴共同尋求解決方案。 創造資金來源促進R&I行動,引導新創及中小企業申請國家及地方資金、私人基金會、投資歐洲計畫(Invest EU)等。 建立ERA Corona平台,提供研發資金相關的一站式服務,包括歐盟各國補助新型冠狀病毒R&I計畫的完整資訊。 設立新型冠狀病毒特設高階R&I工作小組,規劃歐盟中長期防疫措施。 加強研究基礎設施布建及跨國資料庫利用。 創建歐洲COVID-19研究資料共享平台 ,連接歐洲開放科學雲,允許快速共享研究資料及成果以加速研發、公平分享資訊。 舉辦泛歐黑客松(EU vs Virus)推動歐洲創新與社會交流。

南韓個資保護委員會發布人工智慧(AI)開發與服務處理公開個人資料指引

南韓個資保護委員會(Personal Information Protection Commission, PIPC)於2024年7月18日發布《人工智慧(AI)開發與服務處理公開個人資料指引》(인공지능(AI) 개발·서비스를 위한 공개된 개인정보 처리 안내서)(以下簡稱指引)。該指引針對AI開發與服務處理的公開個人資料(下稱個資)制定了新的處理標準,以確保這些資料在法律上合規,且在使用過程中有效保護用戶隱私。 在AI開發及服務的過程中,會使用大量從網路上收集的公開資料,這些公開資料可能包含地址、唯一識別資訊(unique identifiable information, UII)、信用卡號等個資。這些公開的個資是指任意人可藉由網路抓取技術自公開來源合法存取的個資,內容不限於個資主體自行公開的資料,還包括法律規定公開的個資、出版物和廣播媒體中包含的個資等。由於公開資料眾多,在現實中很難在處理這些公開個資以進行AI訓練之前,取得每個個資主體的單獨同意及授權,同時,南韓對於處理這些公開個資的現行法律基礎並不明確。 為解決上述問題,PIPC制定了該指引,確認了蒐集及利用公開個資的法律基礎,並為AI開發者和服務提供者提供適用的安全措施,進而最小化隱私問題及消除法律不確定性。此外,在指引的制定過程中,PIPC更參考歐盟、美國和其他主要國家的做法,期以建立在全球趨勢下可國際互通的標準。 指引的核心內容主要可分為三大部分,第一部分:應用正當利益概念;第二部分:建議的安全措施及保障個資主體權利的方法;及第三部分:促進開發AI產品或服務的企業,在開發及使用AI技術時,注意可信任性。 針對第一部分,指引中指出,只有在符合個人資料保護法(Personal Information Protection Act, PIPA)的目的(第1條)、原則(第3條)及個資主體權利(第4條)規定範圍內,並滿足正當利益條款(第15條)的合法基礎下,才允許蒐集和使用公開個資,並且需滿足以下三個要求:1.目的正當性:確保資料處理者有正當的理由處理個資,例如開發AI模型以支持醫療診斷或進行信用評級等。2.資料處理的必要性:確保所蒐集和利用的公開資料是必要且適當的。3.相關利益評估:確保資料處理者的正當利益明顯超越個資主體的權利,並採取措施保障個資主體的權利不被侵犯。 而第二部分則可區分為技術防護措施、管理和組織防護措施及尊重個資主體權利規定,其中,技術防護措施包括:檢查訓練資料來源、預防個資洩露(例如刪除或去識別化)、安全存儲及管理個資等;管理和組織防護措施包括:制定蒐集和使用訓練資料的標準,進行隱私衝擊影響評估(PIA),運營AI隱私紅隊等;尊重個資主體權利規定包括:將公開資料蒐集情形及主要來源納入隱私政策,保障個資主體的權利。 最後,在第三部分中,指引建議AI企業組建專門的AI隱私團隊,並培養隱私長(Chief Privacy Officers, CPOs)來評估指引中的要求。此外,指引亦呼籲企業定期監控技術重大變化及資料外洩風險,並制定及實施補救措施。 該指引後續將根據PIPA法規修訂、AI技術發展及國際規範動向持續更新,並透過事前適當性審查制、監管沙盒等途徑與AI企業持續溝通,並密切關注技術進步及市場情況,進而推動PIPA的現代化。

TOP