歐盟法院做成先決裁判,臉書粉絲專頁管理員也有責任保護用戶資料隱私

  歐盟法院於2018年6月5日對德國行政法院依歐盟運作條約第267條(267 AEUV),就歐盟個人資料保護指令(95/46/EC)第2、4條之解釋適用,提起的先訴裁判申請做出先訴判決。判決提及利用臉書(Face Book)平台經營粉絲專頁,並獲取臉書相關服務的管理者,同樣負有保護用戶資料隱私的責任。此將影響眾多的粉絲專頁,判決指出不僅臉書,連粉絲專頁的管理員都有保護訪客資料安全的責任。

  由於臉書粉絲專業的經營者,並未保存其粉絲的相關資料,既不經手資料處理,更無力影響資料如何呈現,因此主張資料處理的責任應該在於臉書身上,處罰對象也應該是臉書。判決理由指出,臉書作為粉絲專頁相關個人資料的控制者(data controller)應負相關責任並無疑問,但歐盟地區粉絲專業的管理者,應該和臉書一樣,作為資料處理的共同責任者。蓋管理者係運用臉書提供的設定參數,將粉絲專頁的近用者資料蒐集處理,應該負共同責任。因此歐盟法院判決,利用臉書平台經營粉絲專頁,並獲取臉書相關服務的管理者(administrator),並不能免於個資保護法律的法遵義務。

  另外依據德國聯邦資料保護與資訊安全委員會(BFDI)意見,認為雖然判決是基於一般資料保護規則(GDPR)生效之前就已經存在的法律,但法院所確定的共同責任原則也適用於新的法律。BFDI特別建議公共機構以歐盟判決為契機,審查公共機構粉絲頁面的合法性與是否遵守法律規定,並在必要時說服Facebook調整資料保護。

本文為「經濟部產業技術司科技專案成果」

相關連結
你可能會想參加
※ 歐盟法院做成先決裁判,臉書粉絲專頁管理員也有責任保護用戶資料隱私, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8065&no=67&tp=1 (最後瀏覽日:2026/05/17)
引註此篇文章
你可能還會想看
中國大陸商務部頒布《阻斷外國法律與措施不當域外適用辦法》維護國際經貿發展權益

  中國大陸商務部於2021年1月9日公布《阻斷外國法律與措施不當域外適用辦法》(商務部令2021年第1號,簡稱《辦法》),以保護中國大陸公民、法人或其他組織的合法權益,不受他國法律與措施的不當侵害。過去,美國等國家透過出口管制推行單邊主義,限制中國大陸企業的國際經貿活動空間,顯示外國法律與措施的不當域外適用,對中國大陸經濟發展造成不利影響。《辦法》因此借鑒歐盟於1996年制定《抵制第三國立法域外適用效果及行動條例》(Council Regulation (EC) No 2271/96)的立法經驗,拒絕承認外國法律和措施的域外效力,以維護國際經貿發展權益。《辦法》由國務院商務部負責評估和確認外國法律與措施是否存在不當域外適用情形,發布「不得承認、不得執行、不得遵守有關外國法律與措施禁令」;中國公民、法人或者其他組織若因外國法律與措施的域外適用遭受重大損害,得向中國法院提起訴訟,要求獲益當事人賠償損失,以此作為中國大陸對外貿易之必要反制措施。《辦法》所建立的阻斷工作機制架構說明如下: 及時報告:依據第5條,中國大陸公民、法人或其他組織遇到外國法律與措施不當域外適用,即禁止或限制其與第三國(地區)開展正常經貿及相關活動者,應在30日內報告。 評估確認:依據第6條,關於外國法律與措施是否存在不當域外適用情形,商務部應結合各種因素進行評估確認。 發布禁令:依據第7條,經評估確認外國法律與措施存在不當域外適用情形,商務部得發布「不得承認、不得執行、不得遵守有關外國法律與措施的禁令」。第8條,亦由商務部負責「豁免遵守禁令」申請案之否准。 司法救濟:依據第9條,因外國法律與措施的不當域外適用遭受損失,中國大陸公民、法人或其他組織可在中國大陸國內法院起訴並請求損害賠償。 處罰制度:依據第13條,對違反如實報告義務和不遵守禁令之行為,給予相應警告、責令限期改正,並根據情節輕重處以罰款。

日本2021年修正《個人資料保護法》,整合個資法體系

  日本於2021年5月19日公布新修正之《個人資料保護法》(個人情報の保護に関する法律),並預計於2022年4月正式施行。修法重點如下: 一、法律形式及法律管轄一元化:現行日本個人資料保護法制依適用對象分為《個人資料保護法》、《行政機關個人資料保護法》(法律行政機関の保有する個人情報の保護に関する法律)、《獨立行政法人等個人資料保護法》(独立行政法人等の保有する個人情報の保護に関する法律)及各地方政府個人資料保護條例等不同規範,修法後將統一適用《個人資料保護法》,並受到個人資料保護委員會之監督管理。 二、整合醫療及學術領域之規範:目前醫療及學術機構因隸屬於公部門或私部門適用不同規範,修法後無論公私立醫院、大學等原則上均適用相同規範。 三、調整學術研究之豁免規定:基於學術研究自由為憲法保障之基本權,現行《個人資料保護法》明文規定學術研究一律排除適用本法規定,惟2019年日本取得《歐盟一般資料保護規則》(GDPR)適足性認定之範圍未包含學術研究,故修法調整豁免規定為例外情形排除適用,如變更利用目的、取得敏感性個人資料及提供予第三者之情形。 四、整合個人資料及匿名化資料之定義:修法將公部門與私部門對個人資料之定義,整合為包含「易於」與其他資料比對後得以識別特定個人之要件。而《行政機關個人資料保護法》所稱「去識別化資料」(非識別加工情報),與《個人資料保護法》所稱「匿名化資料」(匿名加工情報),修法後將統一稱為「匿名化資料」。   為銜接上述修法內容,日本個人資料保護委員會自2021年8月起陸續針對《個人資料保護法施行令》、《個人資料保護法施行規則》及個人資料保護法相關指引公開徵求意見,後續值得持續觀察日本個人資料保護法制發展。

美國2020年國防太空戰略(Defense Space Strategy)

  美國國防部於2020年6月17日發布「國防太空戰略」(Defense Space Strategy),作為確保美國維持其太空戰略優勢的發展藍圖。國防部長Mark T. Esper指出,一個安全、穩定且開放的太空領域是美國用以支持其國家安全、繁榮科學發展的基礎,然而在各國太空技術競逐之下,太空已儼然成為新的作戰領域(warfighting domain),對此美國應針對政策、策略、任務、投資、能力與專業等面向實施全面性的改革,「國防太空戰略」擘劃出美國如何在接下來的10年內達成其確保美國太空戰略優勢的目標。   「國防太空戰略」提出三大目標:首先,國防部將支持並捍衛美國在太空中的軍事行動自由(freedom of operations),並遏止任何具有敵對意圖的使用以維持美國的太空優勢;其次,美國太空軍(U.S. Space Force)將運用其先進的國防太空技術優勢以協助美國及其盟友的太空軍事行動,並支持民間與商用太空技術產業發展;最後,美國將與盟友共同維持太空領域的穩定,防止任何侵略性的太空活動、建構國際公認的太空行為準則,並支持美國在太空交通與長期外太空活動的領導地位。   為了達成上述三大目標,「國防太空戰略」提出四個優先行動方向,分別為:(1)藉由太空軍的組織改造整合資源,以應對敵對勢力的太空軍事行動並建立全面性的太空軍事優勢。(2)提升作戰層次,整合太空軍事力量包含任務、情報、技能與人員於國家與國際聯合軍事行動當中。(3)提升國際對於太空潛在威脅的重視,推動國際太空行為準則以打造太空戰略環境。(4)透過情報共享、研發與採購(research, development, and acquisition, RD&A)與盟友、合作夥伴、產業及其他政府部門合作,提出對於國家太空政策與國際太空行為準則的建議。

金融穩定委員會報告指出金融領域採用AI之模型、資料品質與治理風險

.Pindent{text-indent: 2em;} .Noindent{margin-left: 2em;} .NoPindent{text-indent: 2em; margin-left: 2em;} .No2indent{margin-left: 3em;} .No2Pindent{text-indent: 2em; margin-left: 3em} .No3indent{margin-left: 4em;} .No3Pindent{text-indent: 2em; margin-left: 4em} 金融穩定委員會(Financial Stability Board, FSB)於2024年11月14日發布《人工智慧對金融穩定的影響》報告,探討人工智慧(Artificial Intelligence, AI)在金融領域的應用進展及對全球金融穩定的影響,分析相關風險並提出建議。 報告指出AI具有提升效率、加強法規遵循、提供個人化金融產品及進階資料分析等益處,但同時可能加劇某些金融部門的脆弱性(Vulnerability),進而構成金融穩定風險。報告特別提出之脆弱性包括:「第三方依賴及服務供應商集中化」、「市場相關性」、「資安風險」,以及「模型風險、資料品質和治理」。 在模型風險、資料品質與治理中,廣泛應用AI可能導致模型風險上升,因某些模型難以驗證、監控及修正,且模型的複雜性與透明性不足將增加尋找具獨立性和專業知識的驗證者的挑戰。此外,在大型語言模型(Large Language Model, LLM),大規模非結構化資料的使用及訓練資料來源的不透明性,使資料品質評估更加困難。特別是在預訓練模型(Pre-trained Model)中,金融機構對眾多資料來源的評估方式不熟悉,進一步增加管理難度。 若金融機構未建立健全的治理架構以審查AI的使用及其資料來源,模型風險與資料品質問題將難以控制。金融機構有責任應對與AI相關的模型風險和資料品質挑戰,包含對模型進行驗證、持續監控、執行結果分析和評估資料品質的預期要求。 報告呼籲各國金融主管機關加強對AI發展的監測,評估現行金融政策框架是否充分,並增強監管能力。建議可定期或不定期調查AI應用情形,並透過報告及公開揭露制度獲取相關資訊。此外,主管機關可考慮利用監督科技(SupTech)及監管科技(RegTech)等AI驅動工具強化監管效能,以應對AI在金融領域帶來的挑戰與風險。

TOP