由Meta案看數位資料商業化面臨之跨國問題

於2023年5月22日愛爾蘭資料保護委員會(Ireland's Data Protection Commission, DPC)對於Facebook的母公司Meta將歐盟境內資料傳輸到美國的行為做出開罰12億歐元的決定,並暫停資料跨境傳輸行為,再次引起了各界對於資料跨境傳輸的關注。

針對跨國提供網路服務的企業,如何確保企業處理資料的方式可以符合多國的法規要求,向來是一困難的問題。自從2015年「安全港隱私準則」(Safe Harbour Privacy Principles)被歐盟法院宣告失效後,美國與歐盟試圖就資料跨境傳輸重新達成一個可符合雙方要求的框架,包含2020年被歐盟法院宣告無效的「隱私盾框架」(EU-US Privacy Shield Framework),而2022年3月雙方達成原則性同意的歐盟美國資料隱私框架(EU-U.S. Data Privacy Framework, DPF),惟就美國於同年10月發布用以實施之行政命令(EO 14086),亦於2023年5月被歐洲議會認為對於歐盟境內資料的保護不足。

2023年6月8日英國跟美國共同發布建立英美資料橋(UK-US data bridge)的聯合聲明,以建立起英美之間的資料流動機制,但該英美資料橋是基於歐盟美國資料隱私框架做進一步的擴展,能否符合歐盟對於資料保護的要求,目前尚無法預期。

目前的商業模式中資料跨境傳輸是難以避免的現實困境,各國亦就資料跨境傳輸建立框架,企業需持續關注自身營業所在地之法規變化,以即時因應調整自身管理機制。

本文同步刊登於TIPS網站(https://www.tips.org.tw/

相關連結
你可能會想參加
※ 由Meta案看數位資料商業化面臨之跨國問題, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=9003&no=67&tp=1 (最後瀏覽日:2026/03/05)
引註此篇文章
科法觀點
你可能還會想看
美國聯邦上訴法院判決,加州政府禁止販賣暴力電玩予未成年人之法案,係屬違憲

  美國聯邦第九區巡迴上訴法院,於2009年2月20日判決中維持下級審見解,認定『禁止暴力電玩法案』係違反憲法所保護的言論自由。系爭法案於2005年由加州國會通過,並由州長Arnold Schwarzenegger所簽署批准。根據該法案規定,禁止販售或出租所謂『特別殘酷、極端邪惡或道德敗壞(especially heinous, cruel or depraved)』的暴力電玩給未滿18歲的未成年人;符合法條所描述之暴力電玩並應該在包裝盒上加註除現行ESRB分級標誌以外的特別標示(18禁);且賦予零售商於販賣暴力電玩時,有檢查顧客年齡之義務,違者將可處1000美元罰款。   聯邦法院法官認為,被告(加州政府)無法證明『暴力電玩』會影響青少年心理及精神方面的健康,或者出現反社會或激進的行為舉止;被告也無法證明透過立法禁止的手段,能有效達到法案所宣稱保護未成年人的立法目的;法院也認為,系爭條文規定過於模糊,並未能說明暴力電玩之判斷標準。   原告Video Software Dealers Association 和Entertainment Software Association表示,要達到加州政府所宣稱的保護未成年人的立法目的,應從加強既有ESRB分級制度的教育宣導、落實零售商遵守分級制度以及透過父母的管教監督等方式著手,而非增加不適當的內容審查機制。然而,支持該法案者則主張,禁止暴力電玩如同禁止對未成年人散佈色情內容一樣(最高法院認為政府禁止對未成年人散佈色情內容並未違憲),本案被告加州州長Schwarzenegger也表示將上訴到底。   日前在德國也出現修正刑法,將販賣或散佈暴力電玩入罪之提議,在暴力電玩分級制度所引起的爭議日益擴大之際,各國相關作法及其所引起之爭議,或許值得我國主管機關重新檢討「電腦軟體分級辦法」之借鏡參考。

英國與美國為人工智慧安全共同開發簽署合作備忘錄

英國技術大臣(U.K. Secretary of State for Science)蜜雪兒·多尼蘭(Michelle Donelan)和美國商務部長(U.S. Secretary of Commerce)吉娜·雷蒙多(Gina Raimondo)於2024年4月1日在華盛頓特區簽署一份合作備忘錄(MOU),雙方將共同開發先進人工智慧(frontier AI)模型及測試,成為首批就測試和評估人工智慧模型風險等進行正式合作之國家。 此備忘錄之簽署,是為履行2023年11月在英國的布萊切利公園(Bletchley Park)所舉行的首屆人工智慧安全峰會(AI Safety Summit)上之承諾,諸如先進AI的急速進步及濫用風險、開發者應負責任地測試和評估應採取之適當措施、重視國際合作和資訊共享之必要性等等,以此為基礎羅列出兩國政府將如何在人工智慧安全方面匯集技術知識、資訊和人才,並開展以下幾項聯合活動: 1.制定模型評估的共用框架(model evaluations),包括基礎方法(underpinning methodologies)、基礎設施(infrastructures)和流程(processes)。 2.對可公開近用模型執行至少一次聯合測試演習(joint testing exercise)。 3.在人工智慧安全技術研究方面進行合作,以推進先進人工智慧模型之國際科學知識,並促進人工智慧安全和技術政策的一致性。 4.讓英、美兩國安全研究所(AI Safety Institute)間的人員互相交流利用其團體知識。 5.在其活動範圍內,依據國家法律、法規和契約規定來相互共享資訊。 換言之,兩國的機構將共同制定人工智慧安全測試之國際標準,以及適用於先進人工智慧模型設計、開發、部署、使用之其他標準。確立一套通用人工智慧安全測試方法,並向其他合作夥伴分享該能力,以確保能夠有效應對這些風險。就如英國技術大臣蜜雪兒·多尼蘭強調的,確保人工智慧的安全發展是全球性問題,只有通過共同努力,我們才能面對技術所帶來的風險,並利用這項技術幫助人類過上更好的生活。

美國正式推行「聯邦政府風險與授權管理計畫」

  2010年,美國聯邦政府展開「聯邦政府風險與授權管理計畫」(Federal Risk and Authorization Management Program,FedRAMP),在經過2年的研究與整備後,聯邦政府總務管理局於2012年06月06日宣佈FedRAMP正式運作。 FedRAMP是由國土安全部、聯邦政府總務管理局、國防部、國家安全局以及國家科技研究所共同撰寫及建置。該計畫的目的是建立一套全國政府機關可遵循依據,針對雲端服務的風險評估、授權管理的標準作業規範。   根據FedRAMP,雲端服務業者欲通過該計畫的評估,其評估程序可分為提出申請、檔案安全控管、進行安全測試、完成安全評估等四個階段。未來所有雲端產品與服務業者,都必須達到該計畫的標準規範,才能為美國政府機關提供雲端產品及服務。   對於雲端服務業者的評估,必須經由FedRAMP認證的第三方機構來進行審查,第三方評估機構欲通過認證,除了要符合FedRAMP的需求外,還必須具備雲端資訊系統的評估能力、備妥安全評估計畫、以及安全評估報告等,另外亦同時引進了ISO/IEC17020以及ISO/IEC17011之規定,來驗證檢驗機構的品質與技術能力。目前為止,聯邦政府總務管理局已經公佈十個獲得授權的機構。   聯邦政府總務管理局同時並期待在2012年的年底之前,能夠有三個雲端服務提供者通過審查,然而,由於制度才剛上路不久,是否能夠跟上產業變遷的腳步並順利達成目標,仍有待進一步觀察。

加拿大競爭局發布人工智慧與競爭諮詢報告

加拿大競爭局(Competition Bureau Canada,下稱競爭局)為更了解人工智慧如何影響或促進競爭,於2025年1月27日發布人工智慧與競爭諮詢報告(Consultation on Artificial Intelligence and Competition)。競爭局於意見徵詢期間獲得來自學術界、法律界、產業協會及大型科技公司的意見書。 諮詢報告彙整意見書內容並列出以下重點: 1. 人工智慧從資料輸入、基礎模型至終端產品或服務各階段皆在快速發展,可以為市場帶來新的競爭或阻礙競爭,人工智慧可能影響競爭原因包含資源依賴、資料控制及市場參進障礙等等。 2. 人工智慧領域中大規模投資是技術成長的重要關鍵,大型企業可藉由市場力量減少競爭或進行創新,少數大型企業因擁有較高的投資能力及數據資料專屬性,在基礎架構層(運行人工智慧所需的工具,如人工智慧晶片、雲端運算及超級電腦等)中佔有極高的市場份額,但也有部分意見認為人工智慧市場仍蓬勃發展中,亦有企業或學術機構未過度依賴專有數據但仍能開發出產品。 3. 人工智慧可能導致反競爭行為,企業雖可透過垂直整合來降低成本並提高效率,但可能會減少現行市場內部競爭,或透過具有人工智慧的演算法進行定價,達到操縱市場價格的行為,現行反壟斷法未來是否可以解決此一問題還有待觀察。 藉由諮詢的過程,競爭局更能掌握人工智慧發展、也了解公眾對話的重要性,意見書亦有助於該局未來提出兼顧人工智慧發展及促進市場競爭之政策措施。 我國公平交易委員會已於112年5月成立AI專案小組,負責掌握國際間人工智慧相關競爭議題的趨勢與發展,並針對現行人工智慧發展與競爭法執法研提政策配套措施,我國公平交易委員會與加拿大競爭局對於人工智慧與市場競爭議題之後續動態,值得持續追蹤。

TOP