英國資訊專員辦公室關於退出歐盟後續個資保護回應與未來影響

  英國資訊專員辦公室(Information Commissioner's Office, ICO)表示不論是否仍為歐盟會員國,英國仍需要明確有效的資料保護法,而關於公投退出歐盟(Brexit)結果,ICO發言人表示:「資料保護法是屬地的,不問公投結果為何,若英國不再是歐盟的成員國,即將施行的一般資料保護規則(General Data Protection Regulation, GDPR)亦不會直接適用於英國。然若英國希望在平等條件下的歐盟單一市場進行交易,我們必須證明資料保護是充足的,亦即英國資料保護標準必須符合2018年即將施行的歐盟的資料保護監管框架。對於許多跨境經營的企業與服務而言,遵循資料保護法律與歐盟一致性規範,既是企業組織,亦是消費者和公民所關注重點。ICO致力於與其他國家的監管機構密切合作,而且未來亦是如此。目前明確的法律保護相當重要,且考量到經濟發展,ICO會向政府提出建議,英國相關法規之改革仍屬必要。」


  Brexit後,英國企業資料仍需傳輸至第三國,因此英國可能需爭取類似於瑞士、加拿大等,由歐盟執委會認定資料保護符合充足保護水準之模式;或是尋求類似歐盟與美國針對資料傳輸協議模式。然而目前英國的資料保護法(Data Protection Act 1998)與當前的歐盟資料保護指令仍具一致性,而目前資料從英國傳輸至第三國仍然需依標準契約條款(Standard Contractual Clauses),或英國授權有約束力的企業自我拘束規則(Binding Corporate rules),然而目前英國退出歐盟程序進行中,相關資料保護傳輸之法規範,仍待後續密切觀察。

相關連結
※ 英國資訊專員辦公室關於退出歐盟後續個資保護回應與未來影響, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=7533&no=55&tp=1 (最後瀏覽日:2026/03/13)
引註此篇文章
你可能還會想看
英國因劍橋分析個資外洩事件開罰臉書

  英國資訊專員辦公室(Information Commissioner’s Office, ICO)於2018年10月24日公告針對臉書公司(Facebook Ireland Ltd. & Facebook Inc.)之劍橋分析(Cambridge Analytica)個資外洩事件,依據英國資料保護法(Data Protection Act 1998)第55A條之規範,裁罰臉書公司50萬英鎊之罰鍰。   自2018年3月劍橋分析違法取得與使用臉書個資事件爆發以來,估計約有8700萬筆臉書上的個人資料遭到違法使用,引起全球對於網路個資保護的重視。在遭到違法取得與使用的個資當中,也包含了歐盟以及英國臉書使用者的個資,因此英國ICO有權對此事件展開調查並對臉書公司進行裁罰。   根據英國ICO的調查,自2007年至2014年間,臉書公司對於其平台上的個資處理(processed)有所不當,違反資料保護法之資料保護原則(Data Protection Principle,DPP),包含未適當處理個人資料(DPP1),以及未採取足夠的技術與作為防止未經授權或違法使用個資(DPP7),致使劍橋分析得以透過臉書公司提供之API違法取用臉書使用者個資。   由於劍橋分析事件發生時,歐盟GDPR(General Data Protection Regulation)尚未正式上路,因此英國ICO依據事件發生時之法律,亦即基於歐盟資料保護指令(Directive 95/46/EC)所訂定之英國資料保護法,裁處臉書公司50萬英鎊的罰款;若依據基於GDPR之新版英國資料保護法(Data Protection Act 2018),臉書公司將可被裁處最高1700萬英鎊或年度全球營業額4%之罰款。

美國專利商標局啟動軟體專利檢視計畫

  美國專利商標局(United States Patent and Trademark Office, USPTO)最近宣布將運用同儕檢視的概念,啟動名為”Peer Review Pilot”的軟體專利檢視先導計畫(以下簡稱PRP),該計畫並將與紐約大學進行中的專利共同檢視計畫(Community Patent Review Project (CPRP))合作,以確保軟體專利的品質。   CPRP乃是由紐約大學法學院設置及管理的網站,該網站允許技術專家進一步予以檢視並提供相關資訊的機會,希望專利申請案在經過同儕檢視後,才進一步送交官方審查,藉此縮減審查程序的時間;而UPSTO的PRP也有類似的運作概念,PRP計畫在USPTO開始進行官方的專利審查工作之前,提供ICT領域的技術專家一個針對專利申請書專的權利主張,提出技術之參考註解(annotated technical references)的機會。   USPTO指出,專利審查官員唯有在資訊充分的前提下,才能做出正確的決定,考量專利審查官員必須在有限的時間內找出正確的訊息以對個別案件做出決定,而軟體相關技術的來源碼又不容易取得,也沒有完整的紀錄可供查詢,因此USPTO大膽採用同儕檢視的方法,期能藉此改善軟體專利的審查時間與品質。

巴西通過網際網路公民權法案

  2014年3月25日,巴西下議院通過編號2126/2011號法案,稱為網際網路公民權力法案(Marco Civil da Internet),是國際少見針對網際網路基本權利的立法例。該法律包含網際網路使用者權利、網路服務業者(ISP)責任、保障網際網路言論自由、保障隱私權、資料所有權及網際網路的普及化。   在數個月前,美國國家安全局被揭露監控全球網路流量的作法,引起國際間的軒然大波。許多國家均表達對於美國侵害其隱私及資訊安全,感到非常不滿。巴西政府自2011年以來,便逐步推動網路網路基本權利保障之立法,經過多年的程序,終於完成此次具代表意義的立法。該法律的規範對象涵蓋使用網際網路之個人、政府及企業,主要目的在保障網際網路的開放性、可接取集中立性。其主要規範重點在言論自由、網路中立性、隱私及個資保護、網路中介者責任等四部分。   在基本言論自由部分,該法律承諾保障言論及表達的自由,促進網路企業的競爭,維護公民使用網際網路的權利,促進網路服務的普及化;在網路中立性方面,則規範ISP不得對於網路內容及應用之傳輸有差別待遇,除非基於安全或技術支援的情形,而ISP進行差別待遇時,必須告知使用者;而在個人資料及隱私保護上,除了配合巴西既有的個資法處理資料收集、分析、處理及利用外,尚規範資訊保存與資訊所有權,對於ISP所保留有關使用者的資訊,除明訂各種隱私資料的保存期限外,也規範必須經過法院授權才能加以調閱,使用者對其資料也擁有所有權,ISP對於使用者資料必須嚴格保密;最後則是網路中介機構的責任,當發現網路上有侵害著作權之傳輸行為時,必須透過法院授權,ISP業者才能加以阻斷或刪除,而相對的,ISP業者只要遵守法院授權,便無需為網路上的侵權行為負擔連帶賠償責任,避免了業者因為用戶的侵權行為而連帶受到賠償責任。   巴西本次制訂的網際網路法律在國際上相對少見,例如其中的網路中立性規範也是屬於國際上少數將網路中立性加以明文規範的國家,對於網際網路上自由的維護可以說是非常的具有示範性。目前,國際上針對網際網路的規範模式也一直爭執未定,加強管制或放鬆管制的聲音也不斷的拉鋸,此次巴西的創新立法也可說相當具有參考性。

金融穩定委員會報告指出金融領域採用AI之模型、資料品質與治理風險

.Pindent{text-indent: 2em;} .Noindent{margin-left: 2em;} .NoPindent{text-indent: 2em; margin-left: 2em;} .No2indent{margin-left: 3em;} .No2Pindent{text-indent: 2em; margin-left: 3em} .No3indent{margin-left: 4em;} .No3Pindent{text-indent: 2em; margin-left: 4em} 金融穩定委員會(Financial Stability Board, FSB)於2024年11月14日發布《人工智慧對金融穩定的影響》報告,探討人工智慧(Artificial Intelligence, AI)在金融領域的應用進展及對全球金融穩定的影響,分析相關風險並提出建議。 報告指出AI具有提升效率、加強法規遵循、提供個人化金融產品及進階資料分析等益處,但同時可能加劇某些金融部門的脆弱性(Vulnerability),進而構成金融穩定風險。報告特別提出之脆弱性包括:「第三方依賴及服務供應商集中化」、「市場相關性」、「資安風險」,以及「模型風險、資料品質和治理」。 在模型風險、資料品質與治理中,廣泛應用AI可能導致模型風險上升,因某些模型難以驗證、監控及修正,且模型的複雜性與透明性不足將增加尋找具獨立性和專業知識的驗證者的挑戰。此外,在大型語言模型(Large Language Model, LLM),大規模非結構化資料的使用及訓練資料來源的不透明性,使資料品質評估更加困難。特別是在預訓練模型(Pre-trained Model)中,金融機構對眾多資料來源的評估方式不熟悉,進一步增加管理難度。 若金融機構未建立健全的治理架構以審查AI的使用及其資料來源,模型風險與資料品質問題將難以控制。金融機構有責任應對與AI相關的模型風險和資料品質挑戰,包含對模型進行驗證、持續監控、執行結果分析和評估資料品質的預期要求。 報告呼籲各國金融主管機關加強對AI發展的監測,評估現行金融政策框架是否充分,並增強監管能力。建議可定期或不定期調查AI應用情形,並透過報告及公開揭露制度獲取相關資訊。此外,主管機關可考慮利用監督科技(SupTech)及監管科技(RegTech)等AI驅動工具強化監管效能,以應對AI在金融領域帶來的挑戰與風險。

TOP