何謂「Regtech」?

  有別於金融科技(Fintech)著重於運用科技手段使金融服務變得更有效率,因而形成促進金融產業發展的一種經濟產業。在美國源於對2008年金融風暴的恐懼,更傾向在金融科技提升金融服務便利與效率的同時,倡議如何使行政機關在監理過程中更能夠兼顧公平、安全及消費者保護。消費者保障與洗錢防制是行政機關進行金融監理的兩大核心目標,而金融科技服務下的客戶身分核實、信用紀錄與償債能力查核等風險控管措施,在全球發展金融科技方興未艾之際,美國則積極發展監理科技「Regtech」。意指行政機關嘗試透過科技手段有效監理業者的營運動態,如區塊鏈技術(Block-Chain)改變銀行現行運作模式,不僅降低業者營運成本外,更透過科技監理的方式協助業者即時達成法令遵循的目標,縮短法令遵循改善的過渡期間,減輕風險產生的可能。同時,也讓行政機關得以即時預防,並因應任何類似2008年金融風暴之情事的發生。

本文為「經濟部產業技術司科技專案成果」

※ 何謂「Regtech」?, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=7699&no=55&tp=1 (最後瀏覽日:2026/02/15)
引註此篇文章
你可能還會想看
電信業者提供視訊服務之外國法制研析

資通安全法律案例宣導彙編 第1輯

Facebook因掃描用戶訊息而面臨訴訟

  2013年,Facebook用戶Matthew Campbell指控Facebook違反聯邦電子通訊隱私法及加州法律,並提出集體訴訟,要求Facebook必須支付每位受侵害的用戶最高一萬美元的賠償。原因是Facebook掃瞄用戶之私人對話內容中的網站連結,並計入網站的按「讚」總數,再將這些「讚」彙整入用戶的個人檔案後對用戶進行行為分析,最後針對該用戶的行為模式發送客製化的廣告, 造成用戶的困擾。   對此,Facebook辯稱其掃描用戶的訊息是很普遍的商業行為,因此屬於聯邦電子通訊隱私法例外條款的範疇,而且Facebook在2012年即已停止傳送客製化廣告,故Facebook要求撤銷此訴訟。   然而,2014年12月23日,美國加州奧克蘭地方法官 Phyllis Hamilton認為,雖然Facebook已經在2012年10月停止傳送客製化廣告,但Facebook同時並承認仍會持續分析用戶之訊息(理由是為了防止電腦病毒以及垃圾郵件),而且Facebook不願意提供任何有關目標式廣告手法的細節,使法院無法判斷這是否為普遍的商業行為而屬於聯邦電子通訊隱私法例外條款的範疇,因此,法院裁定駁回Facebook的撤銷申請,本案將繼續進行審理程序。

英國資訊委員辦公室提出人工智慧(AI)稽核框架

  人工智慧(Artificial Intelligence, AI)的應用,已逐漸滲透到日常生活各領域中。為提升AI運用之效益,減少AI對個人與社會帶來之負面衝擊,英國資訊委員辦公室(Information Commissioner’s Office, ICO)於2019年3月提出「AI稽核框架」(Auditing Framework for Artificial Intelligence),作為確保AI應用合乎規範要求的方法論,並藉機引導公務機關和企業組織,評估與管理AI應用對資料保護之風險,進而建構一個可信賴的AI應用環境。   AI稽核框架主要由二大面向所構成—「治理與可歸責性」(governance and accountability)以及「AI特定風險領域」(AI-specific risk areas)。「治理與可歸責性」面向,係就公務機關和企業組織,應採取措施以遵循資料保護規範要求的角度切入,提出八項稽核重點,包括:風險偏好(risk appetite)、設計階段納入資料保護及透過預設保護資料(data protection by design and by default)、領導管理與監督(leadership management and oversight)、政策與程序(policies and procedures)、管理與通報架構(management and reporting structures)、文書作業與稽核紀錄(documentation and audit trails)、遵循與確保能力(compliance and assurance capabilities)、教育訓練與意識(training and awareness)。   「AI特定風險領域」面向,則是ICO特別針對AI,盤點下列八項潛在的資料保護風險,作為風險管理之關注重點: 一、 資料側寫之公平性與透明性(fairness and transparency in profiling); 二、 準確性(accuracy):包含AI開發過程中資料使用之準確性,以及應用AI所衍生資料之準確性; 三、 完全自動化決策模型(fully automated decision making models):涉及人類介入AI決策之程度,歐盟一般資料保護規則(General Data Protection Regulation, GDPR)原則上禁止無人為介入的單純自動化決策; 四、 安全性與網路(security and cyber):包括AI測試、委外處理資料、資料重新識別等風險; 五、 權衡(trade-offs):不同規範原則之間的取捨,如隱私保護與資料準確性; 六、 資料最少化與目的限制(data minimization and purpose limitation); 七、 資料當事人之權利行使(exercise of rights); 八、 對廣泛公共利益和權利之衝擊(impact on broader public interests and rights)。   ICO將持續就前述AI特定風險領域,進行更深入的分析,並開放公眾討論,未來亦將提供相關技術和組織上之控制措施,供公務機關及企業組織進行稽核實務時之參考。

TOP