香港公告金融科技監管沙盒2.0版、保險科技沙盒以及證監會監管沙盒

  在香港金融管理局(Hong Kong Monetary Authority, HKMA)於2016年9月推出金融科技監管沙盒(Fintech Supervisory Sandbox, FSS)滿一年後,於今年9月29日再公布2.0升級版。而香港保險業監管局(Insurance Authority, IA)同時發布保險科技沙盒(Insurtech Sandbox),證券及期貨事務監察委員會(Securities and Futures Commission, SFC)亦公告證監會監管沙盒(SFC Regulatory Sandbox),初步完備香港金融領域沙盒制度之建立。

  於金融科技監管沙盒2.0版中,香港金融管理局為加強金融科技公司與HKMA連繫機制,將成立金融科技監管聊天室(Fintech Supervisory Chatroom),改變最初金融科技公司僅能透過銀行窗口與HKMA進行試驗商品相關聯繫,造成程序不便、資訊不流通等問題,2.0版後金融科技公司可透過HKMA隸屬之金融科技監管聊天室進行意見回饋。並且由於香港針對金融科技、保險、證券及期貨領域推出三種沙盒機制,故推出「一點通」之一站式便民服務,提供企業選擇沙盒並得以和各機關進行相互協調,此次改革將於年底作業完成。

  而IA為促進保險科技發展,推出保險科技沙盒,對於保險公司計畫在香港推出的創新技術不確定是否符合香港法規,給予受授權保險公司在沙盒機制內進行沙盒試驗,在沙盒試驗中,主管機關得隨時對保險公司之風險控管做查核,並且消費者有隨時退出試驗並給予補償機制,IA亦可針對不符合之試驗計劃宣告中止。

  另外,SFC開放合資格之企業提供沙盒試驗,所謂「合資格之企業」是指經由香港《證券及期貨條例》規範而設立之持照企業或新創公司,同時該公司必須使用創新科技並為投資者帶來更多優質產品服務,並受惠於香港金融服務業者。並且為保護投資者權益,除申請公司應有給予投資者退出機制與提供賠償方式外,並應揭露潛在風險。若最後申請公司證明其試驗客體可靠且符合目的,可向SFC申請走出沙盒機制,並對外營運。

相關連結
※ 香港公告金融科技監管沙盒2.0版、保險科技沙盒以及證監會監管沙盒, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=7906&no=57&tp=1 (最後瀏覽日:2026/03/16)
引註此篇文章
你可能還會想看
德國於今年四月提出網路執行法修正案以提升平台使用者友善程度

  德國政府於今(2020)年4月提出「網路執行法」(Network Enforcement Act, NetzDG)之修法草案,將要求社群平台業者提供對使用者更為友善的申訴流程,並建立及維護「反通報程序」機制,讓使用者有機會針對其被平台刪除之貼文或評論提出反對意見,並得重新發佈於社群平台上。   德國於2018年1月起正式施行「網路執行法」,針對在德國境內擁有200萬以上使用者之社群平台業者,課予其限時處理平台上不實及不當言論之義務,並須提交其處理平台上相關言論之報告,若平台業者未能有效執行相關規定者將處以罰鍰。該法施行兩年後引發諸多批評與爭議,雖然並未如社會大眾所憂慮的對於網路言論自由造成重大侵害,亦無證據顯示社群平台業者比施行前刪除了更多的使用者評論;然該法僅要求平台業者刪除不實或不當言論,對於被誤刪之言論,卻未有相關事前預防或事後救濟之措施。為試圖改善原法規執行上之困境和兩難,德國政府遂於今年4月提出修法草案。   此次修法主要重點如下: 強化平台使用者權利 倘使用者於平台發佈之評論遭平台刪除者,使用者未來得要求平台重新檢視此決定,平台須依個案處理並向使用者釋明其決定理由,據此,平台業者須引入反通報程序之機制(counter-notification procedure)。 提升申訴管道之使用者友善性 申訴程序須更為使用者友善,即必須讓平台使用者更容易進入與使用。 簡化法院核發命令程序 未來將同步修訂聯邦電視媒體法案(Telemediengestez),以利法院核發命令,要求平台業者公布數據或揭露犯罪者身分。 加強每半年公布之透明報告資訊 平台業者未來在半年報上須特別提供有關反通報程序之申請與結果,並揭露說明用於查找、刪除平台上不實或不當內容的自動化程序;亦須在報告裡聲明是否授權獨立研究機構以科學目的之匿名訪問權限,了解與研析平台上之不實或不當言論是否有特別針對特定群體。   此修正草案係為德國政府打擊網路上右翼極端主義和仇恨犯罪的政策措施一部份,後續除了須修訂NetzDG以外,亦包含刑法、刑事訴訟法、電信法及聯邦刑事警察局法等四部法規之修訂,相關規範修訂是否有助於刑事起訴進而有效打擊平台上的不當言論,尚有待後續觀察。

美國奈米容器 挑戰舊有法規

  隨著奈米科技之迅速發展,相關議題焦點已擴及美國食品包裝業,並有待進一步明確規範,以保障消費者安全。由新興奈米材料計畫(Project on Emerging Nanotechnologies,PEN)以及食品雜貨製造協會(Grocery Manufacturers Association,GMA)於2008年6月提出「確保奈米材料使用於食品包裝之安全性(Assuring the Safety of Nanomaterials in Food Packaging: The Regulatory Process and Key Issues )」研究報告,結合產、官、學與公益團體之意見,分別就食品生產過程中,研究「應於何時評估奈米材料之毒性」以及「奈米包裝材質對於食物的潛在危機」。   該報告內容指出,以往係由美國食品暨藥物管理局(FDA)與環保署(EPA)負責管制一般食品包裝材質;FDA以「聯邦食品、藥物及化妝品法」(Federal Food, Drug and Cosmetic Act,FEDCA)中的食品添加物(food additive)條款為規範主軸,而EPA則以「聯邦除蟲劑、殺菌劑及滅鼠法」(Federal Insecticide, Fungicide, and Rodenticide Act,FIFRA)作為管理食品包裝材料之依據;近年來業界認為奈米材料有助於保存食品,漸而應用於食品包裝技術上,惟現行關於奈米微粒之資訊仍未完全,且舊有法規已不敷使用,因此必須蒐集大量數據資料並訂立明確規範,盡可能減低包裝容器所產生的潛在危機,以確保消費者與食品成分皆安全無虞。   該項研究採公開對話方式,區分為法制、科技與產業等三個小組,各有其研究目標: (1)法制面:確立奈米尺寸之定義、檢驗奈米尺寸物質是否能列入食品添加物之範疇。 (2)科技面:分析奈米微粒之物理與化學性質、評估使用奈米材料對於環境的衝擊。 (3)產業面:嘗試建立奈米包裝材質之生命週期。   即便該報告尚未能指引出明確的解決之道,其仍出於增進對話之目的,以表格整理現有資料並提問,藉以促使產業與政府機關進一步思考問題之方向,並尋求科學性的解決方式。

美國地方法院裁定產品專利資訊標示不實之罰金計算以該產品之最高售價為基礎

  繼美國聯邦巡迴上訴法院於2009年底於The Forest Group Inc v. Bon Tool Co. 一案中將美國專利法35 U.S.C. § 292條中關於不實專利標示(false patent marking)的罰金計算方式認定為罰金之計算是以每一個標示錯誤專利資訊的產品為基礎,並將原案發回地方法院(the U.S. District Court for the Southern District of Texas)重審後,地方法院於今年4月27日裁定基於專利法第292條具懲罰性之本質,針對標示錯誤或標示無效專利號之產品之罰金應以該產品之最高售價而非被告基於販售該產品所獲得之利潤或經濟利益來計算。   於此案中,The Forest Group產品之售價介於美金 $103至 $180元間,法院因而裁定處以The Forest Group每一標示錯誤專利資訊產品 $180元之罰金。 Atlas 法官提到藉由將標示不實專利資訊者處以該產品之最高售價之罰金,The Forest Group所需賠償之罰金將超過其藉由販售該產品所獲取之利益,達到第292條遏制之目的。   預計此案之判決將對其他地方法院於處理類似案件之判定產生引響,尤其對那些將錯誤專利資訊標示在大量產品上的被告而言。此外,正如各界所預料,繼去年聯邦巡迴上訴法院對第292條提出罰金計算基礎之解釋後,提起相關訴訟案件之數量已大量提升,至今已累積約140案。另,聯邦巡迴上訴法院亦剛於6月10日於Pequignot v. Solo Cup 一案中針對標示過期專利、舉證責任等與第292條相關之爭議做出解釋,後續效應直得企業持續關注。

歐盟提出人工智慧法律框架草案

  歐盟執委會於2020年2月公布《人工智慧白皮書》(AI White Paper)後,持續蒐集各方意見並提出新的人工智慧規範與行動。2021年4月針對人工智慧法律框架提出規範草案(Proposal for a Regulation on a European approach for Artificial Intelligence),透過規範確保人民與企業運用人工智慧時之安全及基本權利,藉以強化歐盟對人工智慧之應用、投資與創新。   新的人工智慧法律框架未來預計將統一適用於歐盟各成員國,而基於風險規範方法將人工智慧系統主要分為「不可接受之風險」、「高風險」、「有限風險」及「最小風險」四個等級。「不可接受之風險」因為對人類安全、生活及基本權利構成明顯威脅,故將被禁止使用,例如:政府進行大規模的公民評分系統;「高風險」則是透過正面例舉方式提出,包括:可能使公民生命或健康處於危險之中的關鍵基礎設施、教育或職業培訓、產品安全、勞工與就業、基本之私人或公共服務、可能會干擾基本權之司法應用、移民與庇護等面向,而高風險之人工智慧在進入市場之前須要先行遵守嚴格之義務,並進行適當風險評估及緩解措施等。「有限風險」則是指部分人工智慧應有透明度之義務,例如當用戶在與該人工智慧系統交流時,需要告知並使用戶意識到其正與人工智慧系統交流。最後則是「最小風險」,大部分人工智慧應屬此類型,因對公民造成很小或零風險,各草案並未規範此類人工智慧。   未來在人工智慧之治理方面,歐盟執委會建議各國現有管理市場之主管機關督導新規範之執行,且將成立歐洲人工智慧委員會(European Artificial Intelligence Board),推動人工智慧相關規範、標準及準則之發展,也將提出法規沙盒以促進可信賴及負責任之人工智慧。

TOP