何謂「監理沙盒」?

  沙盒(Sandbox)是一個讓小孩可以安全遊玩與發揮創意的場所,在電腦科學領域,沙盒則是用來代稱一個封閉而安全的軟體測試環境。而監理沙盒(Regulatory Sandbox),則是在數位經濟時代,為因應各種新興科技與新商業模式的出現,解決現行法規與新興科技的落差,故透過設計一個風險可控管的實驗場域,提供給各種新興科技的新創業者測試其產品、服務以及商業模式的環境。

  在監理沙盒當中,業者將暫時享有法規與相關責任的豁免,減低法規遵循風險,以使業者能夠盡可能地測試其技術、服務或商業模式。透過在測試過程中與監管者(通常為政府主管機關)的密切互動合作,針對在測試過程中所發現或產生的技術、監管或法規問題,一同找出可行的解決方案,並作為未來主管機關與立法者,修改或制定新興科技監管法規的方向跟參考。

  監理沙盒一詞源自英國在2014年因應Fintech浪潮所推動的金融科技創新計畫,而類似的概念也出現在日本2014年修正產業競爭力強化法當中的灰色地帶消除制度與企業實證特例制度。我國則於2017年通過金融科技發展與創新實驗條例,為我國監理沙盒的首例,2018年我國持續推動世界首創的無人載具科技創新實驗條例立法,為我國建構更有利於產業創新的法制環境。

本文為「經濟部產業技術司科技專案成果」

相關連結
※ 何謂「監理沙盒」?, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8091&no=66&tp=5 (最後瀏覽日:2026/05/04)
引註此篇文章
你可能還會想看
歐盟執委會發布歐洲資料戰略

  歐盟執委會於今(2020)年2月19日發布「歐洲資料戰略」(A European strategy for data),宣示繼前一期「歐洲數位單一市場」戰略的基礎下,將於新一期戰略建立一個真正的歐洲資料空間及資料單一市場,以解鎖尚未被利用的個人資料及非個人資料,使資料能夠在歐盟內部、跨部門和跨領域自由流動,並使所有公部門、公民,或新創、中小、大企業都可存取資料及利用。   本戰略就此提出四大戰略行動,重點如下: 1、資料存取(Data Access)和利用的跨部門治理框架 (1)2020年第四季提出「共同歐洲資料空間」(common European data spaces)的治理立法框架:A.加強共同資料空間及其他跨公私部門資料利用方式的治理機制;B.於GDPR基礎下,基於科學研究目的利用敏感個資時,能較容易決定可以由誰如何利用哪些資料;以及使個人更容易同意其個資的公益目的利用。 (2)2021年第一季通過開放資料指令(Directive (EU) 2019/1024)的高價值資料集「施行細則/執行法」(implementing acts)。 (3)2021年提出《資料法》(Data Act)草案促進企業對政府的資料共享;以及解決現今企業間資料共享常遇到的障礙,例如多方合作建置資料時(如物聯網),釐清各方的資料使用權限及各自的法律責任。 2、推動方式:投資歐洲資料空間重大項目,以加強歐洲處理和使用資料的基礎設施及能力、加強資料互通性等。 3、加強個人資料管理:在GDPR第20條的可攜權(portability right)基礎下,於《資料法》賦權個人更能控制自己被政府及企業所掌握的個資,並使個人能自己決定由誰存取和利用。另外,將由數位歐洲計畫開發「個人資料空間」。 4、促進戰略性產業領域及公益領域的共同歐洲資料空間:歐盟執委會將協助建立包含「共同歐洲工業(製造)資料空間」(Common European industrial (manufacturing) data space)在內的9種領域共同歐洲資料空間,本戰略亦於附件介紹各領域的資料共享基礎背景。   另外,雖非戰略主軸,但文件內容及新聞稿皆提及,執委會將於2020年第四季提出《數位服務法》(Digital Services Act),為所有企業進入資料單一市場建立明確的規範、審查現有政策框架、加強線上平台的責任及保護基本權利。   總而言之,本戰略所欲推展的各項行動,將促進公民、企業組織、研究人員和公部門能更輕易的獲得和利用彼此的資料,進而確保歐盟成為資料驅動社會的模範和領導者。

歐盟執委會提出「具可信度之人工智慧倫理指引」

  歐盟執委會人工智慧高級專家小組(High-Level Expert Group on Artificial Intelligence)於2019年4月8日公布「具可信度之人工智慧倫理指引」(Ethics Guidelines For Trustworthy AI)。該指引首先指出,具可信度之人工智慧需具備三個關鍵特徵:(1)合法(Lawful):應遵守所有適用於人工智慧之法規;(2)合乎倫理(Ethical):確保人工智慧符合倫理原則與價值;(3)健全(Robust):自技術與社會層面觀之,避免人工智慧於無意間造成傷害。   該指引並進一步指出人工智慧應遵守以下四項倫理原則: (1) 尊重人類之自主權(Respect for Human Autonomy):歐盟之核心價值在於尊重人類之自由與自主,與人工智慧系統互動之個人,仍應享有充分且有效之自我決定空間。因此,人工智慧之運用,不應脅迫、欺騙或操縱人類,人工智慧應被設計為輔助與增強人類之社會文化技能與認知。 (2) 避免傷害(Prevention of Harm):人工智慧不應對人類造成不利之影響,亦不應加劇既有的衝突或傷害。人工智慧之系統運行環境應具備安全性,技術上則應健全,且確保不會被惡意濫用。此外,弱勢族群應於人工智慧運用中受到更多關注,並被視為服務對象。 (3) 公平(Fairness):人工智慧系統之開發、布建與利用,必須具備公平性。除了透過實質承諾與規範,進行平等與公正之利益與成本分配外,亦須透過救濟程序確保個人或特定族群不受到歧視與偏見之侵害,並可對人工智慧之自動化決策結果提出質疑,且獲得有效之補救。 (4) 可解釋性(Explicability):人工智慧應盡量避免黑箱(Black Box)決策,其系統處理程序須公開透明,並盡可能使相關決策結果具備可解釋性,分析特定訊息可能導致之決策結果,此外亦需具備可溯性且可接受審核。

新加坡科學家研究出奈米載體有效送藥抗癌

  新加坡科學家研究出新的抗癌方法,新加坡生物工程與奈米科技研究院宣佈,研究出智慧奈米載體,可以攜帶抗癌藥物準確送入癌細胞裏,有效地把癌細胞殺死,減少副作用。    星國科技研究局生物工程與奈米科技研究院宣佈,研究出以聚合物製成的智慧奈米載體,大小少過二百奈米,也就是大約頭髮直徑的五百分之一,這種微粒載體內部中空,可以裝載抗癌藥物,而載體的外殼可以保護藥物免受消化液消化掉,在一般環境裏結構穩定,解決過去載體結構不穩定的問題。    領導這項研究的科學家楊義燕博士表示,這種奈米載體可用酸鹼度和溫度變化來控制,當微粒載體碰到成低酸度的癌細胞組織和細胞質時,就會沈澱變形,同時釋放出內部的藥物分子殺死癌細胞。過去也有科學家研究出類似的微粒載體,但必須由體外透過溫度變化來控制微粒在體內的行進,控制不易;這次研究的載體,只要靠酸鹼度變化就可以把抗癌藥物帶到深層組織或細胞群,控制容易。    載體釋放藥物的過程:當智慧奈米載體遇到癌細胞組織,會附在癌細胞組織表面,同時載體外部也附上生物訊號,能夠協助載體辨識和深入癌細胞內部,當癌細胞吸收了載體後,載體反過來吸收癌細胞內的質子,並把藥物分子釋放到細胞質和細胞核裏。    研究團隊在進行老鼠乳癌細胞臨床實驗顯示,透過智慧奈米載體把用來治療白血病和各種癌症的阿黴素送到癌細胞內,有效抑制腫瘤生長,卻不會產生對正常細胞的毒害作用及副作用。

Google個資隱私權政策違反歐洲資料保護指令,六國將聯合採取法律途徑

  2012年3月Google將世界各地總共60個相異的個人資料隱私權政策統一後,即受到歐盟個人資料保護機構「第29條工作小組」的關注,該小組認為Google修訂後的個人資料隱私權政策違反歐洲資料保護指令(European Data Protection Directive (95/46/CE)),將難以讓使用者清楚知悉其個人資料可能被利用、整合或保留的部分。同時,Google亦可能利用當事人不知情的情況下,大量利用使用者個人資料。因此,2012年10月歐盟要求Google在4個月內對該公司的個人資料隱私權政策未符歐盟規定者提出說明,惟至今Google仍無回應。因此,歐洲6個國家,包括法國、德國、英國、義大利、荷蘭及西班牙的個資監管機構,將聯合審視Google的個人資料隱私權政策是否違反各國的法律,並依據各國法律展開後續措施,如鉅額罰款等。法國之資訊自由國家委員會(Commission nationale de l'informatique et des libertés,簡稱CNIL)率先表示,若Google於4月11日前未改善其資料隱私權政策,法國將首先採取法律行動。然Google對此僅簡單回應,表示其資料隱私政策尊重歐盟的法律,且可以讓Google提供更簡單、更有效率的服務。

TOP