沙盒(Sandbox)是一個讓小孩可以安全遊玩與發揮創意的場所,在電腦科學領域,沙盒則是用來代稱一個封閉而安全的軟體測試環境。而監理沙盒(Regulatory Sandbox),則是在數位經濟時代,為因應各種新興科技與新商業模式的出現,解決現行法規與新興科技的落差,故透過設計一個風險可控管的實驗場域,提供給各種新興科技的新創業者測試其產品、服務以及商業模式的環境。
在監理沙盒當中,業者將暫時享有法規與相關責任的豁免,減低法規遵循風險,以使業者能夠盡可能地測試其技術、服務或商業模式。透過在測試過程中與監管者(通常為政府主管機關)的密切互動合作,針對在測試過程中所發現或產生的技術、監管或法規問題,一同找出可行的解決方案,並作為未來主管機關與立法者,修改或制定新興科技監管法規的方向跟參考。
監理沙盒一詞源自英國在2014年因應Fintech浪潮所推動的金融科技創新計畫,而類似的概念也出現在日本2014年修正產業競爭力強化法當中的灰色地帶消除制度與企業實證特例制度。我國則於2017年通過金融科技發展與創新實驗條例,為我國監理沙盒的首例,2018年我國持續推動世界首創的無人載具科技創新實驗條例立法,為我國建構更有利於產業創新的法制環境。
本文為「經濟部產業技術司科技專案成果」
基改動物的技術研發腳步雖不如植物快速,不過自1980年出現重大的技術突破後,基改動物的研發成果不斷產出,目前基改動物的研發方向以醫藥用途最多,其次像是環保、食用、抗氣候變遷等,均有相關的研究投入。隨著研發成果的累積,美國也開始構思基改動物的規範議題,2008年9月,美國FDA及APHIS分別就基改動物提出規範細節及資訊調查的公告。 由於美國並未對基改生物訂定管理專法,而是利用既有的法規體系來管理基因改造生物,而既有法規原各有其規範目的,因此如何從這些既有法規的規範目的出發,闡述其用來規範基改動物的適當連結,以及相關主管機關將如何運用既有法規來管理基改動物,便成為研議的重點。 目前FDA內的CVM(Center for Veterinary Medicine)已率先宣告其對基改動物的主管權限,並公告「基因重組動物管理之產業指導原則(草案)」(Draft Guidance for Industry on the Regulation of Genetically Engineered Animals)。FDA認為,由於轉殖進入基改動物體內的重組DNA構體(rDNA construct),已對動物本身的結構與功能(construct and function)產生影響,符合其依聯邦食品藥品及化妝品管理法(Federal Food, Drug, and Cosmetic Act)規定所稱之藥(drug)的定義,因此,FDA宣告其對所有的基改動物(精確來說是轉殖於其體內的重組DNA構體),將視以動物用新藥(new animal drug)管理之,至於基改動物後續可能有不同的用途,則另須符合相關的產品主管法規,始可上市。在APHIS部分,其主要負責動物健康之把關,目前APHIS正對外進行廣泛的資訊蒐集與調查,以作為其後續研擬進一步的管理規則或政策之參考依據。
微軟將針對美國政府是否對其在都柏林之主機具有管轄權提出上訴在2014年4月時,美國裁決法官James Francis就聯邦檢察官的申請,依據1986年的「電子通訊隱私法」(Electronic Communications Privacy Act, “ECPA”)第2703條第a項之規定,針對微軟客戶的e-mail對微軟公司發出了搜索令。然而,該搜索令所要求的e-mail資料儲存在微軟位於愛爾蘭都柏林的資料中心,因此微軟以美國政府對於愛爾蘭並無司法管轄權為由,拒絕配合執行該搜索令,並且對發出搜索令的法官提出異議。但是Francis法官認為這並不是「域外搜索令」(extraterritorial search warrants),並指出在網路互聯的世界中,重點是對資料的控制,而不是「電子財產」的所在位置,於是拒絕了微軟的異議。 於2014年7月,微軟向紐約曼哈頓地方法院再度針對該搜索令提出異議,主張如果美國法院依據「電子通訊隱私法」要求資訊服務提供者提供位於愛爾蘭主機的客戶電子郵件資料,應透過美國與愛爾蘭政府的「多邊司法互助協定(Mutual Legal Assistance Treaty,“MLTA”)」來進行。但地方法院做出以下的裁決:1.在網路世界,電子財產之地理位置不是絕對的;2. 「電子通訊隱私法」第2703條a項所稱之搜索令並不是傳統上的搜索令,而是「搜索令」與「傳票」性質混合的命令,功能是為了讓網路服務業者(Internet Service Provider, “ISP”)提供所擁有的資料給法院;3.國會應無意透過繁瑣的「司法互助協定」來取得位於海外的電子證據;據此,地方法院維持Francis裁決法官的裁決,並且判定微軟藐視法庭。 微軟隨後在2014年12月,以地方法院使用了錯誤的法律理由、沒有根據的推斷立法目的、疏漏重要判決先例的援引、逾越國會立法的優先權並且誤解了「網路流通」的概念等理由,向美國第二巡迴法院提出上訴。 目前蘋果、AT&T、思科、Verizon以及其他科技公司都支持微軟的上訴,認為如果認可美國政府對於本國公司在境外所設置的資訊主機有司法管轄權,將會嚴重衝擊美國以外國家的資料保護法。此案目前仍在法院審理中。
歐盟執委會提出《歐盟數位十年網路安全戰略》歐盟執委會於2020年12月16日針對未來十年歐盟數位發展,提出《歐盟數位十年網路安全戰略》(The EU's Cybersecurity Strategy for the Digital Decade),以支持塑造歐盟的數位未來(Shaping Europe's Digital Future)、歐洲復甦計畫(Recovery Plan for Europe)和歐洲安全聯盟(EU Security Union Strategy)。該戰略說明應如何加強歐盟共同抵禦面對網路攻擊的應變能力,並確保民眾及企業都能在可信賴的數位服務中受益。 由於COVID-19大流行,加速工作模式的變化,2020年歐盟約有40%的民眾遠距辦公,而同年網路犯罪對全球經濟造成的影響估計達到5.5億歐元。因此,為維護全球開放網路的穩定運作,在保護網路安全的同時,亦應保護歐盟的共同價值觀與人民的基本權利,在監管、投資與政策上提出三點建議: 韌性、技術主權和領導(Resilience, Technological Sovereignty and Leadership):根據網路與資訊系統安全指令(Directive on Security of Network and Information Systems, NIS Directive)修訂更嚴格的監管措施,改善網路和資訊系統的安全。並建立由AI推動的資安監控中心(AI-enabled Security Operation Centres),及時避免網路攻擊。 建立防禦、嚇阻和應變能力(Building Operational Capacity to Prevent, Deter and Respond):逐步建立歐盟聯合網路安全部門,加強歐盟各成員國之間的合作,以提高面對跨境網路攻擊時的應變能力。 透過加強合作促進全球開放網路空間(Advancing a Global and Open Cyberspace):希望與聯合國等國際組織合作,透過外部力量共同建立全球網路安全政策,以維護全球網路空間的穩定及安全。
美國加州「Asilomar人工智慧原則決議」美國加州議會於2018年9月7日通過Asilomar人工智慧原則決議(23 Asilomar AI Principles, ACR-215),此決議表達加州對於「23條Asilomar人工智慧原則」之支持,以作為產業或學界發展人工智慧、政府制定人工智慧政策之指標,並提供企業開發人工智慧系統時可遵循之原則。依此法案所建立之重要指標如下: (1)於研究原則上,人工智慧之研究應以建立對於人類有利之人工智慧為目標。 (2)於研究資助上,人工智慧之研究資助應著重幾個方向,如:使人工智慧更加健全且可抵抗外界駭客干擾、使人工智慧促進人類福祉同時保留人類價值以及勞動意義、使法律制度可以順應人工智慧之發展。 (3)於科學政策之連結上,人工智慧研究者與政策擬定者間應有具有建設性且健全之資訊交流。 (4)於研究文化上,人工智慧研究者應保持合作、互信、透明之研究文化。 (5)於安全性上,人工智慧研究團隊應避免為了研究競爭而忽略人工智慧應具備之安全性。 (6)人工智慧系統應該於服務期間內皆具備安全性及可檢視性。 (7)人工智慧系統之編寫,應可使外界於其造成社會損失時檢視其出錯原因。 (8)人工智慧系統如應用於司法判斷上,應提供可供專門人員檢視之合理推論過程。 (9)人工智慧所產生之責任,應由設計者以及建造者負擔。 (10)高等人工智慧內在價值觀之設計上,應符合人類社會之價值觀。 (11)高等人工智慧之設計應可與人類之尊嚴、權利、自由以及文化差異相互調和。 (12)對於人工智慧所使用之資料,其人類所有權人享有擷取、更改以及操作之權利。 (13)人工智慧之應用不該限制人類「客觀事實上」或「主觀知覺上」之自由。 (14)人工智慧之技術應盡力滿足越多人之利益。 (15)人工智慧之經濟利益,應為整體人類所合理共享。 (16)人類對於人工智慧之內在目標應享有最終設定權限。 (17)高等人工智慧所帶來或賦予之權力,對於人類社會之基本價值觀應絕對尊重。 (18)人工智慧所產生之自動化武器之軍備競賽應被禁止。 (19)政策上對於人工智慧外來之發展程度,不應預設立場。 (20)高等人工智慧系統之研發,由於對於人類歷史社會將造成重大影響,應予以絕對慎重考量。 (21)人工智慧之運用上,應衡量其潛在風險以及可以對於社會所帶來之利益。 (22)人工智慧可不斷自我循環改善,而可快速增進運作品質,其安全標準應予以嚴格設定。 (23)對於超人工智慧或強人工智慧,應僅為全體人類福祉而發展、設計,不應僅為符合特定國家、組織而設計。