韓國政府在今(2019)年1月立法施行四種監理沙盒機制(규제샌드박스),包含「金融監理沙盒」、「資通訊(ICT)監理沙盒」、「產業融合監理沙盒」及「地方專業化特區」機制,於施行半年後在同年7月16日公告成果報告,未來監理沙盒將加強尋求社會共識與區域衡平發展。 韓國為推動「製造業創新3.0」(제조업혁신 3.0)政策,強化產業創新與競爭力、重點發展人工智慧及物聯網,並打造友善法制環境來減少監管障礙。因此以鬆綁法規與鼓勵創新為目的,由韓國國務總理室於2018年初統籌各相關部會機關規劃全國性之監理沙盒機制,而於同年年底國會修正通過以下法律,泛稱「管制創新五法」(규제혁신 5법): 《資通訊融合法》(정보통신융합법),由「科學技術資訊通訊部」主管,建立「ICT監理沙盒」,鬆綁資通訊相關規範為主要範圍。 《金融創新支援法》(금융혁신지원 특별법),由「金融委員會」主管,建立「金融監理沙盒」,作為金融規範鬆綁之依據。 《地區特區法》(지역특구법),由「中小企業創業部」主管,主要由地方政府提出並建立具地方特色的專業化特區,如共享經濟特區、能源特區等,透過特區鬆綁地方與中央法規,由地方政府主導、中央協助推動當地產業發展。 《產業融合促進法》(산업융합 촉진법),由「產業通商資源部」主管,就前述以外之產業建立監理沙盒機制。 《行政管制基本法》(행정규제기본법은),鬆綁上述四個監管與行政程序相關法律。 在施行半年以來,成果顯示已受理81件申請案例,企業規模以中小企業佔80%為大宗,而申請之產業領域多集中於金融科技領域(46%)、其次為非特定領域(32%)、資通訊領域(22%),並以共享經濟、區塊鏈、大數據、物聯網、人工智慧、虛擬實境(VR)、5G等創新產品或服務為主。在申請時程上,從受理案件至批准進行實證或發給臨時許可證允許在市場販售,僅須約44個工作天。而在法規鬆綁上,多數涉及法規命令與機關行政函釋層級。另外為鼓勵創新業者申請監理沙盒,針對實證完成之產品或服務,將給予「優良採購產品」(우수 조달물품)證明,政府機關可於採購平台上優先採購該產品或服務。 另外成果報告說明,由於許多創新實證與現行社會體制與規範造成破壞式衝突,例如「共享廚房」與現有《食品衛生法》規定餐廳須有獨立廚房有違,或者消費者直接在家進行基因檢測(Direct-to-Consumer Testing, DTC)創新服務與現有醫療規範與體制不符等,韓國政府將透過客觀實證數據與宣導來尋求社會共識或使用其他替代方案來降低衝突。同時將於今年下半年由中央主導指定特定區域作為專業化特區,以衡平區域發展。
科專研發成果運用證券化模式之法制實踐 美國政府設立Apps.gov網站推動雲端科技運用美國政府在9月15日宣布,為了減少基礎建設的相關費用以及降低政府運算系統的環境衝擊,因此設立Apps.gov網站,展示並提供經政府認可的雲端科技運用。 據美國聯邦政府CIO Vivek Kundra表示,Apps.gov網站是美國政府首度對外發表,針對減少IT花費政策的成果。目前美國政府IT預算幾乎都花費在設立資料中心,單在國家安全部下就設有23個資料中心,而這也造成了聯邦政府的資源消耗在2000年到2006年間增加了兩倍,為了落實減少基礎建設花費的政策,並基於安全性的考量,希望能夠盡量利用現有的系統。 美國政府目前推動的雲端運算倡議計劃有三個主要內容,第一個主要內容即為全新的Apps.gov網站,提供企業一個情報交換平台、社交媒介與雲端IT服務。雖然目前網站尚未完全運作,甚至還曾造成一連串的錯誤訊息,但美國政府當局仍希望該網站最終能成為一次即可滿足的服務商店(one-stop shop),可在一個平台上提供多種類的雲端運算服務。Kundra表示,美國能源部已經開始使用該網站執行部分相關業務。 該計畫的第二個重點則是預算,美國政府在2010年將會致力推動雲端運算領航計畫,並為此編列年度預算,希望能投入更多輕量的工作流程(lightweight workflows)至雲端科技的發展。而在2011年,美國政府則預計會發布相關指導準則至各機關部門。 最後,該計劃亦會配合安全性、隱私及採購等相關政策。Kundra表示,將會確保所有資料都受到完善保護。 Google創辦人之一Sergey Brin也宣佈Google將會投入部份雲端運算系統專供聯邦政府使用,此系統與Google提供給一般企業的系統相似,但會針對政府需求稍做修改。除了Google之外,Microsoft、Facebook、Salesforce.com及Vimeo等公司亦提供雲端運算服務予政府機關使用。
歐盟提出人工智慧法律調和規則草案歐盟執委會(European Commission)於2021年4月21日提出「人工智慧法律調和規則草案」(Proposal for a Regulation Laying Down Harmonised Rules on Artificial Intelligence (Artificial Intelligence Act) and Amending Certain Union Legislative Acts)(簡稱AI規則草案),旨在平衡「AI運用所帶來的優勢」與「AI對個人或社會所帶來的潛在負面衝擊」,促使會員國在發展及運用AI時,能採取協調一致的態度及方法,共同維護歐洲公民基本權利與歐盟價值。 歐盟自2019年起即倡議發展「值得信賴的AI」(Trustworthy AI)。AI規則草案之提出,除了落實執委會2019年至2024年之政策願景外,亦呼應2020年歐洲議會(European Parliament)之建議—針對AI應用之機會與利益採取立法行動,並確保合乎倫理原則。惟鑒於歐盟在環境、健康、公共事務、金融、交通、農業等領域對AI應用之高度需求,以及企業仰賴AI技術提升競爭優勢等因素,執委會係以「風險為基礎」之概念取向(risk-based approach)制定AI規則草案,避免對新技術發展造成不必要的限制或阻礙。 本規則草案將AI系統,依其「對歐盟基本權利或價值所創造的風險程度」,分為下列三種類型,並施以不同程度的監理方式: 一、不可接受之風險:原則上禁止使用此類型AI系統或使其進入歐盟市場。例如:利用潛意識技術操控個人、在公共場合利用「即時遠端生物辨識系統」進行執法、公務機關普遍對個人進行社會評分等。 二、高風險:於附錄中列出所謂高風險AI系統,要求高風險AI系統之提供者遵循風險管理、資料治理、文件紀錄保存、透明性與資訊揭露、人為監督、健全性、準確性與資安等要求;且AI系統進入歐盟市場前,需進行符合性評估(conformity assessment),進入市場後,則需持續監控。 三、非不可接受之風險亦非高風險:鼓勵AI系統提供者或使用者,自願建立行為準則(codes of conduct)。 AI規則草案亦鼓勵會員國建立AI監理沙盒(regulatory sandbox)機制,且以中小企業、新創公司為優先對象,使創新AI系統進入市場之前,能於可控環境中依明確計畫進行開發、測試與驗證。