韓國政府在今(2019)年1月立法施行四種監理沙盒機制(규제샌드박스),包含「金融監理沙盒」、「資通訊(ICT)監理沙盒」、「產業融合監理沙盒」及「地方專業化特區」機制,於施行半年後在同年7月16日公告成果報告,未來監理沙盒將加強尋求社會共識與區域衡平發展。 韓國為推動「製造業創新3.0」(제조업혁신 3.0)政策,強化產業創新與競爭力、重點發展人工智慧及物聯網,並打造友善法制環境來減少監管障礙。因此以鬆綁法規與鼓勵創新為目的,由韓國國務總理室於2018年初統籌各相關部會機關規劃全國性之監理沙盒機制,而於同年年底國會修正通過以下法律,泛稱「管制創新五法」(규제혁신 5법): 《資通訊融合法》(정보통신융합법),由「科學技術資訊通訊部」主管,建立「ICT監理沙盒」,鬆綁資通訊相關規範為主要範圍。 《金融創新支援法》(금융혁신지원 특별법),由「金融委員會」主管,建立「金融監理沙盒」,作為金融規範鬆綁之依據。 《地區特區法》(지역특구법),由「中小企業創業部」主管,主要由地方政府提出並建立具地方特色的專業化特區,如共享經濟特區、能源特區等,透過特區鬆綁地方與中央法規,由地方政府主導、中央協助推動當地產業發展。 《產業融合促進法》(산업융합 촉진법),由「產業通商資源部」主管,就前述以外之產業建立監理沙盒機制。 《行政管制基本法》(행정규제기본법은),鬆綁上述四個監管與行政程序相關法律。 在施行半年以來,成果顯示已受理81件申請案例,企業規模以中小企業佔80%為大宗,而申請之產業領域多集中於金融科技領域(46%)、其次為非特定領域(32%)、資通訊領域(22%),並以共享經濟、區塊鏈、大數據、物聯網、人工智慧、虛擬實境(VR)、5G等創新產品或服務為主。在申請時程上,從受理案件至批准進行實證或發給臨時許可證允許在市場販售,僅須約44個工作天。而在法規鬆綁上,多數涉及法規命令與機關行政函釋層級。另外為鼓勵創新業者申請監理沙盒,針對實證完成之產品或服務,將給予「優良採購產品」(우수 조달물품)證明,政府機關可於採購平台上優先採購該產品或服務。 另外成果報告說明,由於許多創新實證與現行社會體制與規範造成破壞式衝突,例如「共享廚房」與現有《食品衛生法》規定餐廳須有獨立廚房有違,或者消費者直接在家進行基因檢測(Direct-to-Consumer Testing, DTC)創新服務與現有醫療規範與體制不符等,韓國政府將透過客觀實證數據與宣導來尋求社會共識或使用其他替代方案來降低衝突。同時將於今年下半年由中央主導指定特定區域作為專業化特區,以衡平區域發展。
歐盟議會發布《可信賴人工智慧倫理準則》2019年4月9日,歐盟議會發布《可信賴人工智慧倫理準則》(Ethics Guidelines for Trustworthy AI)。此次內容大致延續歐盟人工智慧高階專家小組(High-level Expert Group on Artificial Intelligence)於2018年12月18日發布的《可信賴人工智慧倫理準則草案》(Draft Ethics Guidelines for Trustworthy Artificial Intelligence)之內容,要求人工智慧須遵守行善(do good)、不作惡(do no harm)、保護人類(preserve human Agency)、公平(be fair)與公開透明(operate transparency)等倫理原則;並在4月9日發布的正式內容中更加具體描述可信賴的人工智慧的具體要件,共計七面向概述如下: 人類自主性和監控(Human agency and oversight):AI係為強化人類能力而存在,使人類使用者能夠做出更明智的決策並培養自身的基礎能力。同時,AI應有相關監控機制以確保AI系統不會侵害人類自主性或是引發其他負面效果。本準則建議,監控機制應可透過人機混合(一種整合人工智慧與人類協作的系統,例如human-in-the-loop, human-on-the-loop, and human-in-command)的操作方法來實現。 技術穩健性和安全性(Technical Robustness and safety):為防止損害擴張與確保損害最小化,AI系統除需具備準確性、可靠性和可重複性等技術特質,同時也需在出現問題前訂定完善的備援計劃。 隱私和資料治理(Privacy and data governance):除了確保充分尊重隱私和資料保護之外,還必須確保適當的資料治理機制,同時考慮到資料的品質和完整性,並確保合法近用資料為可行。 透明度(Transparency):資料、系統和AI的商業模型應該是透明的。可追溯性機制(Traceability mechanisms)有助於實現這一目標。此外,應以利害關係人能夠理解的方式解釋AI系統的邏輯及運作模式。人類參與者和使用者需要意識到他們正在與AI系統進行互動,並且必須了解AI系統的功能和限制。 保持多樣性、不歧視和公平(Diversity, non-discrimination and fairness):AI不公平的偏見可能會加劇對弱勢群體的偏見和歧視,導致邊緣化現象更為嚴重。為避免此種情況,AI系統應該設計為所有人皆可以近用,達成使用者多樣性的目標。 社會和環境福祉(Societal and environmental well-being):AI應該使包含我們的後代在內的所有人類受益。因此AI必須兼顧永續發展、環境友善,並能提供正向的社會影響。 問責制(Accountability):應建立機制以妥當處理AI所導致的結果的責任歸屬,演算法的可審計性(Auditability)為關鍵。此外,應確保補救措施為無障礙設計。
日本國土交通省航空局公布日本無人機飛行安全指引日本國土交通省航空局於2017年9月12日公布修正版日本無人機飛行安全指引(「無人航空機(ドローン、ラジコン機等)の安全な飛行のためのガイドライン」を改定しました),乃依據修正之航空法規定(平成27年法律第67號)制訂無人機飛行之相關基本規則。 定義所謂無人機乃指非人搭乘,透過遠距遙控或自動駕駛而飛行之飛機、旋翼飛機、滑翔機及飛艇。而無人機禁止飛行在150公尺以上高空,不得在航空站周邊空域(包含進入),以禁止在人口集中地區之上空(150公尺以下)。 除經國土交通省同意之例外規則外,無人機之飛行必須在日出後日沒前,且需在直接肉眼目視範圍內之監視下,與第三人或他人建築物、車輛等物體應距離30公尺以上,並不得在祭拜或假日等人群聚集之場所上空飛行,也不得輸送爆裂物等危險物品,亦不得從無人機上投擲物品。另外應注意事項,例如飛行場所除了航空站周邊外,直升機等降落可能之場所、迫降場所、高速公路或高速鐵路等、鐵路周邊或車道周邊等、高壓電線、變電所、電波塔及無線電設施等附近應注意飛行安全。 於飛行之際,不得飲酒等造成不當操作,飛行前應注意天氣狀況、飛機無損害或故障、電池燃料充足等,並確保周邊無障礙物,並應迴避與飛機或無人飛機之衝突。平時應保持無人機之狀況良好,且維持日常操作良好技能,並鼓勵投保人身或財產保險。
歐洲網路暨資訊安全局發布「重要資訊基礎設施下智慧聯網之安全基準建議」歐洲網路暨資訊安全局(European Union Agency for Network and Information Security, ENISA)於2017年11月20號發布了「重要資訊基礎設施下智慧聯網之安全基準建議」。該建議之主要目的乃為歐洲奠定物聯網安全基礎,並作為後續發展相關方案與措施之基準點。 由於廣泛應用於各個領域,智慧聯網設備所可能造成之威脅非常的廣泛且複雜。因此,了解該採取與落實何種措施以防範IOT系統所面臨之網路風險非常重要。ENISA運用其於各領域之研究成果,以橫向之方式確立不同垂直智慧聯網運用領域之特點與共通背景,並提出以下可以廣泛運用之智慧聯網安全措施與實作: (一) 資訊系統安全治理與風險管理 包含了與資訊系統風險分析、相關政策、認證、指標與稽核以及人力資源相關之安全措施。 (二) 生態系管理 包含生態系繪製以及各生態系的關聯。 (三) IT安全建築 包含系統配置、資產管理、系統隔離、流量過濾與密碼學等資安措施。 (四) IT安全管理 帳戶管理與資訊系統管理之相關安全措施。 (五) 身分與存取管理 有關身分確認、授權以及存取權限之安全措施。 (六) IT安全維護 有關IT安全維護程序以及遠端存取之安全措施。 (七) 偵測 包含探測、紀錄日誌以及其間之關聯與分析之安全措施。 (八) 電腦安全事件管理 資訊系統安全事件分析與回應、報告之資安措施。