日本政府於2016年1月5日成立「小型無人機進階安全確保制度設計相關小組委員會」(小型無人機の更なる安全確保のための制度設計に関する分科会),聚焦無人機飛安方面之實務議題。會議由内閣官房内閣参事官擔任議長,並由國土交通省航空局協助辦理,民間參與者則多為相關產業公協會,目前規劃每兩個月開1-2次會議,其運行方式包括:原則上為非公開會議,其會議資料將於會後公開,但若議長認有必要,則得決定一部或全部不公開;此外,對於委員會成員以外的民間企業及專家學者之意見,亦應聽取。
為更進一步確保小型無人機於飛行時之安全性,本次會議對「航空法」提出如下修正建議:
(1)除「航空法」第一百三十二條之二所規範之飛行方式及禁飛區域外,尚有其他相關飛安重要事項亦應注意,例如:機體本身之缺陷、操控者失誤、不可預期的天候變化、機體重量等(一定重量以上之無人機,對於機體性能及操控者技術應有更高要求,未來可思考訂定罰則或提供擔保)。
(2)對於機場周邊應有比現行法更嚴格之規範,除因此處操控無人機容易誤入禁區外,該範圍以內通常是飛安事故搜救區,恐妨害搜救之進行。
(3)關於禁區內飛行許可之審查,應包含:機體機能與性能、操控者知識、技術與經歷。
(4)對於商業、營業用無人機,應有更高的安全性要求。但何謂商業、營業用之定義及更高安全性究何所指須有更明確的標準!
英國數位、文化、媒體暨體育部於2018年10月14日公布「家用智慧裝置消費者指引」(Consumer guidance for smart devices in the home)。該指引之目的係因應家用之智慧及聯網設備(例如:智慧電視、音樂播放器、聯網玩具或智慧廚房等)日益普及,以及可能發生之侵害消費者個人資料之風險。 本指引提出以下方向,供消費者參考: 一. 智慧裝置之設定 (一) 應閱讀與遵循智慧設備之設定指示。 (二) 確認設備指示是否要求使用者須至製造商網站設定帳號。 (三) 若所設備預設之密碼過於簡單(例如,0000),則應更換成較複雜之密碼。 二. 帳號管理 (一) 確保密碼複雜性。 (二) 若設備提供雙重驗證功能,消費者應使用之。 (三) 特定產品可能提供遠端存取功能,消費者應於不再家時考慮將該功能關閉。 三. 持續更新應用軟體與Apps (一) 消費者應檢查其設備是否可設定自動更新。 (二) 應安裝最新版本的軟體與Apps。 四. 若接到資安事件之通知,應採取行動 (一) 於接到資安事件通知後,應訪問製造商網站以確認其是否提供後續因應措施等資訊。 (二) 定時確認國家安全網路中心以及資訊保護委員會辦公室網站是否公布相關網路安全指引。
因應2020年社會實現自動駕駛,日本訂定自動駕駛制度整備大綱日本IT綜合戰略本部及官民資料活用推進本部於4月17日公佈「自動駕駛制度整備大綱」。大綱設定2020年至2025年間,日本社會實現自動駕駛下,所需檢討修正之關連法制度。 本大綱中,係以2020年實現自動駕駛至等級4為前提(限定場所、速度、時間等一定條件下為前提,系統獨自自動駕駛之情形),以在高速公路及部分地區之道路實現為條件設定。社會實現自動駕駛有以下課題需克服: 道路交通環境的整備:以自駕系統為行駛,一般道路因為環境複雜,常有無法預期狀況發生,導致自駕車的電腦系統無法對應。 確保整體的安全性:依據技術程度,設定一般車也能適用之行駛環境、設定車輛、自動駕駛之行駛環境條件以及人之互相配合,以達成與一般車相同之安全程度為方針下,由關係省廳間為合作,擬定客觀之指標。此一指標,並非全國一致,應就地方之特性,設定符合安全基準及自動駕駛行駛環境條件,建構整體確保安全之體制。 防止過度信賴自駕系統:訂定安全基準,使日本事件最先端自動車技術擴及於世界,訂定包含自駕系統安全性、網路安全等自動駕駛安全性要件指針。 事故發生時之法律責任:自動駕駛其相關人為駕駛人、系統製造商、道路管理者等多方面,其法律責任相對複雜化。現在係以被害人救濟觀點,至等級4為止之自動駕駛,適用自動車損害賠償責任險(強制責任險)方式,但是民法、刑法及行政法等法律全體之對應,仍為今後之課題,必須為早期快速處理。為了強化民事責任求償權行使、明確刑事責任之因果關係、並實現車輛安全性確保、避免所有人過度負擔等,車輛行駛紀錄器之裝置義務化、事故原因究明機制等,關係機關應合作為制度檢討。 本大綱最後並提出,在自動駕駛技術快速發展下,就其發展實際狀況應為持續半年1次召開會議檢討檢討。
韓國公共行政安全部制定《公部門AI倫理原則》草案,以提升民眾對公部門應用AI之信任2025年11月,韓國公共行政安全部(Ministry of the Interior and Safety,下稱MOIS)於新聞稿宣布制定《公部門AI倫理原則》草案,追求公益、公平無歧視、透明、問責明確、安全性及隱私保護等六大核心價值,旨於促進創新、提升民眾對公部門應用AI之信任。 一、適用範圍 《公部門AI倫理原則》草案適用對象為公部門,包含中央、地方政府機關等,其性質為不具強制力的指引。 二、檢核表分三階段漸進式管理 《公部門AI倫理原則》草案依AI 應用的複雜程度分為三階段漸進式管理,設計最高達90個細項的檢核表(Checklist),惟目前尚未公開詳細內容: (一)第一階段:基礎導入(AI基礎應用) 針對技術引進的初步活用階段,共包含31個檢核項目,旨在建立基礎的倫理合規防線。 (二)第二階段:進階應用(AI決策支援) 適用於AI提供資料分析與建議以輔助人員進行行政決策的情境。隨著影響力提升,檢核項目擴增至74個,強化透明性與責任性的審查。 (三)第三階段:深度融合(AI自主決策) 針對AI具備高度自主決策權的高風險情境(如自主化服務或複雜判斷),執行最嚴密的倫理檢查,共達90個檢核項目。 建議公部門依檢核表自行檢查,並依結果建立「調整與回饋」的循環機制,以因應不斷變化的技術環境。 MOIS部長指出,未來將進一步蒐集學界意見以完備倫理原則,並開發一套AI倫理原則之培訓課程,確保一線能落實執行這90個檢核項目,保障人權與基本權利。 由於目前未見90個檢核項目內容,值得持續追蹤後續進展。 本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。 本文同步刊登於TIPS網站(https://www.tips.org.tw)
「亞馬遜公司(amazon)」積極向美國政府機關推動其所開發的人臉辨識軟體“Rekognition”,將可能造成隱私權的重大侵害亞馬遜公司所開發的“Rekognition”軟體可以進行照片中的人臉辨識識別,單張圖片中可辨識高達一百人,同時可以圖片進行分析及比對資料庫中的人臉長相。目前亞馬遜公司積極向政府機關推銷這套軟體。可能造成的風險是,公權力機構可透過使用“Rekognition”軟體來辨識或追蹤任何個人,警察機關可以隨時監控人民的行為,各城市的政府機關也可能在無合理理由的狀況下隨時查看人口居住狀況,尤有甚者,美國移民及海關執法局(Immigration and Customs Enforcement, ICE)可以使用該軟體來監控移民的狀況,即使是無任何犯罪疑慮的狀況下亦可進行,將政府打造成巨大的監控系統,有造成隱私權嚴重侵害的疑慮。因此無論亞馬遜公司內外都有反對將“Rekognition”軟體推銷給政府機構的聲浪,尤其美國公民自由聯盟(American Civil Liberties Union, ACLU)更是發起多項連署抗議。 支持政府使用“Rekognition”軟體的意見則認為,使用“Rekognition”軟體將可以更有效率地辨識人臉,在尋找失蹤兒童或在公共中辨識出恐怖份子可以發揮更大的作用,不啻是保護公眾法益的進步。 佛羅里達的奧蘭多市警察機構曾經使用“Rekognition”軟體後因契約到期而一度停止使用,於7月9日與亞馬遜公司續約繼續測試使用該軟體,奧蘭多市警察機構宣稱以目前測試階段將不會使用一般民眾的照片進行測試,將不會造成人民的隱私權侵害。