英國資訊專員辦公室(Information Commissioner's Office,下稱ICO)於2025年8月18日讉責南約克郡警方(South Yorkshire Police,下稱SYP)刪除超過9萬6千筆穿戴式攝影機影片(body-worn video,下稱BWV)證據,強調SYP未落實資料識別、第三方監督及備份機制等資料管理措施。 警方使用BWV作為記錄警方執法過程之取證方式,目的為提高透明度、公眾信賴及取得最佳證據等。由於BWV證據具備公正性及準確性,亦可減低對於受害者證據之依賴。當警員換班時,需要將BWV證據下載至指定地點,先傳送至「數位證據管理系統(Digital Evidence Management,下稱DEM系統,該系統由第三方業者管理)」後,再傳輸至「儲存網格(Storage Grid)資料庫」。倘若發生爭議,SYP將檢視「儲存網格資料庫」中的BWV證據。 2023年SYP發生遺失大量BWV證據之爭議事件,事實整理如下: 2023年5月升級DEM系統後,SYP改將資料儲存於本地硬碟。同年8月7日時,SYP發現在儲存網格資料庫中,具錯誤刪除96,174筆原始BWV證據之紀錄,經調查發現,在同年7月26日,第三方將本地資料傳輸到儲存網格時,曾發生大規模的資料刪除事件。 由於在進行備份時,未使用特定的檔案名稱或其他可識別的資料標記等方式標記資料,即使SYP內部已針對95,033筆BWV證據進行備份,仍無法比對確認「已被永久刪除的BWV證據」數量,且遺失之資料共涉及126起刑案,其中更有3案受影響,甚至有1起案件指出,若BWV證據存在,則相關案件的檢調程序應能夠有所進展。 ICO亦指出SYP雖與第三方簽署契約,卻未明定處理程序,且未監督第三方的遠端存取行為。SYP早在2019年,已發現備份機制存在問題,但當時未向高階管理人員報告相關問題的完整狀況,導致未採取補救措施。 綜上述,ICO提出SYP應確保所有紀錄應以清晰、可識別的方式進行標記;在允許第三方存取系統前,應完成風險評估及確認管控要求,並持續監督第三方等改善建議;以及應建立能夠有效還原任何遺失BWV證據的備份方案。 另外依英國皇家檢察署(Crown Prosecution Service)的統計顯示,因缺乏定罪的必要證據,包含缺乏數位證據,如受害者詢問或隨身攝影機影片遺失等各類原因,導致無法進行審判的皇家檢察署案件,整體呈現上升趨勢,從2020年的7484起案件,上升到2024年的8180起案件。 為系統性建立及強化數位證據管理機制,我國司法院、法務部、臺灣高等檢察署、內政部警政署及法務部調查局共同推動之「司法聯盟鏈共同驗證平台」,其以「b-JADE證明標章」檢視既有的數位證據監管制度,其他司法機關亦可參照「b-JADE證明標章」以確保採取有效之資料識別、第三方監督及備份控管作法,除了控管數位證據的相關業務流程、內外部人員等,亦應促使內部滾動式檢視問題及須定期向主管回報,以利調整規劃。 本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。 本文同步刊登於TIPS網站(https://www.tips.org.tw)
美國聯邦最高法院於Michigan v. EPA案中認定減碳措施需先考量成本效益 英國發布人工智慧網路資安實務守則英國政府於2025年1月31日發布「人工智慧網路資安實務守則」(Code of Practice for the Cyber Security of AI,以下簡稱「實務守則」),目的是提供人工智慧(AI)系統的網路資安指引。該實務守則為英國參考國際上主要標準、規範後所訂定之自願性指引,以期降低人工智慧所面臨的網路資安風險,並促使人工智慧系統開發者與供應商落實基本的資安措施,以確保人工智慧系統的安性和可靠性。 由於人工智慧系統在功能與運作模式上與傳統網路架構及軟體有明顯的不同,因此產生新的資安風險,主要包含以下: 1. 資料投毒(Data Poisoning):在AI系統的訓練資料中蓄意加入有害或錯誤的資料,影響模型訓練結果,導致人工智慧系統產出錯誤推論或決策。 2. 模型混淆(Model Obfuscation):攻擊者有意識地隱藏或掩飾AI模型的內部運作特徵與行為,以增加系統漏洞、引發混亂或防礙資安管理,可能導致AI系統的安全性與穩定性受損。 3. 輸入間接指令(Indirect Prompt Injection):藉由輸入經精心設計的指令,使人工智慧系統的產出未預期、錯誤或是有害的結果。 為了提升實務守則可操作性,實務守則涵蓋了人工智慧生命週期的各階段,並針對相關角色提出指導。角色界定如下: 1. 人工智慧系統開發者(Developers):負責設計和建立人工智慧系統的個人或組織。 2. 人工智慧系統供應鏈(Supply chain):涵蓋人工智慧系統開發、部署、營運過程中的的所有相關個人和組織。 實務守則希望上述角色能夠參考以下資安原則,以確保人工智慧系統的安全性與可靠性: 1. 風險評估(Risk Assessment):識別、分析和減輕人工智慧系統安全性或功能的潛在威脅的過程。 2. 資料管理(Data management):確保AI系統整個資料生命週期中的資料安全及有效利用,並採取完善管理措施。 3. 模型安全(Model Security):在模型訓練、部署和使用階段,均應符合當時的技術安全標準。 4. 供應鏈安全(Supply chain security):確保AI系統供應鏈中所有利益相關方落實適當的安全措施。 「人工智慧網路資安實務守則」藉由清晰且全面的指導方針,期望各角色能有效落實AI系統安全管控,促進人工智慧技術在網路環境中的安全性與穩健發展。