英國發布人工智慧網路資安實務守則

英國政府於2025年1月31日發布「人工智慧網路資安實務守則」(Code of Practice for the Cyber Security of AI,以下簡稱「實務守則」),目的是提供人工智慧(AI)系統的網路資安指引。該實務守則為英國參考國際上主要標準、規範後所訂定之自願性指引,以期降低人工智慧所面臨的網路資安風險,並促使人工智慧系統開發者與供應商落實基本的資安措施,以確保人工智慧系統的安性和可靠性。

由於人工智慧系統在功能與運作模式上與傳統網路架構及軟體有明顯的不同,因此產生新的資安風險,主要包含以下:

1. 資料投毒(Data Poisoning):在AI系統的訓練資料中蓄意加入有害或錯誤的資料,影響模型訓練結果,導致人工智慧系統產出錯誤推論或決策。

2. 模型混淆(Model Obfuscation):攻擊者有意識地隱藏或掩飾AI模型的內部運作特徵與行為,以增加系統漏洞、引發混亂或防礙資安管理,可能導致AI系統的安全性與穩定性受損。

3. 輸入間接指令(Indirect Prompt Injection):藉由輸入經精心設計的指令,使人工智慧系統的產出未預期、錯誤或是有害的結果。

為了提升實務守則可操作性,實務守則涵蓋了人工智慧生命週期的各階段,並針對相關角色提出指導。角色界定如下:

1. 人工智慧系統開發者(Developers):負責設計和建立人工智慧系統的個人或組織。

2. 人工智慧系統供應鏈(Supply chain):涵蓋人工智慧系統開發、部署、營運過程中的的所有相關個人和組織。

實務守則希望上述角色能夠參考以下資安原則,以確保人工智慧系統的安全性與可靠性:

1. 風險評估(Risk Assessment):識別、分析和減輕人工智慧系統安全性或功能的潛在威脅的過程。

2. 資料管理(Data management):確保AI系統整個資料生命週期中的資料安全及有效利用,並採取完善管理措施。

3. 模型安全(Model Security):在模型訓練、部署和使用階段,均應符合當時的技術安全標準。

4. 供應鏈安全(Supply chain security):確保AI系統供應鏈中所有利益相關方落實適當的安全措施。

「人工智慧網路資安實務守則」藉由清晰且全面的指導方針,期望各角色能有效落實AI系統安全管控,促進人工智慧技術在網路環境中的安全性與穩健發展。

相關連結
你可能會想參加
※ 英國發布人工智慧網路資安實務守則, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=9370&no=57&tp=1 (最後瀏覽日:2026/01/28)
引註此篇文章
你可能還會想看
新加坡開始採行商業政府電子密碼制度

  新加坡資通訊發展局(Infocomm Development Authority, IDA)宣布,自2016年9月15日起,商業政府電子密碼系統(Singapore Corporate Access,簡稱CorpPass)將正式開始運作,此一新的數位身分辨識功能將提供公司或其他法人向政府機關辦理線上業務時使用。企業目前所採用的是複合式的數位身分辨識機制,包括SingPass和E-Services Authorisation System等,而採行單一的辨識系統,除了可以帳密管理上的便利外,也可加強企業對員工應用政府數位服務的管理。   此外,由於像SingPass此類身分辨識機制,因為也可提供個人向政府辦理業務時使用,員工如果同時要利用其辦理公司業務時,就有可能會因為需要分享其個人帳密給同事,而增加了個人隱私上的風險。因此如果採用企業與個人事務分立的登入機制,也能更加保護企業與個人間的資訊安全。   此一制度將由2016年9月到2017年12月之期間內逐步推廣,第一階段推行期,包括新加坡智慧財產辦公室、貿易與工業部、國家環境局及新加坡海關等機關的服務都會採用此一系統,而在與企業參與伙伴與各試用者充分討論,取得相關反饋意見後,將陸續有更多的機關與服務加入此一制度。

數位證據之刑事證據能力相關議題研究

資通安全法律案例宣導彙編 第2輯

美國聯邦貿易委員會第一起關於智慧聯網案例之簡介—In the Matter of TrendNet, Inc.

TOP