英國政府於2025年1月31日發布「人工智慧網路資安實務守則」(Code of Practice for the Cyber Security of AI,以下簡稱「實務守則」),目的是提供人工智慧(AI)系統的網路資安指引。該實務守則為英國參考國際上主要標準、規範後所訂定之自願性指引,以期降低人工智慧所面臨的網路資安風險,並促使人工智慧系統開發者與供應商落實基本的資安措施,以確保人工智慧系統的安性和可靠性。 由於人工智慧系統在功能與運作模式上與傳統網路架構及軟體有明顯的不同,因此產生新的資安風險,主要包含以下: 1. 資料投毒(Data Poisoning):在AI系統的訓練資料中蓄意加入有害或錯誤的資料,影響模型訓練結果,導致人工智慧系統產出錯誤推論或決策。 2. 模型混淆(Model Obfuscation):攻擊者有意識地隱藏或掩飾AI模型的內部運作特徵與行為,以增加系統漏洞、引發混亂或防礙資安管理,可能導致AI系統的安全性與穩定性受損。 3. 輸入間接指令(Indirect Prompt Injection):藉由輸入經精心設計的指令,使人工智慧系統的產出未預期、錯誤或是有害的結果。 為了提升實務守則可操作性,實務守則涵蓋了人工智慧生命週期的各階段,並針對相關角色提出指導。角色界定如下: 1. 人工智慧系統開發者(Developers):負責設計和建立人工智慧系統的個人或組織。 2. 人工智慧系統供應鏈(Supply chain):涵蓋人工智慧系統開發、部署、營運過程中的的所有相關個人和組織。 實務守則希望上述角色能夠參考以下資安原則,以確保人工智慧系統的安全性與可靠性: 1. 風險評估(Risk Assessment):識別、分析和減輕人工智慧系統安全性或功能的潛在威脅的過程。 2. 資料管理(Data management):確保AI系統整個資料生命週期中的資料安全及有效利用,並採取完善管理措施。 3. 模型安全(Model Security):在模型訓練、部署和使用階段,均應符合當時的技術安全標準。 4. 供應鏈安全(Supply chain security):確保AI系統供應鏈中所有利益相關方落實適當的安全措施。 「人工智慧網路資安實務守則」藉由清晰且全面的指導方針,期望各角色能有效落實AI系統安全管控,促進人工智慧技術在網路環境中的安全性與穩健發展。
德國立法通過反駭客法德國政府為減少官方與民間的電腦受到網路駭客的攻擊,於2007年5月正式立法通過「反駭客法(Antihacker Law)」,並藉此擴大了現行德國法律中網路犯罪的懲處範圍,從僅處罰破壞或攻擊商業或政府機關之電腦系統,擴及至破壞或攻擊個人電腦或DOS系統之犯罪。 依德國「反駭客法」之規定,凡任何個人或團體意圖非法使用而故意製造、散播或購買駭客工具(hacker tools)者,將可能被處十年以上有期徒刑。而所謂的「駭客(hacking)」在新法中則被定義為,凡是侵入電腦系統並獲取資訊者,不論是否有竊取該資訊的行為,均屬之。 上述立法結果,反對人士擔心恐將適得其反,因駭客工具的存在具有一體兩面,研發並利用駭客工具來測試電腦以及網路系統的安全性,在德國已行之有年,如果一旦加以禁止,不但無法達到預期目的,也過於輕視網路駭客者的能力;又將來持有駭客工具者,未來必須在法庭上主張係出於善意持有,亦是增加了持有者的舉證責任。該法已經於2007年8月實施。
網路服務提供者於2016中國大陸反恐法下之通報義務中華人民共和國第12屆全國人民代表大會常務委員會第18次會議於2015年12月27日通過並公布《中華人民共和國反恐怖主義法》(以下簡稱反恐法),並自2016年1月1日開始施行。反恐法第18條與第19條要求電信業務經營者與互聯網服務提供者,應當為公安機關、國家安全機關依法進行防範、調查恐怖活動「提供技術接口和解密等技術支持和協助」,並應當依照法律與行政法規規定,「落實網絡安全、信息內容監督制度和安全技術防範措施,防止含有恐怖主義、極端主義內容的信息傳播;發現含有恐怖主義、極端主義內容的信息的,應當立即停止傳輸,保存相關記錄,刪除相關信息,並向公安機關或者有關部門報告。」倘有違反以上規定且情節嚴重者,反恐法第84條授權由主管部門對該公私處50萬人民幣以上罰款,並對該公司直接負責之主管人員與其他直接責任人員處10萬元人民幣以上50萬人民幣以下罰款,並可由公安機關對該等人員處5日以上15日以下之拘留。 我國刻正進行資通安全管理法之制定,以為範圍更廣之資訊基本法的作用法。資通安全管理法當中考量納入與關鍵基礎建設相關之民間產業,使之成為資安通報之一環,政府需要民間企業配合時也將於法有據。於恐怖攻擊事件頻傳之今日,倘我國需要就此等事件要求電信業者或服務提供者進行通報時,相關國際立法例及其實踐,即值參酌。