新加坡網路安全局發布人工智慧系統安全指南,以降低AI系統潛在風險

新加坡網路安全局(Cyber Security Agency of Singapore, CSA)於2024年10月15日發布人工智慧系統安全指南(Guidelines on Securing AI Systems),旨在強化AI系統安全,協助組織以安全之方式運用AI,降低潛在風險。 該指南將AI系統生命週期分成五個關鍵階段,分別針對各階段的安全風險,提出相關防範措施:

(1)規劃與設計:提高AI安全風險認知能力,進行安全風險評估。

(2)開發:提升訓練資料、模型、應用程式介面與軟體庫之供應安全,確保供應商遵守安全政策與國際標準或進行風險管理;並辨識、追蹤及保護AI相關資產(例如模型、資料、輸入指令),以確保AI開發環境安全。

(3)部署:適用標準安全措施(例如存取控制、日誌記錄),並建立事件管理程序。

(4)運作與維護:持續監控AI系統的輸入和輸出,偵測異常與潛在攻擊,並建立漏洞揭露流程。

(5)壽命終期:應根據相關行業標準或法規,對資料與模型進行適當之處理、銷毀,防止未經授權之存取。

CSA期待該指南發布後,將有助於預防供應鏈攻擊(supply chain attacks)、對抗式機器學習攻擊(Adversarial Machine Learning attacks)等安全風險,確保AI系統的整體安全與穩定運行。

相關連結
※ 新加坡網路安全局發布人工智慧系統安全指南,以降低AI系統潛在風險, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=9270&no=57&tp=1 (最後瀏覽日:2026/03/04)
引註此篇文章
你可能還會想看
美國病歷健康資訊科技化政策可望於10年內節省220億美元用藥支出

  美國「2009年經濟復甦暨再投資法」(America Recovery and Reinvestment Act, ARRA),將醫療產業中的醫療資訊科技列為重點發展項目之ㄧ。以國內全面採行「電子病歷健康記錄」(electronic health records, EHRs)系統為目標,共挹注190億美元的經費,透過聯邦醫療保險或醫療補助計畫的機制支付獎勵金,鼓勵醫師或醫療院所採購並建置院內的電子醫療資訊系統。自2011年至2015年,醫師或醫療院所符合實質EHR使用者(meaningful EHR user)的標準,至多可獲得44000美元的獎勵金;倘於2015年後,其尚未成為實質EHR使用者,則將以每年多1%的比例,逐年減少其醫療保險補助額,直至2019年將減少5%。為了施行此政策,ARRA規定主管機關須於2009年12月31日前確立EHR的標準,包含了相互運用性(interoperability)、臨床功能性(clinical functionality)及安全性等標準。   EHR系統的基礎,也就是電子醫囑(e-prescribing)所涵蓋的功能,能提供臨床及藥費的即時資訊,供醫師判斷何種藥物(包含學名藥)最為安全,且可符合病患經濟負擔;亦可顯示該病患用藥紀錄,及其他醫生曾開立的處方,供醫師比對並觀察病患潛在的藥物過敏現象,若系統偵測出藥物間相斥的情形,亦將自動發出安全警示。此外,以電腦輸入處方並自動傳送至領藥處的模式,不僅可省卻病患冗長的等候領藥時間,亦能減少藥劑師因難以判讀字跡所導致的配藥錯誤。 一項由美國藥物照顧管理協會(Pharmaceutical Care Management Association, PCMA)所贊助的調查研究指出,ARRA中的病歷健康資訊科技化措施,將使e-prescribing的運用率,在未來五年內增加75%;而在往後10年,此將減少約3500萬筆的用藥指示錯誤,消弭因服藥錯誤導致的死亡事件,並能節省220億的用藥支出;其所帶來的效益實遠超過政府所挹注的經費。

英國金融主管機關針對銀行資訊安全問題處以重罰

  英國金融監理機關,針對RBS集團旗下之三間銀行2012年所發生的資訊安全問題,共處以五千六百萬英鎊的罰款。   RBS、NayWest以及Ulstet的客戶於2012年6月,因為銀行執行的軟體更新發生技術上問題,在使用服務(包含線上服務)時,遇到存款結餘及付款執行的正確性問題。   針對此項資訊上的問題,英國金融行為監管局(FAC)處以四千二百萬英鎊的罰款;另一機關,英國審慎管理局(PRA)亦罕見地再以違反「金融機構應以適當風險管理系統以及合理之注意義務,有效管控其服務」規定之理由,另對該銀行處以一千四百萬的罰款。這是首次2個主管機關對於銀行未能有效辨識及管理其已暴露之資訊風險共同處罰之案例。   PRA指出,資訊風險管理系統適當的發揮功能以及控制,是一個公司健全不可或缺的部份,同時對於英國金融體系的穩定也特別重要。   FCA亦試圖開始評估銀行對於他們所曝光的資訊風險的管理程度,以及銀行的管理階層如何去掌握自己銀行,因為技術錯誤所造成的影響程度。   RBS聲明公司已經在主營運系統外建置了鏡像系統,可以繼續處理「主要客戶服務」的顧客交易;同時也可以修復主營運系統。

韓國發布人工智慧基本法

韓國政府為支持人工智慧發展與建立人工智慧信任基礎,提升國家競爭力,韓國科學技術情報通訊部(과학기술정보통신부)於2025年1月21日公布《人工智慧發展與建立信任基本法》(인공지능 발전과 신뢰 기반 조성 등에 관한 기본법안,下稱AI基本法),將於2026年1月22日起生效。韓國《AI基本法》為繼歐盟《人工智慧法》(EU Artificial Intelligence Act)之後第二部關注人工智慧的國家級立法,並針對高影響人工智慧(고영향 인공지능)及生成式人工智慧進行規範,促進創新及降低人工智慧風險,將搭配進一步的立法與政策以支持人工智慧產業。 《AI基本法》有以下三個政策方向: 1. 人工智慧基本計畫:由科學技術情報通訊部制定並每三年檢討「人工智慧基本計畫」,經「國家人工智慧委員會」審議後實施,決定產業發展政策、培育人才、健全社會制度等事項。本法並設置人工智慧政策中心及人工智慧安全研究所,提供科學技術情報通訊部所需的研究與分析。 2. 扶持產業發展:以扶持中小企業及新創企業為發展方向,促進產業標準化的基本政策,爭取國際合作及海外發展。 3. 人工智慧倫理與安全性:政府公布人工智慧倫理原則,由相關機構及業者自主成立人工智慧倫理委員會,在政府發布的指引下建立貼近實務面的倫理指引。本法明確要求人工智慧產業必須負擔透明性及安全性義務,政府也推動認驗證制度,以確保人工智慧的可靠性。 韓國《AI基本法》將人工智慧發展方向及社會政策結合,明確要求政府制定人工智慧發展計畫並定期檢討,施行具體措施與設置必要組織,確立政府在人工智慧領域的角色,然產業界對於政府監管力度之意見有所分歧,為《AI基本法》後續相關政策及指引推動種下不確定性,值得持續追蹤相關動態作為我國人工智慧發展策略之參考。

日本內閣府研議「網路資訊安全判斷基準草案」並將作為未來機關處理共同標準

  日本內閣府網路安全戰略本部(サイバーセキュリティ戦略本部)於2017年7月13日第14次會議中提出對2020年後網路安全相關戰略案之回顧(2020年及びその後を見据えたサイバーセキュリティの在り方(案)-サイバーセキュリティ戦略中間レビュー-),針對網路攻擊嚴重程度,訂立網路安全判斷基準(下稱本基準)草案。對於現代網路攻擊造成之嚴重程度、資訊之重要程度、影響範圍等情狀,為使相關機關可以做出適當之處理,進而可以迅速採取相應之行動,特制訂強化處理網路攻擊判斷基準草案。其後將陸續與相關專家委員討論,將於2017年年底發布相關政策。   本基準設置目的:為了於事故發生時,具有視覺上立即判斷標準,以有助於事故相關主體間溝通與理解,並可以做為政府在面對網路侵害時判斷之基準,成為相關事件資訊共享之體制與方法之基準。   本基準以侵害程度由低至高,分為第0級至第5級。第0級(無)為無侵害,乃對國民生活無影響之可能性;第1級(低)為對國民生活影響之可能性低;第2級(中)為對國民生活有影響之可能性;第3級(高)為明顯的對國民生活影響,並具高可能性;第4級(重大)為顯著的對國民生活影響,並具高可能性;第5級(危機)為對國民生活廣泛顯著的影響,並具有急迫性。除了對國民及社會影響,另外在相關系統(システム)評估上,在緊急狀況時,判斷對重要關鍵基礎設施之安全性、持續性之影響時,基準在第0級至第4級;平常時期,判斷對關鍵基礎設施之影響,只利用第0級至第3級。   本次報告及相關政策將陸續在一年內施行,日本透過內閣府網路安全戰略本部及總務省、經濟產業省與相關機構及單位之共同合作,按照統一之標準採取措施,並依據資訊系統所收集和管理之資料作出適當的監控及觀測,藉由構建之資訊共享系統,可以防止網絡攻擊造成重大的損失,並防止侵害持續蔓延及擴大,同時也將為2020年東京奧運會之資訊安全做準備。我國行政院國家資通安全會報目前公布了「國家資通安全通報應變作業綱要」,而日本以國民生活之影響程度標準列成0至5等級,其區分較為精細,且有區分平時基準及非常時期基準等,日本之相關標準可作為綱要修正時之參考。

TOP