新加坡網路安全局發布人工智慧系統安全指南,以降低AI系統潛在風險

新加坡網路安全局(Cyber Security Agency of Singapore, CSA)於2024年10月15日發布人工智慧系統安全指南(Guidelines on Securing AI Systems),旨在強化AI系統安全,協助組織以安全之方式運用AI,降低潛在風險。 該指南將AI系統生命週期分成五個關鍵階段,分別針對各階段的安全風險,提出相關防範措施:

(1)規劃與設計:提高AI安全風險認知能力,進行安全風險評估。

(2)開發:提升訓練資料、模型、應用程式介面與軟體庫之供應安全,確保供應商遵守安全政策與國際標準或進行風險管理;並辨識、追蹤及保護AI相關資產(例如模型、資料、輸入指令),以確保AI開發環境安全。

(3)部署:適用標準安全措施(例如存取控制、日誌記錄),並建立事件管理程序。

(4)運作與維護:持續監控AI系統的輸入和輸出,偵測異常與潛在攻擊,並建立漏洞揭露流程。

(5)壽命終期:應根據相關行業標準或法規,對資料與模型進行適當之處理、銷毀,防止未經授權之存取。

CSA期待該指南發布後,將有助於預防供應鏈攻擊(supply chain attacks)、對抗式機器學習攻擊(Adversarial Machine Learning attacks)等安全風險,確保AI系統的整體安全與穩定運行。

相關連結
※ 新加坡網路安全局發布人工智慧系統安全指南,以降低AI系統潛在風險, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=9270&no=57&tp=1 (最後瀏覽日:2026/01/07)
引註此篇文章
你可能還會想看
美國環保署提出汽車廢氣排放新標準以加速電動汽車發展

美國環保署(United States Environmental Protection Agency, EPA)為限制汽車廢氣排放污染物對環境造成的危害,根據美國《潔淨空氣法》(Clean Air Act, CAA)的授權,於2023年4月12日提出《2027年式輕型、中型商用車車型污染物排放標準》(Multi-Pollutant Emissions Standards for Model Years 2027 and Later Light-Duty and Medium-Duty Vehicles),以及《重型商用車溫室氣體排放標準-第三階段》(Greenhouse Gas Emissions Standards for Heavy-Duty Vehicles – Phase 3)這兩件汽車廢氣排放新標準,期加速電動汽車(Electric Vehicle, EVs)發展、加速潔淨交通轉型。 《2027年式輕型、中型商用車車型污染物排放標準》以及《重型商用車溫室氣體排放標準-第三階段》分別針對2027年到2032年所出廠的輕型商用車、中型商用車以及重型商用車的汽車廢氣排放標準做出更嚴格的新規範,預計將成為美國迄今為止最嚴格的汽車廢氣排放標準。目標是到2032年時,輕型商用車行駛每英里二氧化碳平均排放量下降至82公克,溫室氣體排放量相較於2026年車型年標準將減少56%;中型商用車行駛每英里二氧化碳平均排放量下降至275公克,溫室氣體排放量相較於2026年車型年標準則將減少44%。至於重型商用車,以重型拖曳機(heavy-haul tractors)為例,將從2027年車型年行駛每噸英里二氧化碳平均排放量48克,到2032年時下降至41公克左右。 根據這兩件汽車廢氣排放新標準,並未禁止化石燃料汽車的製造或銷售、亦未規範要求電動汽車的年製造量或年銷售量要達多少數量或比率,而是為汽車限定更嚴格的廢氣排放標準,因此,仍無疑地將迫使汽車製造商減少販售化石燃料汽車、加速推動電動汽車生產的腳步以符合新的排放標準規定。環保署預測汽車製造商在為符標準所採的相應作法之下將會大幅提高電動汽車在新車的銷售比率:到2032年時,電動汽車將佔輕型商用車新車銷量的 67%、中型商用車新車銷量的46%。而此累計可望到2055年時減少約100億噸的二氧化碳排放,相當於美國2022年二氧化碳總排放量的兩倍多。將有效減少有害空氣汙染、並大幅降低因空氣汙染所致的罹病風險以及過早死亡等危險。 藉由新的排放標準,將逐步淘汰化石燃料汽車的生產,加速潔淨交通轉型,有效應對氣候危機並提高全國各社區空氣品質。

淺談創新應用服務(OTT)之創新與規範課題

淺談創新應用服務(OTT)之創新與規範課題 科技法律研究所 法律研究員 蔡博坤 2015年05月26日   隨著資通訊科技快速的發展,例如網際網路、雲端運算、智慧聯網、巨量資料、4G/5G等等,創新應用服務(Over-the-top, OTT)已逐漸包含各種基於網際網路之服務與內容。此科技應用的服務應如何在現行法律規範體系下被論及,其本身以及衍生的議題復為何,均為所欲介紹的核心,本文係以美國作為觀察之對象,希冀對於我國未來在OTT領域之法制有所助益。 壹、美國FCC對於創新應用服務(OTT)的態度觀察   在美國,聯邦通訊委員會(Federal Communication Commission, FCC)係美國境內主管電信與通訊領域聯邦層級的主管機關,對於網際網路上之新興應用服務,為鼓勵新興技術的發展,一向以避免管制為原則,也因此一些OTT TV或VoIP之商業模式,近年來無論係在美國境內抑或境外,皆有著長足的發展。另一方面,隨著科技快速變遷,FCC亦與時俱進持續透過公眾諮詢,尋求是否有調整相關定義,抑或擴張規範管制之必要。例如,2014年12月,FCC發布一個法規修訂公開意見徵集的通知(Notice of Proposed Rulemaking, NPRM),希冀更新目前於1934年通訊法(Communications Act of 1934)下之相關規範,以反映目前透過網際網路所提供的影音服務,特別將更新對於Multichannel Video Programming Distributor(MVPD)一詞定義。 貳、關鍵之法制課題   由於FCC在創新應用服務(OTT)領域市場管制者(market regulator)的角色乃至關重要,同時,提供此應用服務的業者,無論係電信業者還是新興科技業者,其彼此間相互且複雜之法律關係,所衍生之法制議題,實有必要探討以及釐清,謹就兩個層面的問題概述如下:   關於第一個層次網路中立(Net Neutrality)的議題,從相關案例實務判決觀察,2014年2月,美國有線寬頻業者Comcast即以頻寬有限資源,以及確保網路流量充足的理由,說服Netflix服務營運商,同意因此付費給Comcast,而雙方所進行之合作,也引起所謂網路中立性的爭議課題。今(2015)年2月,FCC於最新通過的Open Internet Order,有別於過往命令僅能有限度地適用於行動網路服務業者(mobile broadband),新的命令將能全面性地適用於固網以及行動網路業者,反應近年來在無線寬頻網路科技之快速進展,將擴張保護消費者近取網際網路的方式。   其次,觀察目前美國境內OTT的業者,包括Now TV、Netflix、Ditto TV、Whereever TV、Hulu、Emagine、myTV等,均有建置整合平台,俾利提供消費者新型態的商業服務,從知名Netflix公司所建構的平台政策,相關重要的規範課題包含資料的蒐集、處理與利用,也提到對於安全性的重視與兒少保護等。在相關隱私權議題面向,其指出,由於使用者得通過不同的媒介透過網際網路近取相關服務,誠是些來源皆有各自獨立之隱私權聲明、注意事項與使用規約,除了提醒用戶應盡相關的注意義務外,相關衍生的責任亦會予以劃清。 參、簡評   從上述可得知,創新應用服務(OTT)整體之發展,係與網際網路(Internet)相關推動工作係一體的,因此,我國未來如欲推動OTT相關創新服務,相關網際網路所衍生的議題,例如網路中立等,勢必將成為重要的法制層面所亟需探究之課題。   在我國,如同美國聯邦通訊委員會(FCC)角色之行政主管機關係國家通訊傳播委員會(NCC),在主管的法令中,目前依據電信法相關規範,電信事業應公平提供服務,除另有規定外,不得為差別處理(第21條);無正當理由,第一類電信事業市場主導者不得對其他電信事業或用戶給予差別待遇,抑或不得為其他濫用市場地位或經主管機關認定之不公平競爭行為(第26-1條)。   相關法律條文規範是否可因此援引作為討論創新應用服務(OTT)之法源基礎,復如何調和第一類電信事業市場主導者與新興應用服務科技業者之關係,仍存在著灰色地帶。從鼓勵產業創新之觀點出發,謹初步建議從正面的立場,鼓勵相關創新應用發展,宜避免逕就OTT服務過度管制。

巴西政府公布個人數據保護法草案

  巴西政府於2015年1月28日公布個人資料保護法草案(Regulation Of The Brazilian Internet Act And Bill Of Law On Personal Data Protection),該草案適用於個人和通過自動化方式處理個人資料的公司,惟前提是(1)處理行為發生在巴西或(2)蒐集個人資料行為發生在巴西。該草案將強加規範企業處理其在巴西的個人資料,包括資料保護義務和要求: 一、企業必須使資料當事人能夠自由的、直接的,具體的使當事人知悉並取得人同意以處理個人資料。 二、除了在有限的例外情況下,禁止處理敏感個人資料。例如資料當事人已被告知處理敏感個人資料的相關風險,並有具體的同意。敏感的個人資料包括,種族和民族淵源,宗教,哲學或道德信仰,政治觀點,健康和性取向資料,以及遺傳數據。 三、資料外洩時有義務立即報告主管機關。 四、當個人資料是不完整,不準確或已經過期時,允許資料當事人查詢他們的個人資料並更正之。 五、不得提供個人資料給資料保護水平不相似的國家。 六、有義務依比例原則採取安全保障措施以處理個人數據,防止未經授權的訪問,破壞,丟失,篡改,通訊或傳播資料。

日本公布設立AI安全研究所與著手訂定AI安全性評鑑標準

日本於2023年12月1日舉辦G7數位技術委員會(G7デジタル・技術大臣会合),由日本數位廳、總務省、經濟產業省共同會晤G7會員國代表,基於人工智慧(Artificial Intelligence,下稱AI)可能帶給全球創造性、革命性的轉變,同時也可能伴隨侵害著作權與擴散假訊息的風險,尤其是生成式AI可能對經濟、社會影響甚鉅,因此針對如何妥善使用AI技術,G7全體會員國共同訂定《廣島AI進程》(広島AIプロセス)文件,其聲明內容簡述如下: 1.訂定涵蓋《廣島AI進程》之政策框架(Framework) 2.訂定涵蓋AI設計、系統開發、規劃、提供與使用等所有與AI有關人員,(All AI actors, when and as applicable, and appropriate, to cover the design, development, deployment, provision and use of advanced AI systems)適用之《廣島AI進程》國際標準(Principle) 3.針對開發高階AI系統之組織,訂定可適用之國際行為準則(Code of Conduct) 為此,日本內閣府於2024年2月14日公布,於經濟產業省政策執行機關—獨立行政法人資訊處理推動機構(独立行政法人情報処理推進機構,下稱IPA)轄下設立日本AI安全研究所(Japan AI Safety Institute,下稱AISI),作為今後研擬AI安全性評鑑標準(據以特定或減少AI整體風險)與推動方式之專責機構,以實現安心、安全以及可信賴之AI為目標。AISI所職掌的業務範圍如下: 1.進行AI安全性評鑑之相關調查 2.研擬AI相關標準 3.研擬安全性評鑑標準與實施方式 4.研擬與各國AI專責機關進行國際合作,例如:美國AI安全研究所(U.S. Artificial Intelligence Safety Institute, USAISI) 另一方面,IPA將以內部人才招聘作為AISI成員之任用方式,預計組成約數十人規模的團隊。日本以與G7會員國共識為基礎,採專責機關—AISI進行研究與規劃,並推動日後擬定AI相關使用規範與安全性評鑑標準,據以實現AI應用安全之目標。我國對於AI技術之應用領域,未來應如何訂定使用安全規範,將涉及專業性與技術性事項之整體性規劃,日本因應AI課題而採行的做法值得我國未來持續關注。

TOP