美國國家標準與技術研究院公布人工智慧風險管理框架(AI RMF 1.0)

美國國家標準與技術研究院(National Institute of Standards and Technology, NIST)於2023年1月26日公布「人工智慧風險管理框架1.0」(Artificial Intelligence Risk Management Framework, AI RMF 1.0),該自願性框架提供相關資源,以協助組織與個人管理人工智慧風險,並促進可信賴的人工智慧(Trustworthy AI)之設計、開發與使用。NIST曾於2021年7月29日提出「人工智慧風險管理框架」草案進行公眾徵詢,獲得業界之建議包含框架應有明確之衡量方法以及數值指標、人工智慧系統設計時應先思考整體系統之假設於真實世界中運作時,是否會產生公平性或誤差的問題等。本框架將隨著各界使用後的意見回饋持續更新,期待各產業發展出適合自己的使用方式。

本框架首先說明人工智慧技術的風險與其他科技的差異,定義人工智慧與可信賴的人工智慧,並指出設計該自願性框架的目的。再來,其分析人工智慧風險管理的困難,並用人工智慧的生命週期定義出風險管理相關人員(AI actors)。本框架提供七種評估人工智慧系統之信賴度的特徵,包含有效且可靠(valid and reliable):有客觀證據證明人工智慧系統的有效性與系統穩定度;安全性(safe):包含生命、健康、財產、環境安全,且應依照安全風險種類決定管理上的優先次序;資安與韌性(secure and resilient);可歸責與資訊透明度(accountable and transparent);可解釋性與可詮譯性(explainable and interpretable);隱私保護(privacy-enhanced);公平性—有害偏見管理(fair – with harmful bias managed)。

本框架亦提出人工智慧風險管理框架核心(AI RMF Core)概念,包含四項主要功能:治理、映射(mapping)、量測與管理。其中,治理功能為一切的基礎,負責孕育風險管理文化。各項功能皆有具體項目與子項目,並對應特定行動和結果產出。NIST同時公布「人工智慧風險管理框架教戰手冊」(AI RMF Playbook),提供實際做法之建議,並鼓勵業界分享其具體成果供他人參考。

本文為「經濟部產業技術司科技專案成果」

相關連結
※ 美國國家標準與技術研究院公布人工智慧風險管理框架(AI RMF 1.0), 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8974&no=57&tp=1 (最後瀏覽日:2026/02/25)
引註此篇文章
你可能還會想看
歐盟執委會通過數位歐洲計畫2023~2024年工作計畫

為促進歐洲的數位轉型,歐盟執委會(European Commission)在2023年3月24日於通過數位歐洲計畫(Digital Europe programme, DEP)下的2023~2024年工作計畫,預計投入12.84億歐元於「主要數位歐洲計畫工作計畫」(Main DEP programme)(下稱「主要工作計畫」)及「網路安全工作計畫」(Cybersecurity Work Programme),以延續之前投入之成果,並加強歐盟對抗網路威脅的集體韌性。 實際上歐盟於2018年即提出第一個數位歐洲計畫,並透過數位單一市場策略(Digital Single Market strategy)嘗試建立符合數位特性的監管框架,藉以提高歐盟的國際競爭力,發展及加強歐洲的數位能力。數位歐洲計畫包括五個重點領域:超級電腦(Supercomputers)、人工智慧(Artificial intelligence, AI)、網路安全及信任(Cybersecurity and trust)、數位技能(Digital skills),以及確保數位技術在經濟及社會中被廣泛使用。 前述所說的主要工作計畫,其投入資金為9.095億歐元,重要工作有三。首先,藉由關注氣候和環境保護技術、數據資料、人工智慧、雲端、網路安全、先進數位技能及部署此些技術之最佳方法,並加強歐盟的關鍵數位能力。第二,關注數位公共服務,強調具跨境互操作性(cross-border interoperability)的公部門解決方案(例如歐洲數位身份)。此外,也將透過歐洲數位媒體觀測站(European Digital Media Observatory, EDMO)打擊假訊息,並以InvestEU計畫下的策略數位技術投資平台,重點支持中小及新創企業關注網路安全。 其次,網路安全工作計畫的投入資金為3.75億歐元,由歐洲網路安全能力中心(European Cybersecurity Competence Centre)負責執行,將支援建立國家和跨境安全操作中心的能力,以打造最先進的威脅檢測及網路事件分析生態系統。網路安全工作計畫還將資助產業(特別是中小及新創企業)遵守網路安全法規要求的項目,特別是網路及資訊系統安全指令(Directive on Security of Network and Information Systems, NIS2)或網路韌性法案(Cyber Resilience Act)所要求的內容。 歐盟已在加強數位公共服務、數位技能及網路安全等方面投入許多資源,其中網路安全、資安威脅和打擊假消息等議題因其不受地區限制而更受到注目,未來仍待持續關注此些議題之發展。

買回用戶迴路的另一種選擇

美國情報體系發布「情報體系運用人工智慧倫理架構」

  美國國家情報體系(United States Intelligence Community)係於1981年依據行政命令第12333號(Executive Order 12333)所建立,其任務為蒐集、分析與提供外國情報與反情報資訊美國國家領導人,服務對象包含美國總統、執法單位以及軍事單位。其於2020年6月提出「情報體系人工智慧倫理架構」(Artificial Intelligence Ethics Framework for the Intelligence Community),為人工智慧系統與訓練資料、測試資料之採購、設計、研發、使用、保護、消費與管理提出指引,並指出人工智慧之利用須遵從以下事項: 一、於經過潛在風險評估後,以適當且符合目的之方法利用; 二、人工智慧之使用應尊重個人權利與自由,且資料取得應合法且符合相關政策與法規之要求; 三、應於利用程序內結合人類判斷與建立問責機制,以因應AI產品之風險並確保其決策之適當性。 四、於不破壞其功能與實用性之前提下,盡可能確認、統計以及降低潛在之歧視問題。 五、AI進行測試時應同時考量其未來利用上可預見之風險。 六、持續維持AI模型之迭代(Iteration)、版本與改動之審查。 七、AI之建立目的、限制與設計之輸出項目,應文件化。 八、盡可能使用可解釋與可理解之方式,讓使用者、審查者與公眾理解為何AI會產出相關決策。 九、持續不定期檢測AI,以確保其符合當初建置之目的。 十、確認AI於產品循環中各階段之負責人,包含其維護相關紀錄之責任。

愛爾蘭ISP業者被控侵犯著作權

  愛爾蘭最大的ISP業者Ericom因其使用者利用Ericom提供之網路服務傳輸音樂檔案,而遭EMI、Sony BMG、Universal及Warner提起訴訟,控告其涉嫌侵害著作權,要求Ericom應過濾其內容可能涉及侵害著作權之檔案。對此,Ericom向愛爾蘭高等法院表示,Ericom在法律上並無義務監督在其網路上所承載的檔案內容。   愛爾蘭數位權利壓力團體「愛爾蘭數位權利」(Digital Rights Ireland,簡稱DRI)聲稱,上述音樂出版業者對於Ericom的指控及要求於法無據,因為ISP業者不過是資料來源的媒介,並無法律義務對於網路上使用者的行為負責;歐盟也無法律特別要求業者應監督其所提供網路服務傳遞的資訊內容。DRI亦表示,若立法要求業者應監督傳輸之檔案,除將侵犯網路使用者的隱私權外,更意味著要求使用者付費讓業者監督其使用網路之行為,但目前過濾篩選技術仍不夠完善,反而會影響合法使用網路服務之用戶。   雖然如此,ISP業者仍面臨了越來越多的國際壓力,要求應即時阻攔使用者非法分享之檔案。如2008年夏季,法國將提出一套測試系統以協助ISP業者封鎖涉及侵權之資訊;比利時法院於2007年判決要求某個ISP業者應過濾其傳輸之資訊;日本ISP業者之代表組織亦強調,若發現使用者使用軟體違法分享音樂及遊戲檔案,將即時切斷網路服務,以防止使用者透過網路分享檔案侵害著作權。對於違法分享檔案之行為,若英國網路服務業者與音樂工業之意見仍未能達成一致,英國政府將立法要求,ISP業者應對違法分享檔案之使用者發出警告,而使用者仍堅持從事該違法行為,則其所使用之網路服務將會中斷。   目前,對於使用者利用ISP業者所提供之服務從事侵害著作權之行為,該業者是否應為使用者之違法行為負責已成為各國專家廣泛討論之議題,未來有關該議題之立法仍有待持續關注。

TOP