美國國家標準與技術研究院公布人工智慧風險管理框架(AI RMF 1.0)

美國國家標準與技術研究院(National Institute of Standards and Technology, NIST)於2023年1月26日公布「人工智慧風險管理框架1.0」(Artificial Intelligence Risk Management Framework, AI RMF 1.0),該自願性框架提供相關資源,以協助組織與個人管理人工智慧風險,並促進可信賴的人工智慧(Trustworthy AI)之設計、開發與使用。NIST曾於2021年7月29日提出「人工智慧風險管理框架」草案進行公眾徵詢,獲得業界之建議包含框架應有明確之衡量方法以及數值指標、人工智慧系統設計時應先思考整體系統之假設於真實世界中運作時,是否會產生公平性或誤差的問題等。本框架將隨著各界使用後的意見回饋持續更新,期待各產業發展出適合自己的使用方式。

本框架首先說明人工智慧技術的風險與其他科技的差異,定義人工智慧與可信賴的人工智慧,並指出設計該自願性框架的目的。再來,其分析人工智慧風險管理的困難,並用人工智慧的生命週期定義出風險管理相關人員(AI actors)。本框架提供七種評估人工智慧系統之信賴度的特徵,包含有效且可靠(valid and reliable):有客觀證據證明人工智慧系統的有效性與系統穩定度;安全性(safe):包含生命、健康、財產、環境安全,且應依照安全風險種類決定管理上的優先次序;資安與韌性(secure and resilient);可歸責與資訊透明度(accountable and transparent);可解釋性與可詮譯性(explainable and interpretable);隱私保護(privacy-enhanced);公平性—有害偏見管理(fair – with harmful bias managed)。

本框架亦提出人工智慧風險管理框架核心(AI RMF Core)概念,包含四項主要功能:治理、映射(mapping)、量測與管理。其中,治理功能為一切的基礎,負責孕育風險管理文化。各項功能皆有具體項目與子項目,並對應特定行動和結果產出。NIST同時公布「人工智慧風險管理框架教戰手冊」(AI RMF Playbook),提供實際做法之建議,並鼓勵業界分享其具體成果供他人參考。

本文為「經濟部產業技術司科技專案成果」

相關連結
※ 美國國家標準與技術研究院公布人工智慧風險管理框架(AI RMF 1.0), 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8974&no=64&tp=1 (最後瀏覽日:2025/12/05)
引註此篇文章
你可能還會想看
IBM提出「人工智慧日常倫理」手冊作為研發人員指引

  隨著人工智慧快速發,各界開始意識到人工智慧系統應用、發展過程所涉及的倫理議題,應該建構出相應的規範。IBM於2018年9月02日提出了「人工智慧日常倫理」(Everyday Ethics for Artificial Intelligence)手冊,其以明確、具體的指引做為系統設計師以及開發人員間之共同範本。作為可明確操作的規範,該手冊提供了問責制度、價值協同、可理解性等關注點,以促進社會對人工智慧的信任。 一、問責制度(Accountability)   由於人工智慧的決策將作為人們判斷的重要依據,在看似客觀的演算系統中,編寫演算法、定義失敗或成功的程式設計人員,將影響到人工智慧的演算結果。因此,系統的設計和開發團隊,應詳細記錄系統之設計與決策流程,確保設計、開發階段的責任歸屬,以及程序的可檢驗性。 二、價值協同(Value Alignment)   人工智慧在協助人們做出判斷時,應充分考量到事件的背景因素,其中包括經驗、記憶、文化規範等廣泛知識的借鑑。因此系統設計和開發人員,應協同應用領域之價值體系與經驗,並確保演算時對於跨領域的文化規範與價值觀之敏感性。同時,設計師和開發人員應使人工智慧系統得以「了解並認知」用戶的價值觀,使演算系統與使用者之行為準則相符。 三、可理解性(Explainability)   人工智慧系統的設計,應盡可能地讓人們理解,甚至檢測、審視它決策的過程。隨著人工智慧應用範圍的擴大,其演算決策的過程必須以人們得以理解的方式解釋。此係讓用戶與人工智慧系統交互了解,並針對人工智慧結論或建議,進而有所反饋的重要關鍵;並使用戶面對高度敏感決策時,得以據之檢視系統之背景數據、演算邏輯、推理及建議等。   該手冊提醒,倫理考量應在人工智慧設計之初嵌入,以最小化演算的歧視,並使決策過程透明,使用戶始終能意識到他們正在與人工智慧進行互動。而作為人工智慧系統設計人員和開發團隊,應視為影響數百萬人甚至社會生態的核心角色,應負有義務設計以人為本,並與社會價值觀和道德觀一致的智慧系統。

環保署提京都議定書因應對策 研擬溫室氣體管制法

  管制全球溫室氣體排放以遏制全球暖化的京都議定書在二月十六日生效,環保署將著手推動溫室氣體管制法的法制作業工作,目前正研擬溫室氣體管制法,規劃將由中央主管機關擬訂「全國溫室氣體防制基本方案」,同時確立政府各部門、企業及國民溫室氣體減量合作及分工;並規範推動國家溫室氣體盤查、登錄及排放清冊建置;授權訂定排放管制、財稅誘因及排放交易制度;推動溫室氣體減量技術研發等;同時推動教育宣導、推廣及鼓勵使用高能源效率產品與節約能源生活方式。   環保署署長張祖恩強調,雖然現有京都議定書條文中沒有貿易制裁或違約罰款的條款,但在合作共生的理念下,我國沒有理由當一個國際溫室氣體減量列車的搭便車乘客(free rider),應在公約精神下,積極推動節約能源、再生能源開發、提昇能源效率等工作。   環保署已於2004年度起首度整合產業、運輸及住商部門領域,辦理溫室氣體盤查管理工作,建立盤查規範登錄平台,積極推動國際標準組織ISO14064驗證系統,並遴選電力、石化、鋼鐵、造紙、水泥、光電半導體等業別12家示範廠商,推動6種溫室氣體全面盤查及減量工作,其中排放大戶台灣電力股份有限公司、中國鋼鐵股份有限公司、中國石油股份有限公司均已參與環保署試行盤查減量計畫。對於溫室氣體排放持續成長的住商部門,環保署協調相關部會規劃成立技術服務團,輔導既有建築物推動節約能源及提昇能源效率工作;對於運輸部門,除持續推動大眾運輸系統外,環保署將與相關部會加強推動油電混合小客車之引進。

英國與13家科技公司簽署《防範線上詐欺憲章》,建立網際網路防詐之重要里程碑

英國內政部(Home Office)於2023年11月30日與全球13家線上平臺與服務提供者(包括Amazon、eBay、Facebook、Google、Instagram、LinkedIn、Match Group、Microsoft、Snapchat、TikTok、X(Twitter)、techUK及YouTube等)簽署自願性《防範線上詐欺憲章》(Online Fraud Charter),促進落實防詐措施。 此協議針對線上平臺與服務提供者之防詐重點要求如下: 1.設置監測及預防體系:線上平臺與服務提供者應建立有效流程,以辨別、標註和移除不當的內容和帳號;記錄違規使用者,以防其再次啟用或註冊新帳號。此外,線上平臺與服務提供者應採行符合英國國家網路安全中心(National Cyber Security Centre)密碼保護指引的身分驗證機制,並鼓勵使用者採用兩階段驗證,幫助使用者辨別真偽。而在電子商務與社群媒體方面,線上平臺與服務提供者應設置賣家驗證措施以防範不肖業者,並為使用者提供高風險交易安全指南與安全支付服務機制及資訊,保障使用者之消費權益。 2.建立檢舉途徑:線上平臺與服務提供者應提供簡捷的檢舉途徑,方便民眾檢舉詐欺行為,並與執法部門合作,以快速通報平臺或服務所發生之可疑詐欺活動。當未知帳號透過私訊聯繫使用者時,線上平臺與服務提供者可提供適當的警告,以提醒使用者可能的詐欺風險。 3.與公部門合作進行防詐宣導:所有線上平臺與服務提供者必須參與英國線上廣告計畫任務小組(Online Advertising Programme’s Taskforce),完備防制詐欺網。並要求有付費服務之線上平臺與服務提供者於其平臺內設置廣告驗證程序,以便過濾並防止詐欺資訊傳播,確保網路廣告真實性。此外,線上平臺與服務提供者須與英國政府、英國金融行為監督總署(Financial Conduct Authority)及英國資訊專員辦公室(Information Commissioner's Office)等公部門展開跨部門協調合作機制,加強防詐情報共享與配合執法取締詐欺。最後,線上平臺與服務提供者必須提供最新詐欺風險資訊以幫助民眾辨別詐欺手法。 該憲章簽署之線上平臺與服務提供者須在六個月內實施上述措施,但因係自願性質,因此其有效性仍有待觀察。

資通安全法律案例宣導彙編 第4輯

TOP