美國商務部國家電信和資訊管理局呼籲透過第三方評測提高AI系統透明度

2024年3月27日,美國商務部國家電信和資訊管理局(National Telecommunications and Information Administration, NTIA)發布「人工智慧問責政策報告」(AI Accountability Policy Report),該報告呼籲對人工智慧系統進行獨立評估(Independent Evaluations)或是第三方評測,期待藉此提高人工智慧系統的透明度。

人工智慧問責政策報告就如何對人工智慧系統進行第三方評測提出八項建議作法,分別如下:

1.人工智慧稽核指引:聯邦政府應為稽核人員制定適合的人工智慧稽核指引,該指引須包含評估標準與合適的稽核員證書。

2.改善資訊揭露:人工智慧系統雖然已經應用在許多領域,但其運作模式尚缺乏透明度。NTIA認為未來可以透過類似營養標籤(Nutrition Label)的方式,使人工智慧模型的架構、訓練資料、限制與偏差等重要資訊更加透明。

3.責任標準(Liability Standards):聯邦政府應盡快訂定相關責任歸屬標準,以解決現行制度下,人工智慧系統造成損害的法律責任問題。

4.增加第三方評測所需資源:聯邦政府應投入必要的資源,以滿足國家對人工智慧系統獨立評估的需求。相關必要資源如:

(1)資助美國人工智慧安全研究所(U.S. Artificial Intelligence Safety Institute);

(2)嚴格評估所需的運算資源與雲端基礎設施(Cloud Infrastructure);

(3)提供獎金和研究資源,以鼓勵參與紅隊測試的個人或團隊;

(4)培養第三方評測機構的專家人才。

5.開發及使用驗證工具:NTIA呼籲聯邦機關開發及使用可靠的評測工具,以評估人工智慧系統之使用情況,例如透明度工具(Transparency Tools)、認驗證工具(Verification and Validation Tools)等。

6.獨立評估:NTIA建議聯邦機關應針對高風險的人工智慧類別進行第三方評測與監管,特別是可能侵害權利或安全的模型,應在其發布或應用前進行評測。

7.提升聯邦機關風險管控能力:NTIA建議各機關應記錄人工智慧的不良事件、建立人工智慧系統稽核的登記冊,並根據需求提供評測、認證與文件紀錄。

8.契約:透過採購契約要求政府之供應商、承包商採用符合標準的人工智慧治理方式與實踐。

NTIA將持續與利害關係各方合作,以建立人工智慧風險的問責機制,並確保該問責報告之建議得以落實。

相關連結
※ 美國商務部國家電信和資訊管理局呼籲透過第三方評測提高AI系統透明度, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=9201&no=55&tp=1 (最後瀏覽日:2025/12/13)
引註此篇文章
你可能還會想看
內政部、經濟部發佈「新建建築物節約能源設計標準」,自七月一日施行

智慧聯網基礎設施與應用服務之法制建構-資訊安全與車聯網之例

新加坡LTA與NTU及JTC共同宣布建立新加坡第一個自駕車測試中心

  新加坡陸路交通管理局(Land Transport Authority, LTA)與南洋理工大學NTU及JTC共同宣布建立新加坡的第一個自駕車測試中心,在裕廊東創新特區(Jurong Innovation District)。   其中心設立的目的為協助2016年建立的卓越自駕車測試與研究中心(Centre of Excellence for Testing & Research of AVs–NTU, CETRAN)建立自駕車試驗標準與認證。自2015年來新加坡已逐步建立道路駕駛場域,但此為第一個自駕車測試中心。   此自駕車測試中心的特點在於其充分模擬道路之建設,使自駕車輛可測試與其他車輛或道路基礎設施間的通訊與互動,因此此中心設計並複製模擬真實道路環境。   包含具有1. 道路燈光;2. 專用短距通訊信號發射器; 2. 下雨模擬器;3.洪水模擬器;4. 模擬大樓阻隔,以模擬衛星受干擾的情況; 5. 彎道;6. 道路突起與斜坡;7. 巴士站等設備。其中並設置360度的閉路電視監視系統(CCTV):提供LTA監督與研究自駕車行為,並會將資訊回傳至陸路交通局的智慧交通系統中心,以分析並評估自駕車的上路可行性。

FDA發佈人工智慧/機器學習行動計畫

  美國食品藥物管理署(U.S. Food & Drug Administration, FDA)在2021年1月12日發布有關人工智慧醫療器材上市管理的「人工智慧/機器學習行動計畫」(Artificial Intelligence/Machine Learning (AI/ML)-Based Software as a Medical Device (SaMD) Action Plan)。該行動計畫的制定背景係FDA認為上市後持續不斷更新演算法的機器學習醫療器材軟體(Software as Medical Device, SaMD),具有極高的診療潛力,將可有效改善醫療品質與病患福祉,因此自2019年以來,FDA嘗試提出新的上市後的監管框架構想,以突破現有醫療器材軟體需要「上市前鎖定演算法、上市後不得任意變更」的監管規定。   2019年4月,FDA發表了「使用人工智慧/機器學習演算法之醫療器材軟體變更之管理架構—討論文件」(Proposed Regulatory Framework for Modifications to Artificial Intelligence/Machine earning (AI/ML)-Based Software as a Medical Device (SaMD) - Discussion Paper and Request for Feedback)。此一諮詢性質的文件當中提出,將來廠商可在上市前審查階段提交「事先訂定之變更控制計畫」(pre-determined change control plan),闡明以下內容:(1)SaMD預先規範(SaMD Pre-Specification, SPS):包含此產品未來可能的變更類型(如:輸入資料、性能、適應症)、變更範圍;(2)演算法變更程序(Algorithm Change Protocol, ACP):包含變更對應之處理流程、風險控制措施,以及如何確保軟體變更後之安全及有效性。   根據「人工智慧/機器學習行動計畫」內容所述,「事先訂定之變更控制計畫」構想被多數(包含病患團體在內)的利害關係人肯認,並於相關諮詢會議當中提出完善的細部建言。FDA將根據收到的反饋意見,於2021年以前正式提出有關人工智慧/機器學習上市後監管的指引草案(Draft Guidance),並持續研究提高演算法透明度、避免演算法偏見的方法。

TOP