美國商務部國家電信和資訊管理局呼籲透過第三方評測提高AI系統透明度

2024年3月27日,美國商務部國家電信和資訊管理局(National Telecommunications and Information Administration, NTIA)發布「人工智慧問責政策報告」(AI Accountability Policy Report),該報告呼籲對人工智慧系統進行獨立評估(Independent Evaluations)或是第三方評測,期待藉此提高人工智慧系統的透明度。

人工智慧問責政策報告就如何對人工智慧系統進行第三方評測提出八項建議作法,分別如下:

1.人工智慧稽核指引:聯邦政府應為稽核人員制定適合的人工智慧稽核指引,該指引須包含評估標準與合適的稽核員證書。

2.改善資訊揭露:人工智慧系統雖然已經應用在許多領域,但其運作模式尚缺乏透明度。NTIA認為未來可以透過類似營養標籤(Nutrition Label)的方式,使人工智慧模型的架構、訓練資料、限制與偏差等重要資訊更加透明。

3.責任標準(Liability Standards):聯邦政府應盡快訂定相關責任歸屬標準,以解決現行制度下,人工智慧系統造成損害的法律責任問題。

4.增加第三方評測所需資源:聯邦政府應投入必要的資源,以滿足國家對人工智慧系統獨立評估的需求。相關必要資源如:

(1)資助美國人工智慧安全研究所(U.S. Artificial Intelligence Safety Institute);

(2)嚴格評估所需的運算資源與雲端基礎設施(Cloud Infrastructure);

(3)提供獎金和研究資源,以鼓勵參與紅隊測試的個人或團隊;

(4)培養第三方評測機構的專家人才。

5.開發及使用驗證工具:NTIA呼籲聯邦機關開發及使用可靠的評測工具,以評估人工智慧系統之使用情況,例如透明度工具(Transparency Tools)、認驗證工具(Verification and Validation Tools)等。

6.獨立評估:NTIA建議聯邦機關應針對高風險的人工智慧類別進行第三方評測與監管,特別是可能侵害權利或安全的模型,應在其發布或應用前進行評測。

7.提升聯邦機關風險管控能力:NTIA建議各機關應記錄人工智慧的不良事件、建立人工智慧系統稽核的登記冊,並根據需求提供評測、認證與文件紀錄。

8.契約:透過採購契約要求政府之供應商、承包商採用符合標準的人工智慧治理方式與實踐。

NTIA將持續與利害關係各方合作,以建立人工智慧風險的問責機制,並確保該問責報告之建議得以落實。

相關連結
※ 美國商務部國家電信和資訊管理局呼籲透過第三方評測提高AI系統透明度, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=9201&no=64&tp=1 (最後瀏覽日:2026/02/09)
引註此篇文章
你可能還會想看
美國Uber被訴利用軟體應用程式追蹤用戶位置資訊

  美國電子隱私資訊中心(The Electronic Privacy Information Center, EPIC)向聯邦貿易委員會(Federal Trade Commission, FTC)檢舉Uber利用手機軟體"God view"追蹤並蒐集軟體用戶(乘客)位置資訊,並利用該資訊發送廣告給乘客。EPIC主張該作法為違法、詐欺的商業模式。   議員Al Franken對該軟體用戶服務條款也提出質疑,因該服務條款載明即使用戶終止使用,該軟體仍將繼續蒐集用戶的位置資訊,並可無限期使用用戶的個人資料。雖然Uber後續對該服務條款進行增修,但仍對外主張保有最後解釋的權利。   EPIC認為目前依「駕駛隱私法」(Driver's Privacy Act )的規定,除具要求提供車輛資料的法源依據,或個人同意並被告知資料將如何使用之情形,才可以蒐集該車輛資料以維護駕駛隱私,否則不得蒐集與該車輛的任何記錄與資料。然而,EPIC亦認為應立法禁止使用軟體追蹤乘客與蒐集其資料。EPIC同時也建議應制定法規限制 Google、Facebook、Whatsapp、Snapchat等公司追蹤及蒐集顧客資料。對此,Facebook僅表示會確保用戶的位置資訊不被濫用,而Google則拒絕對此發表評論。   另外,EPIC認為Uber蒐集用戶位置資訊,並隨著時間的推移來追蹤用戶(乘客)動向資料並進行廣告行銷,對用戶的隱私權保護並不完整,且用戶資料也有被盜取之可能,因此,EPIC希望FTC能對Uber"God view"軟體進行調查,希望促成規制用戶(乘客)資料蒐集、處理與利用的商業模式。

英國資訊委員辦公室(ICO)發布指引以因應歐盟一般資料保護規則(GDPR)正式施行

  為因應歐盟一般資料保護規則(General Data Protection Regulation,簡稱歐盟GDPR)於2018年5月正式施行,英國資訊委員辦公室(Information Commissioner’s Office, 簡稱ICO)於2017年11月21日發布一般資料保護規則指引(guide to general data protection regulation)(簡稱一般資料保護規則指引)。   ICO所發布的一般資料保護規則指引,係用於解釋歐盟GDPR的各條規定,協助企業符合歐盟GDPR的各項要求,適用於企業中擔負資料保護義務責任者。ICO說明本指引文件致力於擴展與歐盟GDPR、ICO所制定公告之其他指引文件、歐盟第29條工作小組制定公告之相關指導文件的聯結。歐盟第29條工作小組係由歐盟各會員國的資料保護機構代表組成,而ICO即為英國派任於該工作小組之資料保護機構代表。   ICO發布的一般資料保護規則指引,內容簡述如下:本指引文件係在建構歐盟GDPR法規的架構,將反映歐盟GDPR未來的導引與如何呈現,本指引內容有歐盟GDPR的重要定義(如歐盟GDPR適用對象、歐盟GDPR所欲保謢之資料種類)、歐盟GDPR原則、個人資料處理、當事人同意、當事人權利介紹、資料保護、資料洩漏處理、未成年人保護等議題之參考要點;並針對部分議題,設計有簡易清單,供參閱者勾選確認。   英國ICO除採取對外發布一般資料保護規則指引外,另有制定數個線上工具,協助企業依其身分別(如資料管理者或資料處理者),選擇線上工具進行自我檢視是否符合歐盟GDPR要求,期以協助英國業者為今(2018)年5月GDPR正式施行,能作更充分的準備。

美國商務部、財政部以及司法部發布遵循美國出口管制與制裁規範聯合指引

美國商務部(Department of Commerce)、財政部(Department of Treasury)以及司法部(Department of Justice)於2024年3月6日發布出口管制與制裁法令遵循指引,以避免邪惡政權(malign regimes)與其他不法人士試圖濫用商業與金融管道,取得有危害美國國家安全與外交政策利益、全球和平與繁榮風險的貨品、技術以及服務,特別提供「非美國公司」(non-U.S. companies),降低相關風險的遵循指引。 該指引分享3則違反制裁法規的案例,重點如下: (1)某家總部位於澳洲的國際貨運代理和物流公司,運送貨品至北韓、伊朗以及敘利亞(皆為被制裁之目的地),且透過美國金融系統發起或收受交易款項,導致美國金融機構與被制裁之對象交易,並向受制裁的司法管轄區輸出金融服務。該公司最終繳納6,131,855美元罰款。 (2)某阿聯酋公司與杜拜以及伊朗公司共謀,透過在出口文件中將一家杜拜公司錯誤地列為最終使用人,然後從一家美國公司出口「儲槽清洗裝置」(storage tank cleaning units)到伊朗,構成違反出口管制規定行為。後與主管機關達成行政和解,繳納415,695美元罰款。 (3)某家總部位於瑞典的國際金融機構的子公司,因其客戶從被制裁的司法管轄區的IP位址,使用子公司的網路銀行平台,透過美國代理銀行向位於被制裁司法管轄區的交易對象付款,因此繳納3,430,900美元罰款。

澳洲政府發布「國家 AI 計畫」 將採用科技中立的AI治理模式

澳洲工業、科學及資源部(Department of Industry, Science and Resources)於2025年12月2日發布「國家AI計畫」(National AI Plan),擘劃了澳洲至2030年的AI發展藍圖,將「掌握機遇」、「普及效益」與「確保人民安全」列為三大發展方向。該計畫將透過基礎建設投資、人才培育、產業支持,以及強化監管能力等途徑,打造一個更具競爭力、包容性與安全性的 AI 生態系統。 國家AI計畫的另一個重點在於,澳洲政府打算透過現有的法律監管架構治理AI,而不另立AI專法。此舉是回應澳洲生產力委員會(Productivity Commission)於8月提出之建言:政府在推動創新與訂定規範時必須取得平衡,應暫緩推動「高風險 AI 的強制護欄(mandatory guardrails)」,僅有在現行制度無法處理AI衍生之危害時,才有必要考慮制定 AI 專法。 據此,國家AI計畫指出,面對AI可能造成的危害,現有制度已有辦法進行處理。例如面對使用AI產品或服務的爭議,可依循《消費者保護法》(Australian Consumer Law)取得權利保障;AI產品或服務的風險危害,亦可透過《線上安全法》(Online Safety Act 2021)授權,制定可強制執行的產業守則(enforceable industry codes)來應對。澳洲政府未來也將推動《隱私法》(Privacy Act 1988)修法,意欲在「保護個人資訊」與「允許資訊被使用及分享」之間取得適當平衡。 同時,由於採用分散式立法的關係,澳洲特別成立「AI 安全研究院」(Australian AI Safety Institute, AISI),以強化政府因應 AI 相關風險與危害的能力。AISI將協助政府部門內部進行監測、分析並共享資訊,使部門間能採取即時且一致的治理政策。 澳洲政府曾在2024年9月研議針對高風險AI進行專門的監管,但因擔心過度立法恐扼殺AI發展轉而採用「科技中立」的監管方式,以既有法律架構為基礎推動AI治理。此與歐盟的AI治理邏輯大相逕庭,未來是否會出現現行制度無法處理之AI危害,抑或採用現行法制並進行微調的方式即可因應,值得持續觀察。

TOP