2024年3月27日,美國商務部國家電信和資訊管理局(National Telecommunications and Information Administration, NTIA)發布「人工智慧問責政策報告」(AI Accountability Policy Report),該報告呼籲對人工智慧系統進行獨立評估(Independent Evaluations)或是第三方評測,期待藉此提高人工智慧系統的透明度。
人工智慧問責政策報告就如何對人工智慧系統進行第三方評測提出八項建議作法,分別如下:
1.人工智慧稽核指引:聯邦政府應為稽核人員制定適合的人工智慧稽核指引,該指引須包含評估標準與合適的稽核員證書。
2.改善資訊揭露:人工智慧系統雖然已經應用在許多領域,但其運作模式尚缺乏透明度。NTIA認為未來可以透過類似營養標籤(Nutrition Label)的方式,使人工智慧模型的架構、訓練資料、限制與偏差等重要資訊更加透明。
3.責任標準(Liability Standards):聯邦政府應盡快訂定相關責任歸屬標準,以解決現行制度下,人工智慧系統造成損害的法律責任問題。
4.增加第三方評測所需資源:聯邦政府應投入必要的資源,以滿足國家對人工智慧系統獨立評估的需求。相關必要資源如:
(1)資助美國人工智慧安全研究所(U.S. Artificial Intelligence Safety Institute);
(2)嚴格評估所需的運算資源與雲端基礎設施(Cloud Infrastructure);
(3)提供獎金和研究資源,以鼓勵參與紅隊測試的個人或團隊;
(4)培養第三方評測機構的專家人才。
5.開發及使用驗證工具:NTIA呼籲聯邦機關開發及使用可靠的評測工具,以評估人工智慧系統之使用情況,例如透明度工具(Transparency Tools)、認驗證工具(Verification and Validation Tools)等。
6.獨立評估:NTIA建議聯邦機關應針對高風險的人工智慧類別進行第三方評測與監管,特別是可能侵害權利或安全的模型,應在其發布或應用前進行評測。
7.提升聯邦機關風險管控能力:NTIA建議各機關應記錄人工智慧的不良事件、建立人工智慧系統稽核的登記冊,並根據需求提供評測、認證與文件紀錄。
8.契約:透過採購契約要求政府之供應商、承包商採用符合標準的人工智慧治理方式與實踐。
NTIA將持續與利害關係各方合作,以建立人工智慧風險的問責機制,並確保該問責報告之建議得以落實。
世界經濟論壇(World Economic Forum, WEF)於2022年6月29日發布《人工智慧公平性和包容性藍圖》白皮書(A Blueprint for Equity and Inclusion in Artificial Intelligence),說明在AI開發生命週期和治理生態系統中,應該如何改善公平性和強化包容性。根據全球未來人類AI理事會(Global Future Council on Artificial Intelligence for Humanity)指出,目前AI生命週期應分為兩個部分,一是管理AI使用,二是設計、開發、部署AI以滿足利益相關者需求。 包容性AI不僅是考量技術發展中之公平性與包容性,而是需整體考量並建立包容的AI生態系統,包括(1)包容性AI基礎設施(例如運算能力、資料儲存、網路),鼓勵更多技術或非技術的人員有能力參與到AI相關工作中;(2)建立AI素養、教育及意識,例如從小開始開啟AI相關課程,讓孩子從小即可以從父母的工作、家庭、學校,甚至玩具中學習AI系統對資料和隱私的影響並進行思考,盡可能讓使其互動的人都了解AI之基礎知識,並能夠認識其可能帶來的風險與機會;(3)公平的工作環境,未來各行各業需要越來越多多元化人才,企業需拓寬與AI相關之職位,例如讓非傳統背景人員接受交叉培訓、公私協力建立夥伴關係、提高員工職場歸屬感。 在設計包容性方面,必須考慮不同利益相關者之需求,並從設計者、開發者、監督機關等不同角度觀察。本報告將包容性AI開發及治理整個生命週期分為6個不同階段,期望在生命週期中的每個階段皆考量公平性與包容性: 1.了解問題並確定AI解決方案:釐清為何需要部署AI,並設定希望改善的目標變量(target variable),並透過制定包容性社會參與框架或行為準則,盡可能實現包容性社會參與(特別是代表性不足或受保護的族群)。 2.包容性模型設計:設計時需考慮社會和受影響的利益相關者,並多方考量各種設計決策及運用在不同情況時之公平性、健全性、全面性、可解釋性、準確性及透明度等。 3.包容性資料蒐集:透過設計健全的治理及隱私,確定更具包容性的資料蒐集路徑,以確保所建立之模型能適用到整體社會。 4.公平和包容的模型開發及測試:除多元化開發團隊及資料代表性,組織也應引進不同利益相關者進行迭代開發與測試,並招募測試組進行測試與部署,以確保測試人群能夠代表整體人類。且模型可能隨著時間發展而有變化,需以多元化指標評估與調整。 5.公平地部署受信任的AI系統,並監控社會影響:部署AI系統後仍應持續監控,並持續評估可能出現新的利益相關者或使用者,以降低因環境變化而可能產生的危害。 6.不斷循環發展的生命週期:不應以傳統重複循環過程看待AI生命週期,而是以流動、展開及演變的態度,隨時評估及調整,以因應新的挑戰及需求,透過定期紀錄及審查,隨時重塑包容性AI生態系統。 綜上,本報告以包容性AI生態系統及生命週期概念,期望透過基礎設施、教育與培訓、公平的工作環境等,以因應未來無所不在的AI社會與生活,建立公司、政府、教育機構可以遵循的方向。
美國交通部針對聯邦自駕車政策3.0徵集公眾意見2018年1月10號,美國交通部部長趙小蘭於出席內華達州拉斯維加斯之消費者科技聯盟(Consumer Technology Association)大會時表示,美國交通部正在研擬發布新版之聯邦自駕車政策3.0(Federal Automated Vehicle Policy 3.0, FAVP3.0)以因應自動駕駛技術於未來對安全性、機動性與消費者權益之衝擊。該聯邦自駕車政策3.0將會是一個綜合整體運輸業概況之自動駕駛政策,其將讓自動化運輸系統,包括,車子、貨車、輕軌、基礎設施與港口得以安全的整合。 為了達成上述目的,且讓公眾的意見得以協助辨識美國聯邦法規必須配合修正之部分,並鼓勵更多的創新研發。美國交通部於其網站上也發起了數個自動化車輛技術之意見徵集,讓其能更準確的找出當前美國法規對於自動駕駛技術創新所造成之阻礙。 該意見徵集主要分為四項,第一項是由美國交通部聯邦公路管理局(Federal Highway Administration, FHWA)主管,針對如何將自動駕駛系統整合進入公路運輸系統之資訊徵求書(Request for Information, RFI)。 第二項與第三項則是由聯邦公共運輸局(Federal Transit Administration, FTA)分別針對自駕巴士研究計畫(Automated Transit Buses Research Program)與移除相關障礙所發出之意見徵詢書(Request for Comments, RFC)。 最後一項則是由交通部國家公路交通安全管理局(National Highway Traffic Safety Administration, NHTSA)主管,針對移除自駕車法規障礙所發布之意見徵詢。
間隙網路社會之推動-以歐盟資通訊法制政策之發展為例 日本學術會議建議因應疫情強化ICT建設和推動數位轉型日本學術會議於2020年9月15日提出「邁向感染症對策與社會改革之ICT基礎建設強化和數位轉型推動」(感染症対策と社会変革に向けたICT基盤強化とデジタル変革の推進)法制建議。新冠肺炎疫情突顯出日本ICT基礎建設不足和急需數位轉型之問題,日本學術會議從「醫療系統之數位轉型」、「社會生活之數位轉型」和「資安與隱私保護」等觀點提出建議,希望能在確保資安及隱私的前提下,達到防止感染擴大與避免醫療崩壞,以及減少疫情對社會經濟影響等目標。針對「醫療系統之數位轉型」,未來應建立預防和控制感染症之綜合平台,統一地方政府感染資訊之公開內容、項目,檢討遠距醫療和數位治療法規,進行相關法制環境和基礎設施之整備;針對「社會生活之數位轉型」,日後應積極推動遠距醫療、遠距工作和遠距教育,並進行所需基礎建設、設備和人才培育之整備;針對「資安與隱私保護」,除檢討建立利用感染者個人資料,以及可知悉個人資料利用狀況之制度,亦應擴大及強化信用服務(trust service)和感染資訊共享系統等措施。