加拿大交通部(Department of Transport Canada)於2019年1月發布「加拿大自駕系統安全評估(Safety Assessment for Automated Driving Systems in Canada)」文件,該文件將協助加拿大企業評估其發展高級(SAE第三級至第五級)自駕層級車輛之安全性,並可與美國相關政策進行整合。該文件指出,因相關技術尚在發展之中,不適合使用強制性規範進行管制,因此將利用引導性之政策措施來協助相關駕駛系統安全發展。加拿大交通部於文件中指出可用於評估目前自駕車輛研發成果之13種面向,並將其分類為三個領域:
加拿大交通部鼓勵企業利用該文件提出安全評估報告並向公眾公開以增進消費者意識,另一方面,該安全評估報告內容也可協助加拿大政府發展相關安全政策與規範。
本文為「經濟部產業技術司科技專案成果」
美國國家標準暨技術研究院(National Institute of Standards and Technology, NIST)於2024年5月21日提出「全球AI安全機構合作策略願景目標」(The United States Artificial Intelligence Safety Institute: Vision, Mission, and Strategic Goals,下稱本策略願景),美國商務部(Department of Commerce)亦於2024年參與AI首爾峰會(AI Seoul Summit)期間對外揭示本策略願景,期能與其他國家攜手打造安全、可靠且可信賴之AI生態系。 由於AI可信賴與否往往取決於安全性,NIST指出當前AI安全所面臨的挑戰包含:一、欠缺對先進AI之標準化衡量指標;二、風險測試、評估、驗證及確效(Test, Evaluation, Validation, and Verification, TEVV)方法不健全;三、欠缺對AI建模後模型架構與模型表現間因果關係的了解;四、產業、公民社會、國內外參與者等在實踐AI安全一事上合作程度極為有限。 為因應上述挑戰並促進AI創新,NIST在本策略願景中擬定以下三大戰略目標:(1)推動AI安全科學發展:為建立安全準則與工具進行技術合作研究,並預先部署TEVV方法,以利評估先進AI模型之潛在風險與應對措施;(2)推展AI安全實務作法:制定並發布不同領域AI風險管理之相關準則與指標,以達到負責任設計、開發、部署與應用AI模型與系統之目的;(3)支持AI安全合作:促進各界採用前述安全準則、工具或指標,並推動全球合作,以發展國際通用的AI安全風險應對機制。
日本經濟安全保障推進法提出國家經濟安全四大政策日本於2022年5月18日公布「經濟安全保障推進法」,為了確保、防止經濟相關活動危害國家安全,該法將自公布後2年內(至2024年5月17日)分階段施行。日本已於8月1日設立「經濟安全保障推進室」承擔與相關省廳調整作業、制定基本方針及公共評論等,將與日本國家安全保障局(NSS)共同完成經濟安全保障政策。 經濟安全保障推進法主要有四個面向: 一、確保重要物資安定供給(該法第2章)。 二、提供安全基礎設備的審查(該法第3章)。 三、重要技術的開發支援(該法第4章)。 四、專利申請的非公開制度(該法第5章)。 首先就重要物資部分,明定須符合國民生存不可或缺、過分依賴海外支援、若停止出口等原因將導致中斷供給、或實際有中斷供給情事發生等要件,即為重要物資。國家會提供資金等資源援助重要物資的企業經營者,但對其有調查權,若企業不接受調查則受有罰則。 而針對電信、石油等領域之基礎設備,為穩定提供勞務及避免該基礎設備有損害國家安全、社會經濟秩序之虞,於基礎設備引進或維護管理時,企業須事前申報相關計畫書(記載重要設備供給者、設備零組件等),倘認為有妨害國家安全之虞,則可採取禁止設備導入、終止管理等必要措施。 關於重要技術開發支援,列舉了20個領域包括AI、生物技術等,將由經濟安全保障基金撥款,選定各領域之研究人員組成產官協議會委託研究業務等,但應對研究內容為保密,否則設有徒刑等罰則。 另對於科技技術之發明專利,若公開將損及國家安全時,專利廳會將專利申請送交內閣府,採取保全指定措施,於指定期間內,禁止其向外國申請IP、禁止公開發明內容、暫時保留專利核定,防止科技的公開和資訊洩露,但國家應補償不予專利許可所遭受之損失。 針對上開政策已有業者反映國家管理措施太强,將可能成為企業絆腳石,特別是進行審查時有可能導致企業活動速度放慢,應掌握實際情況。
美國發布《新興科技優先審查架構》 加速政府機構導入AI技術美國聯邦總務署(General Service Administration)於2024年6月27日發布《新興科技優先審查架構》(Emerging Technologies Prioritization Framework),該架構係為回應拜登總統針對AI安全所提出之第14110號行政命令,而在「聯邦政府風險與授權管理計畫」(Federal Risk and Authorization Management Program,以下簡稱FedRAMP)底下所設置之措施。 一般而言,雲端服務供應商(cloud service providers)若欲將其產品提供予政府單位使用,需依FedRAMP相關規範等候審查。《新興科技優先審查架構》則例外開放,使提供「新興科技」產品之雲端服務供應商得視情況優先審查。 現階段《新興科技優先審查架構》所定義之「新興科技」係為提供下列四種功能的生成式AI技術: 1.聊天介面(chat interface):提供對話式聊天介面的產品。允許用戶輸入提示詞(prompts),然後利用大型語言模型產出內容。 2.程式碼生成與除錯工具(code generation and debugging tools):軟體開發人員用來協助他們開發和除錯軟體的工具。 3.圖片生成(prompt-based image generators):能根據使用者輸入之文字或圖像而產生新圖像或影像的產品。 4.通用應用程式介面(general purpose API):基於API技術將前述三項功能加以整合的產品。 美國政府為挑選最具影響力的產品,要求雲端服務供應商繳交相關資料以利審查,例如公開的模型卡(model card)。模型卡應詳細說明模型的細節、用途、偏見和風險,以及資料、流程和參數等訓練細節。此外,模型卡應包含評估因素、指標和結果,包括所使用的評估基準。 《新興科技優先審查架構》第一波的申請開放至2024年8月31日,且FedRAMP將於9月30日宣布優先名單。這項措施將使生成式AI技術能夠以更快的速度被導入政府服務之中。
美國白宮發佈「AI應用監管指南」十項原則美國白宮科技政策辦公室(Science and Technology Policy, OSTP)在2020年1月6日公布了「人工智慧應用監管指南(Guidance for Regulation of Artificial Intelligence Applications)」,提出人工智慧(AI)監管的十項原則,此份指南以聯邦機構備忘錄(Memorandum for the Heads of Executive Departments and Agencies)的形式呈現,要求政府機關未來在起草AI監管相關法案時,必須遵守這些原則。此舉是根據美國總統川普在去(2019)年所簽署的行政命令「美國AI倡議」(American AI Initiative)所啟動的AI國家戰略之一,旨在防止過度監管,以免扼殺AI創新發展,並且提倡「可信賴AI」。 這十項原則分別為:公眾對AI的信任;公眾參與;科學誠信與資訊品質;風險評估與管理;效益與成本分析;靈活性;公平與非歧視;揭露與透明;安全保障;跨部門協調。旨在實現三個目標: 一、增加公眾參與:政府機關在AI規範制定過程中,應提供公眾參與之機會。 二、限制監管範圍:任何AI監管法規實施前,應進行成本效益分析,且機關間應溝通合作,建立靈活的監管框架,避免重複規範導致限制監管範圍擴大。 三、推廣可信賴的AI:應考慮公平性、非歧視性、透明性、安全性之要求,促進可信賴的AI。 這份指南在發佈後有60天公開評論期,之後將正式公布實施。白宮表示,這是全球第一份AI監管指南,以確保自由、人權、民主等價值。