美國國家安全局(National Security Agency, NSA)於2022年11月10日發布「軟體記憶體安全須知」(“Software Memory Safety” Cybersecurity Information Sheet),說明目前近70%之漏洞係因記憶體安全問題所致,為協助開發者預防記憶體安全問題與提升安全性,NSA提出具體建議如下:
1.使用可保障記憶體安全之程式語言(Memory safe languages):建議使用C#、Go、Java、Ruby、Rust與Swift等可自動管理記憶體之程式語言,以取代C與C++等無法保障記憶體安全之程式語言。
2.進行安全測試強化應用程式安全:建議使用靜態(Static Application Security Testing, SAST)與動態(Dynamic Application Security Testing, DAST)安全測試等多種工具,增加發現記憶體使用與記憶體流失等問題的機會。
3.強化弱點攻擊防護措施(Anti-exploitation features):重視編譯(Compilation)與執行(Execution)之環境,以及利用控制流程防護(Control Flow Guard, CFG)、位址空間組態隨機載入(Address space layout randomization, ASLR)與資料執行防護(Data Execution Prevention, DEP)等措施均有助於降低漏洞被利用的機率。
搭配多種積極措施增加安全性:縱使使用可保障記憶體安全之程式語言,亦無法完全避免風險,因此建議再搭配編譯器選項(Compiler option)、工具分析及作業系統配置等措施增加安全性。
有別於金融科技(Fintech)著重於運用科技手段使金融服務變得更有效率,因而形成促進金融產業發展的一種經濟產業。在美國源於對2008年金融風暴的恐懼,更傾向在金融科技提升金融服務便利與效率的同時,倡議如何使行政機關在監理過程中更能夠兼顧公平、安全及消費者保護。消費者保障與洗錢防制是行政機關進行金融監理的兩大核心目標,而金融科技服務下的客戶身分核實、信用紀錄與償債能力查核等風險控管措施,在全球發展金融科技方興未艾之際,美國則積極發展監理科技「Regtech」。意指行政機關嘗試透過科技手段有效監理業者的營運動態,如區塊鏈技術(Block-Chain)改變銀行現行運作模式,不僅降低業者營運成本外,更透過科技監理的方式協助業者即時達成法令遵循的目標,縮短法令遵循改善的過渡期間,減輕風險產生的可能。同時,也讓行政機關得以即時預防,並因應任何類似2008年金融風暴之情事的發生。
歐盟提出人工智慧法律調和規則草案歐盟執委會(European Commission)於2021年4月21日提出「人工智慧法律調和規則草案」(Proposal for a Regulation Laying Down Harmonised Rules on Artificial Intelligence (Artificial Intelligence Act) and Amending Certain Union Legislative Acts)(簡稱AI規則草案),旨在平衡「AI運用所帶來的優勢」與「AI對個人或社會所帶來的潛在負面衝擊」,促使會員國在發展及運用AI時,能採取協調一致的態度及方法,共同維護歐洲公民基本權利與歐盟價值。 歐盟自2019年起即倡議發展「值得信賴的AI」(Trustworthy AI)。AI規則草案之提出,除了落實執委會2019年至2024年之政策願景外,亦呼應2020年歐洲議會(European Parliament)之建議—針對AI應用之機會與利益採取立法行動,並確保合乎倫理原則。惟鑒於歐盟在環境、健康、公共事務、金融、交通、農業等領域對AI應用之高度需求,以及企業仰賴AI技術提升競爭優勢等因素,執委會係以「風險為基礎」之概念取向(risk-based approach)制定AI規則草案,避免對新技術發展造成不必要的限制或阻礙。 本規則草案將AI系統,依其「對歐盟基本權利或價值所創造的風險程度」,分為下列三種類型,並施以不同程度的監理方式: 一、不可接受之風險:原則上禁止使用此類型AI系統或使其進入歐盟市場。例如:利用潛意識技術操控個人、在公共場合利用「即時遠端生物辨識系統」進行執法、公務機關普遍對個人進行社會評分等。 二、高風險:於附錄中列出所謂高風險AI系統,要求高風險AI系統之提供者遵循風險管理、資料治理、文件紀錄保存、透明性與資訊揭露、人為監督、健全性、準確性與資安等要求;且AI系統進入歐盟市場前,需進行符合性評估(conformity assessment),進入市場後,則需持續監控。 三、非不可接受之風險亦非高風險:鼓勵AI系統提供者或使用者,自願建立行為準則(codes of conduct)。 AI規則草案亦鼓勵會員國建立AI監理沙盒(regulatory sandbox)機制,且以中小企業、新創公司為優先對象,使創新AI系統進入市場之前,能於可控環境中依明確計畫進行開發、測試與驗證。
韓國「2021年經濟政策」韓國財政經濟部(Ministry of Economy and Finance)於2020年12月17日發布「2021年經濟政策」(2021 Economic Policies)。2021年經濟政策中包含兩大重點,分別為因應新型冠狀病毒影響下的不確定性,盡快恢復經濟成長動能,以及推動產業創新與結構轉型,以培植未來的經濟成長動力。政策文件中指出,儘管2020年經濟成長率因疫情影響而表現低迷,但仍期許2021年經濟能夠盡快好轉,改善投資、出口與國內就業。 針對如何盡快恢復經濟成長動能議題,政策文件指出首先應處理因疫情帶來的不確定性,除了維持擴張性財政政策,以增加政府支出刺激總體需求外,在經濟成長與疫情防治間應取得平衡並加強風險管理;其次為透過租稅減免促進消費、擴大投資額度與提供出口融資,以及提供資金以扶植中小企業、提供優惠貸款協助大型企業度過疫情難關、鬆綁法規以發展地方經濟等一連串措施,來達到恢復經濟成長動能的目標。 而在推動產業創新與結構轉型上,將持續投資於5G應用與6G技術的發展上,推動數位經濟與數位政府系統建構,具體措施包含減免投資5G應用貸款稅率2%、籌集投資數位新政基金、完善智慧醫療應用等。此外在扶植新創政策上,則包含建立新興科技實驗場域(K-test bed),以政府採購扶植新興科技、提供商機以及協助銜接海外市場,修正創投法規開放附認股權憑證之低利貸款以引進矽谷創投資金,以及排除可轉換可贖回之債務認定以降低政府研發補助申請門檻等,以有效扶植創新能量成為未來的經濟成長動力。
OECD啟動全球首創的《開發先進人工智慧系統組織的報告框架》2025年2月7日,經濟合作暨發展組織(Organization for Economic Cooperation and Development,OECD)正式啟動《開發先進人工智慧系統組織的報告框架》(Reporting Framework for the Hiroshima Process International Code of Conduct for Organizations Developing Advanced AI Systems,簡稱G7AI風險報告框架)。 該框架之目的是具體落實《廣島進程國際行為準則》(Hiroshima Process International Code of Conduct)的11項行動,促進開發先進人工智慧系統(Advanced AI Systems)的組織建立透明度和問責制。該框架為組織提供標準化方法,使其能夠證明自身符合《廣島進程國際行為準則》的行動,並首次讓組織可以提供有關其人工智慧風險管理實踐、風險評估、事件報告等資訊。對於從事先進人工智慧開發的企業與組織而言,該框架將成為未來風險管理、透明度揭露與國際合規的重要依據。 G7 AI風險報告框架設計,對應《廣島進程國際行為準則》的11項行動,提出七個核心關注面向,具體說明組織於AI系統開發、部署與治理過程中應採取之措施: 1. 組織如何進行AI風險識別與評估; 2. 組織如何進行AI風險管理與資訊安全; 3. 組織如何進行先進AI系統的透明度報告; 4. 組織如何將AI風險管理納入治理框架; 5. 組織如何進行內容驗證與來源追溯機制; 6. 組織如何投資、研究AI安全與如何降低AI社會風險; 7. 組織如何促進AI對人類與全球的利益。 為協助G7推動《廣島進程國際行為準則》,OECD建構G7「AI風險報告框架」網路平台,鼓勵開發先進人工智慧的組織與企業於2025年4月15日前提交首份人工智慧風險報告至該平台(https://transparency.oecd.ai/),目前已有包含OpenAI等超過15家國際企業提交報告。OECD亦呼籲企業與組織每年定期更新報告,以提升全球利益相關者之間的透明度與合作。 目前雖屬自願性報告,然考量到國際監理機關對生成式AI及高風險AI 系統透明度、可問責性(Accountability)的日益關注,G7 AI風險報告框架內容可能成為未來立法與監管的參考作法之一。建議企業組織持續觀測國際AI治理政策變化,預做合規準備。