新加坡政府科技局(Government Technology Agency of Singapore, 下稱 GovTech)在2017年8月21號提出智慧國家的5個策略性國家計畫,指出為了建立數位國家,政府將會更加注重基礎建設的整合途徑,未來將聚焦5項計畫:
本文為「經濟部產業技術司科技專案成果」
美國眾議院議員Mark Takano於2019年10月2日提出「刑事鑑識演算法草案」 (Justice in Forensic Algorithms Act),以建立美國鑑識演算法標準。依據該法第2條,美國國家標準與技術研究所(National Institute of Standard)必須建立電算鑑識軟體之發展與使用標準,且該標準應包含以下內容: 一、以種族、社會經濟地位、兩性與其他人口特徵為基礎之評估標準,以因應使用或發展電算鑑識軟體,所造成區別待遇產生之潛在衝擊。 二、該標準應解決:(1)電算鑑識軟體所依據之科學原則與應用之方法論,且於具備特定方法之案例上,是否有足夠之研究基礎支持該方法之有效性,以及團隊進行哪些研究以驗證該方法;(2)要求對軟體之測試,包含軟體之測試環境、測試方法、測試資料與測試統計結果,例如正確性、精確性、可重複性、敏感性與健全性。 三、電算鑑識軟體開發者對於該軟體之對外公開說明文件,內容包含軟體功能、研發過程、訓練資料來源、內部測試方法與結果。 四、要求使用電算鑑識軟體之實驗室或其他機構應對其進行驗證,包含具體顯示於哪個實驗室與哪種狀況下進行驗證。此外,亦應要求列於公開報告內之相關資訊,且於軟體更新後亦應持續進行驗證。 五、要求執法機關於起訴書或相關起訴文件上應詳列使用電算鑑識軟體之相關結果。
歐盟執委會發布「歐洲健康資料空間」規則提案,旨在克服健康資料利用之障礙歐盟執委會(European Commission)於2022年5月3日發布「歐洲健康資料空間」(European Health Data Space, EHDS)規則提案,其旨在克服健康資料利用之障礙,以充分發揮數位健康與健康資料之潛力。EHDS為一個專門用於健康之資料共享框架(health-specific data sharing framework),針對患者以及用於研究、創新、政策制定、患者安全、統計或監管目的等電子健康資料之運用,建立明確規則、通用標準與實務、基礎設施與治理框架,無論是個人、醫療人員、健康照護提供者、研究人員、監管人員、產業界皆可由此受益。 EHDS之具體內容主要包括九個章節: (1)第一章為一般條款(General provisions),內容包括本規則之主題與範圍,並闡明定義、以及與其他歐盟法規之關係; (2)第二章為電子健康資料之原始利用(Primary use of electronic health data),其針對歐盟一般資料保護規則(GDPR)所載權利,增訂補充性之配套保護機制,並設定醫事人員及其他健康從業人員針對EHD之義務; (3)第三章為EHR系統與福祉應用(EHR systems and wellness applications),其主要重點為EHR系統之強制性自我認證計畫(mandatory self-certification scheme),要求其需符合可互通性與安全性等基本要求,並界定EHR系統中各經濟營運商(economic operator)之義務、EHR系統合規(conformity)要求,並負責EHR系統市場監督機構之義務; (4)第四章為電子健康資料之二次利用(Secondary use of electronic health data),如將資料用於研究、創新、政策制定、患者安全或監管活動。本章定義一組資料類型,規範可利用之既定目的以及受禁止之目的(如商業廣告、增加保險、開發危險產品),並規定會員國必須建立健康資料近用機構(health data access body),以便電子健康資料的二次利用,並確保由資料持有者所產生之電子資料可提供給資料使用者; (5)第五章為其他行動(Additional actions),其旨在提出其他措施以促進會員國之能量建構(capacity building),以配合EHDS之發展,包括數位公共服務之資訊交換、資金,並規範於EHDS下非個人資料之國際近用規定; (6)第六章為歐洲治理與協調(European governance and coordination),其創建「歐洲健康資料空間委員會」(European Health Data Space Board, EHDS Board),促進數位健康當局及健康資料近用機構之間的合作,特別是電子健康資料之原始與二次利用間之關係,並包含歐盟基礎設施聯合管理小組(joint controllership groups for EU infrastructure)相關規定,其任務在於就電子健康資料之原始與二次利用所需之跨境數位基礎建設進行相關決策; (7)第七章為授權與委員會(Delegation and Committee),其允許歐盟執委會通過關於EHDS之授權法案(delegated acts),並希望根據C (2016) 3301號決定成立一個專家小組,以便於準備授權法案、實施本規則時提供建議與協助; (8)第八章為附則(Miscellaneous)規定,其中包含關於合作與處罰之規定,以及要求於本規則實施後進行評估與檢視之條款; (9)第九章為延遲適用與最終條款(Deferred application and final provisions),其規定本規則與個別條款之生效日。
澳洲數位轉型局12月發布《政府負責任使用人工智慧政策2.0》,以強化公部門之AI風險管理2025年12月初,澳洲數位轉型局(Digital Transformation Agency,下稱DTA)發布《政府負責任使用AI政策2.0》(Policy for the responsible use of AI in Government 2.0),旨在進一步強化公部門在AI的透明度、問責性與風險管理能力,於2025年12月15日生效,取代 2024年9月實施的過渡版本。 一、適用範圍 政策適用於所有非企業型聯邦實體(Non-corporate Commonwealth entities),即不具獨立法人地位、直接隸屬於政府的機關或單位。企業型聯邦實體則被鼓勵自願遵循。政策定位為「補充與強化既有法制」,非另訂獨立規範,因此在實務中須與公務員行為準則、資安規範及資料治理制度併行適用。 二、政策重點 在政策施行的12個月內,適用機關須完成以下要求,以確保落實AI治理架構: (一)制度建置 1. AI 透明度聲明:機關須在政策生效後 6 個月內發布「AI 透明度聲明」,公開 AI 使用方法與現況。聲明中須說明機關風險管理流程、AI 事件通報機制及內外部申訴管道,確保使用過程透明、可追蹤。 2. 人員指定與培訓: 機關須指定制度問責人員(Accountable officials)以及AI使用案例承辦人(Accountable use case owners)。 所有員工皆須進行關於負責任使用AI的培訓,機關並依員工職務權責提供個別員工進階訓練。 3. 建立內部AI使用案例註冊清單(Internal AI use case register),以供後續追蹤 該清單至少包含: (1)使用案例負責人(Accountable use case owners):記錄並持續更新範疇內 AI 使用案例的指定負責人。 (2)風險等級(Risk rating):AI使用案例的風險等級資訊。 (3)異動紀錄:當使用案例的風險評級或負責人變更時,須即時更新清單。 (4)自定義欄位:各機關可根據其需求,自行增加欄位。 (二)AI 使用案例範疇判斷 機關須在評估所有新案例,依以下特徵判斷AI應用是否屬於「範疇內(In-scope)」的應用: 1.對個人、社群、組織或環境造成重大損害。 2.實質影響行政處分或行政決策。 3.在無人工審查的情況下,大眾將直接與AI互動或受其影響。 4.涉及個人、敏感資料等資訊。 (三)進階風險評估 依AI影響評估工具(Impact Assessment Tool)針對公眾近用權;不公平歧視;加重刻板印象;損害人、組織或環境;隱私顧慮;資料敏感之安全顧慮;系統建置之安全顧慮;公眾信任等8類別,加以判斷範疇內AI應用,若有任一類別被評為「高風險」,即判定為「高風險」;若所有類別中最高的分數為「中風險」,則整體判定為中風險。 判定為中、高風險之AI應用,均需進行全面審核。中風險須列出所有中風險項目及其控管措施,主要為內部控管;而高風險則要求向DTA報告,且每年至少進行一次全面審核與風險再評估。 澳洲欲透過發布AI透明度聲明、更新AI使用案例註冊清單、強制執行AI應用之風險評估及人員培訓,確保公部門對AI的負責任使用與問責。而我國企業可參考資策會科法所創意智財中心發布之《重要數位資料治理暨管理制度規範(EDGS)》,落實AI資料管理與追蹤。 本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。 本文同步刊登於TIPS網站(https://www.tips.org.tw)
歐盟發布「人工智慧白皮書」以因應人工智慧未來可能的機遇與挑戰人工智慧目前正快速發展,不論是在醫療、農業耕作、製造生產或是氣候變遷等領域上,均帶來了許多改變,然而在人工智慧應用之同時,其也存在許多潛在風險如決策不透明、歧視或其他倫理與人權議題。 歐盟為求在全球競爭激烈的背景下,維護其於人工智慧相關領域的領先地位,並確保人工智慧技術於改善歐洲人民生活的同時,亦能尊重(respecting)人民權利,乃於今年(2020年)2月發布「人工智慧白皮書」(White Paper on Artificial Intelligence),將採投資及監管併用之方式,促進人工智慧應用與解決其相關風險,其對於未來促進人工智慧的應用(promoting the uptake of AI)與相關風險解決,計畫朝向建立卓越生態系統(An Ecosystem of Excellence)及信任生態系統(An Ecosystem of Trust)兩方面進行。 在建立信任生態系統中,歐盟提到因為人工智慧具有變革性的潛力,所以就信任的建立乃至關重要,未來歐洲人工智慧的監管框架除了須確保遵守歐盟法規外(包括基本權利保護與消費者權益維護之規範),對於高風險性之人工智慧應用,其將強制要求需於銷售前進行合格評定(mandatory pre-marketing conformity assessment requirement)。而有關高風險性之定義,歐盟於該白皮書指出須符合以下兩個要件: 考量人工智慧應用之一般活動特徵,其預計會有重大風險的發生,例如在醫療保健、運輸、能源和可能屬於高風險的公共領域;以及 在預期用途或應用上都可能對個人(individual)或企業(company)帶來重大的風險,特別是在安全性(safety)、消費者權益(consumer rights)與基本權利(fundamental rights)上。 歐盟委員會目前針對於以上白皮書之內容與附隨報告,將向公眾徵詢意見至今年5月19日。