德國聯邦內閣於2015年5月27日提出安全數位通訊及醫療應用法(Entwurf eines Gesetzes für sichere digitale Kommunikation und Anwendungen im Gesundheitswesen, E-Health-Gesetz)草案。 德國聯邦衛生部部長說明因草案的形成一直有所爭議,以致過程冗長。而為了保證大量數據的資料維護及安全,德國資料保護及資訊流通之主管機關聯邦資料保護官(Bundesbeauftragten für den Datenschutz und die Informationsfreiheit, BfDI)及聯邦資訊安全局(Bundesamt für Sicherheit in der Informationstechnik, BSI),從一開始即密切參與其中合作。針對電子健保卡(die elektronische Gesundheitskarte)的資訊安全要求,德國聯邦衛生部將關注科技發展,持續更新相關規定。 本法案包括高安全標準之數位設施的建置期程,以及產生病人具體應用效益的時間規劃表,重要規定如下: 1.主檔資料管理(Stammdatenmanagement):被保險人主檔資料(Versichertenstammdaten)的測試及更新,自2016年7月1日起,於兩年內針對全國區域進行大範圍測試。 2.結合病人的緊急資訊(Notfalldaten):醫生能立即取得所有重要資訊,如過敏或過去病史等資料。當病人有該等需求之意願時,自2018年起健保卡即應包含緊急資訊。 3.藥物治療計畫(Medikationsplan):包含病人使用藥物治療的所有資訊,藥物治療計畫能於治療過程中使病人更加安全。而同時最少使用三種藥物的被保險人,自2016年起應採行藥物治療計畫。之後應可於電子健保卡取得藥物治療計畫相關資訊。 4.以電子方式發送醫療診斷報告(Arztbriefe):因目前為止醫療診斷報告仍係透過郵寄,然而為求重要資訊立即呈現,於2016年及2017年醫生以電子方式安全寄送診斷報告者,每份報告應收取55歐分的費用。 5.遠距醫療(Telemedizin):為推動遠距醫療的利用,自2017年4月1日起遠端傳輸X光照(Röntgenaufnahmen)的醫療診斷結果將收取費用。 6.醫療資訊系統的互通性:建立互通性指引(Interoperabilitätsverzeichnis)應可使醫療方面各類資訊系統所採行的標準透明化,且可使其規範更加標準化。而該指引應包含遠距醫療應用資料入口網站(Informationsportal)。 7.本法案所提期程,特別係針對實施的代表性自治組織(Organisationen der Selbstverwaltung),德國聯邦法定健康保險總會(GKV-Spitzenverband)、聯邦特約醫師協會(Kassenärztliche Bundesvereinigung)及聯邦特約牙醫協會(Kassenzahnärztliche Bundesvereinigung)適用。
日本委託研究開發之智慧財產治理運用指引委託研究開發之智慧財產治理運用指引(委託研究開発における知的財産マネジメントに関する運用ガイドライン,以下簡稱委託研發智財運用指引)為日本經濟產業省制定並於2015年5月15日公布,用於規範該省、或該省所轄獨立行政法人委外執行技術研發計畫而產出的各項智慧財產權之管理運用事宜。 日本於產業技術力強化法第19條納入拜杜法(Bayh-Dole Act)的意旨,建立了政府資助研發所生的智財權成果歸屬受託單位的原則,但同時為促進研發成果的第三人商業化利用,落實國家資助技術研發成果獲得充分運用以達成國家財富最大化的政策方針,因而作成該指引。 委託研發智財運用指引以委託機關和受託單位為規範對象,首先揭示了研發成果商業化利用的重要性,並以此為核心思維,賦予委託機關須就個別委外研發計畫,在計畫開始前訂定計畫智財權管理方針,並向潛在計畫參加者提示的義務,同時,委託機關須確保委託契約中包含智財權等成果管理運用之約款,例如針對成果有無適用日本拜杜法規定、受託單位承諾在相當期間內未妥善運用成果時開放第三人利用等;另一方面,受託單位則有義務就計畫設置智財營運委員會,負責在計畫執行期間處理智財權管理事宜。
英國發布人工智慧網路資安實務守則英國政府於2025年1月31日發布「人工智慧網路資安實務守則」(Code of Practice for the Cyber Security of AI,以下簡稱「實務守則」),目的是提供人工智慧(AI)系統的網路資安指引。該實務守則為英國參考國際上主要標準、規範後所訂定之自願性指引,以期降低人工智慧所面臨的網路資安風險,並促使人工智慧系統開發者與供應商落實基本的資安措施,以確保人工智慧系統的安性和可靠性。 由於人工智慧系統在功能與運作模式上與傳統網路架構及軟體有明顯的不同,因此產生新的資安風險,主要包含以下: 1. 資料投毒(Data Poisoning):在AI系統的訓練資料中蓄意加入有害或錯誤的資料,影響模型訓練結果,導致人工智慧系統產出錯誤推論或決策。 2. 模型混淆(Model Obfuscation):攻擊者有意識地隱藏或掩飾AI模型的內部運作特徵與行為,以增加系統漏洞、引發混亂或防礙資安管理,可能導致AI系統的安全性與穩定性受損。 3. 輸入間接指令(Indirect Prompt Injection):藉由輸入經精心設計的指令,使人工智慧系統的產出未預期、錯誤或是有害的結果。 為了提升實務守則可操作性,實務守則涵蓋了人工智慧生命週期的各階段,並針對相關角色提出指導。角色界定如下: 1. 人工智慧系統開發者(Developers):負責設計和建立人工智慧系統的個人或組織。 2. 人工智慧系統供應鏈(Supply chain):涵蓋人工智慧系統開發、部署、營運過程中的的所有相關個人和組織。 實務守則希望上述角色能夠參考以下資安原則,以確保人工智慧系統的安全性與可靠性: 1. 風險評估(Risk Assessment):識別、分析和減輕人工智慧系統安全性或功能的潛在威脅的過程。 2. 資料管理(Data management):確保AI系統整個資料生命週期中的資料安全及有效利用,並採取完善管理措施。 3. 模型安全(Model Security):在模型訓練、部署和使用階段,均應符合當時的技術安全標準。 4. 供應鏈安全(Supply chain security):確保AI系統供應鏈中所有利益相關方落實適當的安全措施。 「人工智慧網路資安實務守則」藉由清晰且全面的指導方針,期望各角色能有效落實AI系統安全管控,促進人工智慧技術在網路環境中的安全性與穩健發展。