防疫也須防弊!美國加州檢察總長針對醫療照護機構遭受勒索軟體攻擊提出適當措施與事故通報指引

  由於近日頻傳醫院遭受勒索軟體攻擊(ransomware attacks),美國加州檢察總長於2021年8月24日發布官方公告(bulletin):在加州州法「醫療資訊保密法」(Confidentiality of Medical Information Act, CMIA)與聯邦法「健康保險可攜與責任法」(Health Insurance Portability and Accountability Act of 1996, HIPAA)規範下,蒐集、處理和利用醫療健康資料的醫療照護機構,有採取適當措施與事故通報的義務,以維護醫療健康資料保密性。

  針對「採取適當措施」的內容,美國加州檢察總長於本次官方公告中,提出明確指引(guidance):醫療照護機構須至少採取下列5項防範措施(preventive measures),以避免勒索軟體威脅:

  1. 確保所有存取醫療健康資料的作業系統與軟體,均升級至最新版本;
  2. 安裝防毒軟體,並維護其運作;
  3. 定期為員工舉辦教育訓練,包含教導員工不要點擊可疑網址和防範釣魚電子郵件(phishing email);
  4. 限制員工下載、安裝和運作未經批准的軟體;
  5. 維護和定期測試資料備份與救援計畫,以便於事故發生時,控制對資料和系統的影響範圍及程度。

  此外,針對「資料外洩事故通報義務」(breach notification obligations),美國加州檢察總長指出:依據「加州民法」(California Civil Code)第1798.82條,擁有或經授權使用含有個人資料的「電腦化資料」(computerized data)的醫療照護機構,於發生,或可合理確信發生,影響超過500位加州居民的資料外洩事故時,即負有將該事故通報檢察總長辦公室的義務。

相關連結
相關附件
你可能會想參加
※ 防疫也須防弊!美國加州檢察總長針對醫療照護機構遭受勒索軟體攻擊提出適當措施與事故通報指引, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw//article-detail.aspx?d=8732&no=55&tp=1 (最後瀏覽日:2026/04/27)
引註此篇文章
你可能還會想看
英國數位、文化、媒體暨體育部發布資料道德與創新中心公眾諮詢

  英國數位、文化、媒體暨體育部(Department for Digital, Culture Media & Sport, DCMS)於2018年6月13日發布有關資料道德與創新中心(Centre for Data Ethics and Innovation)之公眾諮詢,本次諮詢將於2018年9月5日截止。   在資料使用與人工智慧皆快速發展且對生活模式產生重大改變之背景下,英國政府認為企業、公民以及公部門對於資料及人工智慧的安全及道德創新都需要有明確規範以資遵循,以因應該領域快速發展而生的問題。為此,英國政府欲新建一個資料倫理與創新中心,該中心本身並不會對於資料及人工智慧的使用作出規範,主要係通過吸收各界的經驗及見解,統整這些經驗或見解並轉化為對政府現行監管方面缺陷之建議,該中心具有獨立諮詢之地位(independent advisory status),提供政府對資料及人工智慧相關議題之治理建議。   諮詢文件內指出中心作用及目標旨在提供政府政策指導,並與監管機構、研究機構、公民社會密切合作,以制定正確的政策措施;對於中心的活動及產出,政府認為中心可進行對於資料及人工智慧的分析及預測,並擬定最佳實務作法(如開發有效及合乎道德的資料及AI使用框架),進而向政府提供有助資料及人工智慧之安全及道德創新發展的相關建議。   本次公眾諮詢主要針對資料道德與創新中心之營運方式及重點工作領域徵詢意見,所提出問題大致上包括是否同意中心目前的職責及目標?中心該如何與其他機構進行合作?中心應採取哪些行動?是否同意目前建議的行動類型?中心需要哪些法定權力?中心如何向政府提交建議?是否應將中心提交之建議向大眾公開?   我國行政院於今(2018)年1月18日提出為期4年之「台灣AI行動計畫(2018-2021)」,計畫內容之五大重點為:(1)AI領航推動;(2)AI人才衝刺;(3)建構國際AI創新樞紐;(4)創新法規、實證場域與資料開放;(5)產業AI化,其中,第4點細部內容提及將建立高資安防護及親善介面之資料開放與介接平台,顯見我國政府正全力推動AI發展,亦對資料開放相關議題頗為重視。是以,英國資料道德與創新中心之發展在未來我國推動AI普及與產業AI化之進程上,似可提供我國參考方向,以健全AI發展之法制環境。

歐盟研究揭示研發策略新方向 將以氣候變遷、能源、健康與中小企業為主軸

  歐盟執委會於6月公布新的一般策略架構(Common Strategic Framework,CSF),在歐盟第七期研究架構計畫(FP7)於2013年告一段落後,CSF鎖定的研發策略方向仍會繼續,然此同時也引發一些不同的意見。為此執委會於6月間邀集產官學研進行討論,並於6月底揭示了新的計畫—Horizon 2020—。   歐盟執委會早於2011年初即發佈歐盟競爭力白皮書,揭櫫了未來新一期研究架構計畫之政策方向,其對於現有政策結構與資助機制有不小的衝擊。   新的CSF以氣候變遷、能源、健康與中小企業為研發資助之主軸,而為瞭解並蒐集各界包括大學、國有研究機構、各國政府以及企業界的意見,執委會於今年2月間發布了意見徵詢綠皮書以預先蒐集各界意見。根據執委會的規劃,新的CSF除要求教育體系應跟隨業界研發人才需求的腳步外,更鼓勵中小企業未來投入創新活動,因為執委會發現,歐洲的企業研發投資經費總額,僅有日本和南韓的一半。   歐盟執委會表示,氣候變遷、能源、健康與中小企業為未來研究資源資助與投入的方向,以呼應歐洲民眾的期待。此外,針對目前計畫所存在的行政效率不彰、缺乏透明性及計畫遲延等問題,也將列入未來改善重點,為此,歐洲議會已於6月進行FP7期中檢討時通過解決方案,日後將靠各國分別於歐盟及國家層級的計畫執行與管理中落實。   Horizon 2020計畫將於2014至2020年間斥資800億歐元於研發與工作機會的創造,以提升歐盟競爭力,後2013時期(post-2013)歐盟則將致力於化解計畫執行的分歧,確實協調各國投入新計畫的步調一致性。

歐盟公布電子通訊網路及服務法規架構檢視公共諮詢報告

  歐盟在2015年9月11日至2015年12月7日期間進行電子通訊網路及服務法規架構檢視公共諮詢,檢討目前電子通訊法規發展方向。2016年3月3日歐盟提出摘要報告,諮詢主題可分為五項,分別為:網路接取規範、頻譜管理與無線連結、電信服務產業管制、普及服務規範、以及機構設立與監理等。在此次公共諮詢當中,可歸納出幾項發展趨勢,包括: 一、基於消費者或市場需求,網路已成為促進數位社會、經濟發展之主要方式。 二、網路連線品質待改善。多數認為應支持基礎建設來因應未來廣泛的需求。 三、多數認為目前法規架構無法促進內部市場發展,未來應朝向電信市場自由化方向進行,特別是基於使用者利益以及市場競爭考量。 四、頻譜管理部分,無線寬頻網路固然重要,但未來仍應朝向促進新行動通訊技術發展,如5G技術等。 五、未來對於頻譜的規劃與應用應更具彈性,且進行技術領域調和。 六、許多會員國因應科技技術的進步更新電信法規,透過促進下世代基礎建設投資以及其他方式,未來希望能使電信法規更具有彈性與簡化。 七、未來將著重考量長期投資研發帶來的效益。 八、消費者希望未來能重視服務競爭,而非僅強調基礎建設。且針對基礎建設本身,亦應重視基礎建設投資的成本分擔。 九、重新思考普及服務,亦即給予會員國更多的彈性來決定如何進行資金補助與履行服務。 十、消費者組織立場認為需要進行產業管制,以及設定使用者保護規範,而基於電信事業立場,特別是在服務部分,則需要整合性規範。部分也認為電信法規亦適用於相同性質之服務,例如OTT。 十一、多數認為,歐盟層級的管制機構應該重新檢視,以協助未來法規的修正。

澳洲發布《人工智慧臨床應用指引》提供臨床照護之人工智慧使用合規框架

澳洲醫療安全與品質委員會(Australian Commission on Safety and Quality in Health Care, ACSQHC)與衛生、身心障礙及高齡照護部(Department of Health, Disability and Ageing)聯合於2025年8月發布《人工智慧臨床應用指引》(AI Clinical Use Guide),旨在協助醫療人員於臨床情境中安全、負責任使用人工智慧(Artificial Intelligence, AI)。該文件回應近年生成式AI與機器學習快速導入醫療現場,卻伴隨證據不足、風險升高的治理挑戰,試圖在促進創新與確保病人安全之間建立清楚的合規框架。 該指引以臨床流程為核心,將AI使用區分為「使用前、使用中、使用後」三個階段,強調醫療人員須理解AI工具的預期用途、證據基礎與風險限制,並對所有AI產出負最終專業責任。文件特別指出,當AI工具用於診斷、治療、預測或臨床決策支持時,可能構成醫療器材,須符合澳洲醫療用品管理管理局(Therapeutic Goods Administration, TGA)的相關法規要求。 在風險治理方面,該指引明確區分規則式AI、機器學習與生成式AI,指出後兩者因輸出不確定性、資料偏誤與自動化偏誤風險較高,臨床人員不得過度依賴系統建議,仍須以專業判斷為核心。同時,文件要求醫療機構建立AI治理與監督機制,持續監測效能、偏誤與病安事件,並於必要時通報TGA或隱私主管機關。 在病人權益與隱私保護方面,指引強調知情同意與透明揭露,醫療人員須向病人說明AI使用目的、潛在風險及替代方案,並遵循《1998年隱私法》(Privacy Act 1988)對個人健康資料儲存與跨境處理的限制。澳洲此次發布之臨床AI指引,展現以臨床責任為核心、結合法規遵循與風險管理的治理取向,為各國醫療體系導入AI提供具體且可操作的合規參考。 表1 人工智慧臨床應用指引合規流程 使用前 使用中 使用後 1.界定用途與風險。 2.檢視證據與合規。 3.完備治理與告知。 1.AI輔助決策。 2.即時審查修正。 3.維持溝通透明。 1.持續監測效能。 2.標示可追溯性。 3.通報與再評估。 資料來源:AUSTRALIAN COMMISSION ON SAFETY AND QUALITY IN HEALTH CARE [ACSQHC], AI Clinical Use Guide (2025).

TOP