防疫也須防弊!美國加州檢察總長針對醫療照護機構遭受勒索軟體攻擊提出適當措施與事故通報指引

  由於近日頻傳醫院遭受勒索軟體攻擊(ransomware attacks),美國加州檢察總長於2021年8月24日發布官方公告(bulletin):在加州州法「醫療資訊保密法」(Confidentiality of Medical Information Act, CMIA)與聯邦法「健康保險可攜與責任法」(Health Insurance Portability and Accountability Act of 1996, HIPAA)規範下,蒐集、處理和利用醫療健康資料的醫療照護機構,有採取適當措施與事故通報的義務,以維護醫療健康資料保密性。

  針對「採取適當措施」的內容,美國加州檢察總長於本次官方公告中,提出明確指引(guidance):醫療照護機構須至少採取下列5項防範措施(preventive measures),以避免勒索軟體威脅:

  1. 確保所有存取醫療健康資料的作業系統與軟體,均升級至最新版本;
  2. 安裝防毒軟體,並維護其運作;
  3. 定期為員工舉辦教育訓練,包含教導員工不要點擊可疑網址和防範釣魚電子郵件(phishing email);
  4. 限制員工下載、安裝和運作未經批准的軟體;
  5. 維護和定期測試資料備份與救援計畫,以便於事故發生時,控制對資料和系統的影響範圍及程度。

  此外,針對「資料外洩事故通報義務」(breach notification obligations),美國加州檢察總長指出:依據「加州民法」(California Civil Code)第1798.82條,擁有或經授權使用含有個人資料的「電腦化資料」(computerized data)的醫療照護機構,於發生,或可合理確信發生,影響超過500位加州居民的資料外洩事故時,即負有將該事故通報檢察總長辦公室的義務。

相關連結
相關附件
你可能會想參加
※ 防疫也須防弊!美國加州檢察總長針對醫療照護機構遭受勒索軟體攻擊提出適當措施與事故通報指引, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8732&no=67&tp=1 (最後瀏覽日:2026/04/08)
引註此篇文章
你可能還會想看
英國上議院人工智慧專責委員會提出AI應用影響報告並提出未來政策建議

  英國上議院人工智慧專責委員會(Select Committee on Artificial Intelligence)2018年4月18日公開「AI在英國:準備、意願與可能性?(AI in the UK: ready, willing and able?)」報告,針對AI可能產生的影響與議題提出政策建議。   委員會建議為避免AI的系統與應用上出現偏頗,應注重大量資訊蒐集之方式;無論是企業或學術界,皆應於人民隱私獲得保障之情況下方有合理近用數據資訊的權利。因此為建立保護框架與相關機制,其呼籲政府應主動檢視潛在英國中大型科技公司壟斷數據之可能性;為使AI的發展具有可理解性和避免產生偏見,政府應提供誘因發展審查AI領域中資訊應用之方法,並鼓勵增加AI人才訓練與招募的多元性。   再者,為促進AI應用之意識與了解,委員會建議產業應建立機制,知會消費者其應用AI做出敏感決策的時機。為因應AI對就業市場之衝擊,建議利用如國家再訓練方案發展再訓練之計畫,並於早期教育中即加入AI教育;並促進公部門AI之發展與布建,特別於健康照顧應用層面。另外,針對AI失靈可能性,應釐清目前法律領域是否足以因應其失靈所造成之損害,並應提供資金進行更進一步之研究,特別於網路安全風險之面向。   本報告並期待建立AI共通之倫理原則,為未來AI相關管制奠定初步基礎與框架。

英國衛生部發布基因檢測與保險自律行為準則

  英國衛生部(Department of Health and Social Care)於2018年10月23日發布基因檢測與保險自律行為準則(Code on genetic testing and insurance-A voluntary code of practice agreed between HM Government and the Association of British Insurers on the role of genetic testing in insurance),該準則係由英國政府及英國保險業者協會(Association of British Insurers, ABI)共同制定,旨在取代先前的「基因與保險之協定與延期實施」(Concordat and Moratorium on Genetics and Insurance)文件,並以更易於理解的方式呈現原「基因與保險之協定與延期實施」之內容。   準則中列出八項承諾,此八項承諾為ABI代表其成員議定: 承諾一:保險業者(Insurers)會公平對待要保人(applicants)。保險業者不會要求或迫使任何要保人進行預測性或診斷性基因檢測;若要保人已進行預測性基因檢測,保險業者亦不會對其作出差別待遇,除非有如下之情況。 承諾二:列入附錄一之疾病類型並超過以下金額之保單,保險業者始得要求要保人提供預測性基因檢測之結果: 人壽保險-500,000英鎊 /人。 重大疾病險-300,000英鎊 /人。 收入保障險-30,000英鎊 /年。 目前列入附錄一之類型僅有亨丁頓氏舞蹈症(Huntington’s disease)之人壽保險總額超過500,000英鎊之情形。 承諾三:保險業者不會要求要保人提供:  要保人或被保險人於承保期間所進行之預測性基因檢測結果。 非為要保人或被保險人本人(如要保人或被保險人血親)之預測性基因檢測結果。 於科學研究背景下獲得之要保人或被保險人預測性基因檢測結果。 承諾四:若保險業者基於承諾二之規定要求要保人提供預測性基因檢測結果,亦不會針對該結果制定過於苛刻(disproportionate)的條款或條件。 承諾五:保險業者須於要保人簽約前提供明確之訊息,以說明:      根據本準則,要保人在何種情況下必須或無須提供相關預測性基因檢測結果。 若要保人自願提供對其有利的預測性基因檢測結果,保險決策將如何被影響。 承諾六:若要保人基於意外或自願向保險業者提供預測性基因檢測結果,保險業者可考量要保人之利益調整保單內容;若檢測結果對要保人不利,除非符合承諾二之情形,否則保險業者將忽略該檢測結果。 承諾七:販售人壽保險、重大疾病或收入保障保險之保險業者將:      每年向ABI報告其遵守本準則之情況。 根據本準則問答部分之詳細資訊,建立投訴程序(complaints procedure)。 每年向ABI報告與本準則運作上相關之投訴情形。 承諾八:販售人壽保險、重大疾病或收入保障保險之保險業者將指定至少一名經培訓之基因核保人(Nominate Genetics Underwriter, NGU),負責與遺傳資訊(genetic information)及遵守本準則相關之事項,且NGU之人數應與業務規模成比例。

加州公佈影音遊戲法案臨危憲爭議

  加州州長阿諾‧史瓦辛格於 2005 年 10 月 7 日簽署禁止販售暴力影音遊戲 (Violate Video Game) 與未成年人之影音遊戲法案,影音遊戲業者對於此法案之通過表示強烈抗議,主張該法案違反美國憲法修正條文第一條言論自由之保護。   該法案禁止販賣或出租具強烈暴力色彩之影音遊戲與未滿 18 歲之未成年人,同時要求此類遊戲必須於包裝正面依據規定標誌標示明顯之「 18 」字樣,違者將處以 1000 美元以下之罰金。州長史瓦辛格先生指出,這些遊戲多半是為成人所設計,是否讓青少年接觸此類遊戲,應由其家長決定之,故此法案並未限制該未成年人之家長購買或租用該類遊戲提供未成年人使用。   美國「影音軟體業者協會」 (Video Software Dealer Association) 以及「娛樂軟體協會」 (Entertainment Software Association) 等業者代表計畫以訴訟方式爭議此法之合憲性並予以推翻,而美國聯邦法院曾對於華盛頓州之類似法案作出不利之判決,使得此法案之未來仍為一個未知數。值得一提的是,美國其他州亦有類似法案通過,其中包括伊利諾州以及密西根州,目前「娛樂軟體協會」針對此兩州之法案已於聯邦法院提起訴訟。

德國向歐盟提交《人工智慧白皮書-歐洲卓越與信任概念》及《人工智慧,物聯網和機器人技術對安全和責任之影響報告》意見

  德國聯邦政府於2020年6月29日,針對歐盟執委會於2020年2月19日公布的《人工智慧白皮書-歐洲卓越與信任概念》(Weißbuch zur Künstlichen Intelligenz – ein europäisches Konzept für Exzellenz und Vertrauen)及《人工智慧,物聯網和機器人技術對安全和責任之影響報告》(Bericht über die Auswirkungen künstlicher Intelligenz, des Internets der Dinge und der Robotik in Hinblick auf Sicherheit und Haftung) 提交意見,期能促進以負責任、公益導向、以人為本的人工智慧開發及使用行為,並同時提升歐盟的競爭力及創新能力。   歐盟執委會所發布的人工智慧的白皮書及人工智慧對安全和責任的影響報告,一方面可促進人工智慧使用,另一方面則藉此提醒相關風險。本次意見主要集結德國聯邦經濟與能源部、教育與研究部、勞動與社會事務部、內政、建築及社區部以及司法與消費者保護部之意見。德國政府表示,投資人工智慧為重要計畫之一,可確保未來的創新和競爭力,以及應對諸如COVID-19疫情等危機。最重要的是,可透過人工智慧的應用扶持中小型公司。然而在進行監管時,必須注意應促進技術發展而非抑制創新。   在《人工智會白皮書-歐洲卓越與信任概念》中指出,人工智慧發展應在充分尊重歐盟公民的價值觀和權利的前提下,實現AI的可信賴性和安全發展之政策抉擇,並於整體價值鏈中實現「卓越生態系統」(Ökosystem für Exzellenz),並建立適當獎勵機制,以加速採用AI技術為基礎之解決方案。未來歐洲AI監管框架將創建一個獨特的「信任生態系統」(Ökosystem für Vertrauen),並確保其能遵守歐盟法規,包括保護基本權利和消費者權益,尤其對於在歐盟營運且具有高風險的AI系統更應嚴格遵守。此外,應使公民有信心接受AI,並提供公司和公共組織使用AI進行創新之法律確定性。歐盟執委會將大力支持建立以人為本之AI開發方法,並考慮將AI專家小組制定的道德準則投入試行階段。德國政府指出,除了要制定並遵守歐洲AI的監管政策外,應特別注重保護人民之基本權,例如個人資料與隱私、消費者安全、資料自決權、職業自由、平等待遇等,並呼籲國際間應密切合作,運用人工智慧技術克服疫情、社會和生態永續性等挑戰。另外,德國政府亦支持將人工智慧測試中心與真實實驗室(監理沙盒場域)相結合,以助於加速企業實際運用,也將帶頭促進AI在公部門之運用。   在《人工智慧,物聯網和機器人技術對安全和責任之影響報告》中則指出,歐洲希望成為AI、IoT和機器人技術的領導者,將需要清楚、可預測的法律框架來應對技術的挑戰,包括明確的安全和責任框架,以確保消費者保護及企業合法性。AI、IoT和機器人技術等新數位技術的出現,將對產品安全性和責任方面出現新挑戰,而在當前的產品安全法規上,缺乏相關規範,特別是在一般產品的安全指令,機械指令,無線電設備指令等,未來將以一致地在各框架內針對不同法律進行調修。在責任方面,雖然原則上現有法令尚仍可應對新興技術,但人工智慧規模的的不斷變化和綜合影響,將可能增加對受害者提供賠償的困難度,導致不公平或效率低下的情形產生,為改善此一潛在不確定性,可考慮在歐盟層級調修產品責任指令和國家責任制度,以顧及不同AI應用所帶來的不同風險。德國政府除了支持歐盟作法,在創新與監管取得平衡,更強調應不斷檢視產品安全和產品責任法是否可滿足技術發展,尤其是對重要特定產業的要求,甚至修改舉證責任。並可透過標準化制定,加速人工智慧相關產品與服務的開發。另外,應依照風險高低擬定分類方法,並建議創建高風險AI系統之註冊與事故報告義務,以及相關數據保存、記錄及資料提供之義務,針對低風險AI應用則採自願認證制度。

TOP