Refuah公司與紐約總檢察長達成和解並投資120萬美元保護病人資料

紐約州總檢察長Letitia James於2024年1月5日與健康照護服務業者Refuah Health Center, Inc.(下稱Refuah公司)達成和解,主因為該公司遭受勒索軟體攻擊(ransomware attack),約25萬紐約州民個資遭到洩漏。和解協議要求Refuah公司支付共計45 萬美元之民事懲罰金及費用(penalties and costs),且應投資 120 萬美元加強網路安全(cybersecurity)。

Refuah公司主要業務為經營三家醫療機構和五輛行動醫療車(mobile medical vans)。2021 年 5 月,Refuah公司遭到勒索軟體攻擊,網路攻擊者得以近用數千名病人的資料,取得了包含姓名、地址、電話號碼、社會保險號碼、駕照號碼、出生日期、金融帳號、醫療保險號碼等資料。

依據檢察長辦公室的調查顯示,攻擊者之所以得近用這些資料,原因為 Refuah公司未採取適當安全維護措施,包括:未停用不活躍之使用者帳號(inactive user accounts);未定期更換使用者帳號憑證(user account credentials);未限制員工僅得近用其業務所必需之資源和資料;未使用多重要素驗證(multi-factor authentication)以及未加密病人資料。

依據協議內容,Refuah公司同意投資 120 萬美元,用於開發和維護更強大的資訊安全計畫(information security programs),以更妥適地保護病人資料。該協議還要求Refuah公司應:

1.維護全面的資訊安全計畫,以保護消費者資料的安全性、機密性和完整性;

2.實施並持續更新消費者資料近用限制相關政策和程序;

3.遠端近用資源和資料應使用多重要素驗證;

4.定期更新近用資源和資料的憑證;

5.至少每半年進行一次稽核,確保使用者僅近用其業務所必需之資源和資料;

6.對所有儲存或傳輸的消費者資料進行加密;

7.實施控制措施,監控和記錄公司網路和系統的所有安全和操作活動;以及

8.制定、實施和持續更新全面的事故應變計畫。

Refuah公司還須向州政府支付共計45 萬美元之民事懲罰金及費用,其中 10 萬美元將在該公司投入 120 萬美元開發和維護其資訊安全計畫後,得暫緩支付。

相關連結
你可能會想參加
※ Refuah公司與紐約總檢察長達成和解並投資120萬美元保護病人資料, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=9164&no=67&tp=1 (最後瀏覽日:2026/05/02)
引註此篇文章
你可能還會想看
簡析美國閒置頻譜利用之法制發展

歐盟議會發布《可信賴人工智慧倫理準則》

  2019年4月9日,歐盟議會發布《可信賴人工智慧倫理準則》(Ethics Guidelines for Trustworthy AI)。此次內容大致延續歐盟人工智慧高階專家小組(High-level Expert Group on Artificial Intelligence)於2018年12月18日發布的《可信賴人工智慧倫理準則草案》(Draft Ethics Guidelines for Trustworthy Artificial Intelligence)之內容,要求人工智慧須遵守行善(do good)、不作惡(do no harm)、保護人類(preserve human Agency)、公平(be fair)與公開透明(operate transparency)等倫理原則;並在4月9日發布的正式內容中更加具體描述可信賴的人工智慧的具體要件,共計七面向概述如下: 人類自主性和監控(Human agency and oversight):AI係為強化人類能力而存在,使人類使用者能夠做出更明智的決策並培養自身的基礎能力。同時,AI應有相關監控機制以確保AI系統不會侵害人類自主性或是引發其他負面效果。本準則建議,監控機制應可透過人機混合(一種整合人工智慧與人類協作的系統,例如human-in-the-loop, human-on-the-loop, and human-in-command)的操作方法來實現。 技術穩健性和安全性(Technical Robustness and safety):為防止損害擴張與確保損害最小化,AI系統除需具備準確性、可靠性和可重複性等技術特質,同時也需在出現問題前訂定完善的備援計劃。 隱私和資料治理(Privacy and data governance):除了確保充分尊重隱私和資料保護之外,還必須確保適當的資料治理機制,同時考慮到資料的品質和完整性,並確保合法近用資料為可行。 透明度(Transparency):資料、系統和AI的商業模型應該是透明的。可追溯性機制(Traceability mechanisms)有助於實現這一目標。此外,應以利害關係人能夠理解的方式解釋AI系統的邏輯及運作模式。人類參與者和使用者需要意識到他們正在與AI系統進行互動,並且必須了解AI系統的功能和限制。 保持多樣性、不歧視和公平(Diversity, non-discrimination and fairness):AI不公平的偏見可能會加劇對弱勢群體的偏見和歧視,導致邊緣化現象更為嚴重。為避免此種情況,AI系統應該設計為所有人皆可以近用,達成使用者多樣性的目標。 社會和環境福祉(Societal and environmental well-being):AI應該使包含我們的後代在內的所有人類受益。因此AI必須兼顧永續發展、環境友善,並能提供正向的社會影響。  問責制(Accountability):應建立機制以妥當處理AI所導致的結果的責任歸屬,演算法的可審計性(Auditability)為關鍵。此外,應確保補救措施為無障礙設計。

德國聯邦工業聯盟與Noerr法律事務所所公布「工業4.0 – 數位化進程面臨之法律挑戰」意見報告

  德國聯邦工業聯盟(Bundesverband der Deutschen Industrie)與Noerr法律事務所於2015年11月共同公布「工業4.0 – 數位化進程面臨之法律挑戰」(Industrie 4.0 – Rechtliche Herausforderungen der Digitalisierung)意見報告。該報告透過德國聯邦工業聯盟與Noerr法律事務所訪談德國數家企業法務部門,以釐清業界在邁入工業4.0轉型下會遇到的法律議題,並對此議題提出法律意見。   此報告針對工業4.0相關法律議題提出以下建議: 1.資料保護:業者可透過技術性設計達到資料保護的目的,例如隱私設計(Privacy by Design)。另,繼歐盟法院針對安全港判決的裁定,業者應積極關注歐盟第29條資料保護工作小組針對跨國資料傳輸的指引或德國聯邦資料保護委員(Datenschutzbeauftragten des Bundes)針對跨境資料保護規範的建議。 2.資料產權:在立法上不應急於規範管制,有恐危及企業資料分享的空間。建議企業間可透過雙方性契約規定資料的使用權 3.資訊安全:雖支持於2015年7月通過之德國資訊系統安全法(IT-Sicherheitsgesetz),強制性業者履行在遭資安攻擊時履行通報義務(Meldepflicht)。但是,若能實施以業者本身主動完成資安保護措施之鼓勵機制,則更能積極性的鼓勵業者履行其資安義務。 4.智慧財產權:標準必要專利的授權及使用係業者在工業4.0體系中,特別在系統的互通性上,非常重要的一環。在法制環境上應讓各個業者,在一定的條件下,均享有標準必要專利授權。 5.產品責任:因智慧工廠下之自治系統(autonome Systeme)有自主決定的能力,而因其所導致的民事糾紛,可透過新民事責任概念的架構所解決,並不一定要將該自治系統視為一獨立的數位法人(ePerson)。

法國提出新法限制15歲以下未成年人使用社群媒體平臺,保障未成年人身心健康

法國國民議會(又稱下議院,Assemblée nationale)於2025年11月18日提出「保護未成年人免受社群網路帶來之風險(Protéger les mineurs des risques auxquels les expose l’utilisation des réseaux sociaux)」法案,旨在對社群媒體平臺施加限制,禁止15歲以下未成年人使用除了「百科全書、教育或科學資料相關、軟體開發與分享」以外之社群媒體平臺。該法案重點如下: (1)要求平臺業者確保未成年人不會受到過度商業化內容的影響。 (2)禁止向未成年人推播可能損害其身心健康之內容。 (3)要求在推薦使用社群媒體平臺時,加註警語說明係屬「15歲以下未成年人之危險產品」。 (4)禁止投放專門以未成年人為目標受眾之網路廣告,無論係直接投放或間接投放(包括藉由網紅或商業合作進行投放)之方式,均屬禁止投放之範圍。 該法案於2026年1月26日經下議院表決通過,後續送至參議院(又稱上議院,Sénat)審議。法國總統馬克宏公開支持該法案,並呼籲參議院加速審查,以確保該法案得於新學年(2026年9月1日)開始時生效,並表示已要求政府行政部門加速協助審查。如法案順利通過,最快將於2026年9月1日施行。

TOP