美國公民權利辦公室就Sentara醫療機構違反個資外洩通知義務予以重罰

  美國衛生及公共服務部(Department of Health and Human Services, 下稱HHS)轄下的公民權利辦公室(Office for Civil Right, 下稱OCR)在2019年11月27日,正式對Sentara醫療機構處以217萬美元行政罰,主因該機構違反《健康保險可攜與責任法》(Health Insurance Portability and Accountability Act, 下稱HIPAA)的醫療個資外洩通知義務。

  HIPAA是美國有關醫療個資管理的主要規範,依據HIPAA第164.400條以下「違反通知規則」(Breach Notification Rule)規定,當超過500位病患的「受保護健康資訊」(Protected Health Information, 下稱PHI)遭受不當使用或被外洩時,除應通知受害人外,還必須立即告知HHS以及在當地知名媒體發布新聞。而OCR主要負責檢查受規範機構,是否確實執行HIPAA隱私、安全和違反通知規則。

  而在2017年4月,HHS收到指控Sentara將含有病患姓名、帳號、就診日期等涉及PHI的帳單發送到錯誤地址,造成557名病患個資外洩。Sentara卻認為該帳單內容未含有病患病歷、治療資訊或其他診斷紀錄,且僅有8人被影響,並非HIPAA應進行個資外洩通知義務之範疇,故不依規定程序通報HHS。不過OCR認為依HIPAA第160.103條規定,PHI包含病史、保險資訊、就醫紀錄(含日期)、身心健康狀態等可識別個人之健康資訊。因此認為Sentara確實違反個資外洩通知義務,予以罰款並命檢討改善。

  Sentara醫療機構服務範圍橫跨美國維吉尼亞州(Virginia)和北卡羅來納州(North Carolina),共有12家急性照護醫院、10家護理中心和3家照護機構,為美國最具知名的大型非營利醫療機構之一。這次重罰也告誡國內醫療機構當發生敏感性醫療個資外洩時應從嚴判斷,以避免民眾對醫療照護單位失去信任,確保國內醫療機構體系應恪遵HIPAA規範。

相關連結
你可能會想參加
※ 美國公民權利辦公室就Sentara醫療機構違反個資外洩通知義務予以重罰, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8387&no=55&tp=1 (最後瀏覽日:2026/01/21)
引註此篇文章
你可能還會想看
加拿大運輸部發布2025無人機方案,提出建立無人機交管系統等優先項目

  加拿大運輸部(Transport Canada)於2021年3月22日發布「2025無人機方案」(Transport Canada’s Drone Strategy to 2025),概述其對無人機的願景及方案,並提出其至2025年前所應優先關注之項目,以確保無人機安全地整合進現代化航空系統並進入空域中。   為因應無人機產業發展帶來新挑戰及機會,加拿大運輸部列出五點事項做為對總體政策及優先事項之考量,包括: (一)透過安全規範支持創新:相關方案包含為偏鄉地區操作較低風險之視距外操作制定規範、為中度風險視距外操作核發飛行操作許可、在實際操作環境中測試技術,以及核准相關試行計畫,以提供中度風險之視距外操作更多的政策規劃資訊。 (二)建立無人機交通管理系統:包括建立無人機飛行計畫、空域使用請求系統、通訊、導航及空域監管系統、自2021年於偏鄉地區進行無人機交通管理實驗、探索「數位牌照」(digital license plate)用於遠端識別無人機的選項,以作為無人機交通管理系統基礎。 (三)無人機的安全風險:與利益相關人合作釐清機場保安的角色與職責、通訊傳輸協定及突發事件回應期間的工作協調、評估機場威脅及漏洞以了解風險、探索反無人機技術、對未經授權無人機的侵入進行偵測及追踪,以及導入驅逐未經授權無人機的安全框架。 (四)創新推動經濟發展:促進短、中期研發計畫、對先進無人機研發活動尋求合作機會、尋求能為加拿大氣候環境與操作提供資料的優先研發項目、制定方案使新型無人機技術更容易被國際市場接受、針對無人機之營運框架及產業目標進行評估、擬定產業合作策略並促進現有航空經濟框架現代化。 (五)建立民眾對無人機的信任:為增進民眾對無人機的認識及接受度,制定行動計畫、與地方政府共同規劃營運、鼓勵更多的社群參與,並與執法單位持續合作執行安全無人機操作規則。   加拿大運輸部將對本方案定期進行評估並於2025年前完成總體檢視,並公布2025-2030年的無人機發展方案。

美國為加強聯邦補助生物科研之安全性而提出新規範

法國國家資訊自由委員會將推出符合GDPR的人工智慧操作指引(AI how-to sheets)

法國國家資訊自由委員會(CNIL)於2023年10月16日至11月16日進行「人工智慧操作指引」(AI how-to sheets)(下稱本指引)公眾諮詢,並宣布將於2024年初提出正式版本。本指引主要說明AI系統資料集建立與利用符合歐盟一般資料保護規則(GDPR)之作法,以期在支持人工智慧專業人士創新之外,同時能兼顧民眾權利。 人工智慧操作指引主要內容整理如下: 1.指引涵蓋範圍:本指引限於AI開發階段(development phase),不包含應用階段(deployment phase)。開發階段進一步可分為三階段,包括AI系統設計、資料蒐集與資料庫建立,以及AI系統學習與訓練。 2.法律適用:當資料處理過程中包含個人資料時,人工智慧系統的開發與設計都必須確定其適用的法律規範為何。 3.定義利用目的:CNIL強調蒐集及處理個資時應該遵守「明確」、「合法」、「易懂」之原則,由於資料應該是基於特定且合法的目的而蒐集的,因此不得以與最初目的不相符的方式進一步處理資料。故明確界定人工智慧系統之目的為何,方能決定GDPR與其他原則之適用。 4.系統提供者的身分:可能會是GDPR中的為資料控管者(data controller)、共同控管者(joint controller)以及資料處理者(data processor)。 5.確保資料處理之合法性:建立AI系統的組織使用的資料集若包含個人資料,必須確保資料分析與處理操作符合GDPR規定。 6.必要時進行資料保護影響評估(DIPA)。 7.在系統設計時將資料保護納入考慮:包含建立系統主要目標、技術架構、識別資料來源與嚴格篩選使用…等等。 8.資料蒐集與管理時皆須考慮資料保護:具體作法包含資料蒐集須符合GDPR、糾正錯誤、解決缺失值、整合個資保護措施、監控所蒐集之資料、蒐集之目的,以及設定明確的資料保留期限,實施適當的技術和組織措施以確保資料安全等。 對於AI相關產業從事人員來說,更新AI相關規範知識非常重要,CNIL的人工智慧操作指引將可協助增強AI產業對於個資處理複雜法律問題的理解。

澳洲網路安全專員啟動「社群媒體年齡限制專區」保障未滿16歲青少年的數位安全

澳洲網路安全專員(eSafety Commissioner)於2025年10月啟動「社群媒體年齡限制專區」(Social Media Age Restrictions Hub),以落實2024年11月通過的線上安全法(Online Safety Act 2021)修正案。該次修正納入「社群媒體最低年齡」(Social Media Minimum Age, SMMA)框架之規定,以全面保障澳洲未滿16 歲的兒童及青少年。為落實SMMA,透過延緩取得帳號方式,而非全面禁止使用,以減輕青少年因登入帳號面臨的壓力及風險,從而維護其身心健康與福祉。 2025年12月10日受年齡限制的社群媒體平台必須採取合理措施,防止16歲以下的青少年建立或保留帳戶。eSafety 針對合理措施細節發布SMMA監管指引,並強調平台的合理措施不得僅依賴使用者自我申報年齡或出生日期,亦即要求業者透過嚴格的年齡驗證機制,限制特定年齡層的使用權限。eSafety調查顯示,儘管存在年齡限制,96%的10至15歲兒少使用過社群媒體,此現象凸顯強化業者責任的重要性。 為能更完整保護兒少隱私,線上安全法修正案另一重點在於授權澳洲資訊專員辦公室(Office of the Australian Information Commissioner)制定兒童線上隱私準則(Children's Online Privacy Code),確立以兒童最佳利益為核心的隱私保護標準,並規範線上服務應如何遵循澳洲隱私原則,該準則預計於2026年12月生效。此外,eSafety亦提供針對家長與青少年準備指南(Get-ready guide),協助其適應數位時代下的兒少保護新規定。

TOP