美國衛生及公共服務部(Department of Health and Human Services, 下稱HHS)轄下的公民權利辦公室(Office for Civil Right, 下稱OCR)在2019年11月27日,正式對Sentara醫療機構處以217萬美元行政罰,主因該機構違反《健康保險可攜與責任法》(Health Insurance Portability and Accountability Act, 下稱HIPAA)的醫療個資外洩通知義務。
HIPAA是美國有關醫療個資管理的主要規範,依據HIPAA第164.400條以下「違反通知規則」(Breach Notification Rule)規定,當超過500位病患的「受保護健康資訊」(Protected Health Information, 下稱PHI)遭受不當使用或被外洩時,除應通知受害人外,還必須立即告知HHS以及在當地知名媒體發布新聞。而OCR主要負責檢查受規範機構,是否確實執行HIPAA隱私、安全和違反通知規則。
而在2017年4月,HHS收到指控Sentara將含有病患姓名、帳號、就診日期等涉及PHI的帳單發送到錯誤地址,造成557名病患個資外洩。Sentara卻認為該帳單內容未含有病患病歷、治療資訊或其他診斷紀錄,且僅有8人被影響,並非HIPAA應進行個資外洩通知義務之範疇,故不依規定程序通報HHS。不過OCR認為依HIPAA第160.103條規定,PHI包含病史、保險資訊、就醫紀錄(含日期)、身心健康狀態等可識別個人之健康資訊。因此認為Sentara確實違反個資外洩通知義務,予以罰款並命檢討改善。
Sentara醫療機構服務範圍橫跨美國維吉尼亞州(Virginia)和北卡羅來納州(North Carolina),共有12家急性照護醫院、10家護理中心和3家照護機構,為美國最具知名的大型非營利醫療機構之一。這次重罰也告誡國內醫療機構當發生敏感性醫療個資外洩時應從嚴判斷,以避免民眾對醫療照護單位失去信任,確保國內醫療機構體系應恪遵HIPAA規範。
在喜愛使用民用電台的狂熱份子和那些想在汽車音響使用iPod的民眾的推波助瀾下,英國電訊局Ofcom計畫在2006年秋天鬆綁其對低功率FM傳輸器的管制。 在英國,利用像iTrip這樣調頻傳輸的小裝置,插在iPod、MP3 player、汽車音響或者其他無線電接收設備上來收聽FM廣播是不合法的。為了廣播系統不被干擾,英國1949年的無線電信法(UK Wireless Telegraphy Act of 1949)規定,唯有拿到FM廣播頻率執照者才有權使用該頻寬。不過,這項對低功率FM傳輸器的管制即將解除。 1949年的無線電信法是過時的。英國電訊局發現,只有極少數未經英國政府許可執照的廣播電台因違法被起訴,因為低功率的傳輸器會干擾廣播系統的可能性極低,當初制定該法的目的幾乎不會被影響。廣大消費者希望能透過車上立體音響來使用iPod聽音樂的需求也遽增,這都是促使Ofcom計畫開放原先限制的理由。 一份Ofcom的聲明指出了其鬆綁的目的:「任何降低法律負擔的目的,都是為了鼓勵創新廣播技術和應用發展。其中一個方式就是開放收聽廣播的設備的使用,解除有使用頻譜需求而需要申請執照的限制。」
歐盟議會發布《可信賴人工智慧倫理準則》2019年4月9日,歐盟議會發布《可信賴人工智慧倫理準則》(Ethics Guidelines for Trustworthy AI)。此次內容大致延續歐盟人工智慧高階專家小組(High-level Expert Group on Artificial Intelligence)於2018年12月18日發布的《可信賴人工智慧倫理準則草案》(Draft Ethics Guidelines for Trustworthy Artificial Intelligence)之內容,要求人工智慧須遵守行善(do good)、不作惡(do no harm)、保護人類(preserve human Agency)、公平(be fair)與公開透明(operate transparency)等倫理原則;並在4月9日發布的正式內容中更加具體描述可信賴的人工智慧的具體要件,共計七面向概述如下: 人類自主性和監控(Human agency and oversight):AI係為強化人類能力而存在,使人類使用者能夠做出更明智的決策並培養自身的基礎能力。同時,AI應有相關監控機制以確保AI系統不會侵害人類自主性或是引發其他負面效果。本準則建議,監控機制應可透過人機混合(一種整合人工智慧與人類協作的系統,例如human-in-the-loop, human-on-the-loop, and human-in-command)的操作方法來實現。 技術穩健性和安全性(Technical Robustness and safety):為防止損害擴張與確保損害最小化,AI系統除需具備準確性、可靠性和可重複性等技術特質,同時也需在出現問題前訂定完善的備援計劃。 隱私和資料治理(Privacy and data governance):除了確保充分尊重隱私和資料保護之外,還必須確保適當的資料治理機制,同時考慮到資料的品質和完整性,並確保合法近用資料為可行。 透明度(Transparency):資料、系統和AI的商業模型應該是透明的。可追溯性機制(Traceability mechanisms)有助於實現這一目標。此外,應以利害關係人能夠理解的方式解釋AI系統的邏輯及運作模式。人類參與者和使用者需要意識到他們正在與AI系統進行互動,並且必須了解AI系統的功能和限制。 保持多樣性、不歧視和公平(Diversity, non-discrimination and fairness):AI不公平的偏見可能會加劇對弱勢群體的偏見和歧視,導致邊緣化現象更為嚴重。為避免此種情況,AI系統應該設計為所有人皆可以近用,達成使用者多樣性的目標。 社會和環境福祉(Societal and environmental well-being):AI應該使包含我們的後代在內的所有人類受益。因此AI必須兼顧永續發展、環境友善,並能提供正向的社會影響。 問責制(Accountability):應建立機制以妥當處理AI所導致的結果的責任歸屬,演算法的可審計性(Auditability)為關鍵。此外,應確保補救措施為無障礙設計。
任意丟棄客戶資料 英國銀行因而違法有鑑於英國14家銀行及金融公司被發現有任意丟棄客戶個人資料而違反「資料保護法」(Dada Protection Act)的情形,英國資訊官辦公室(Information Commissioner´s Office,ICO)於2007年3月17日要求其中11家銀行及金融公司簽署一份承諾書,保證其將來在處理客戶資料時必當遵守資料保護法的規定。 資訊官辦公室次長表示,銀行及金融公司應該以嚴肅的態度來處理客戶資料安全性的問題,否則,他們不但要接受資訊官辦公室更進一步的資訊安全審核,而且還會失去客戶對其之信賴。再者,若這些組織仍不遵守其簽署的承諾書,除了可能對遭到行政罰外,甚至還可能需要負擔違反資料保護法的刑事責任。 除了資訊官辦公室,英國的金融服務局(Financial Services Authority,FSA)亦有權針對違反資料保護法規定之金融公司加以執法。今年2月,英國房屋抵押貸款協會(Nationwide Building Society)便在金融服務局的資訊安全審核中,因為其使客戶資料暴露在可能遭竊的風險下而被處以1百萬鎊的罰金。
英國與新加坡監管沙盒機制概述