澳洲發布「數位健康2018-2019年報」針對「我的健康紀錄系統」提出檢討及建議

  澳洲隱私保護辦公室(Office of the Australian Information Commissioner, OAIC)於2019年11月發布「2018-2019年數位健康年報」,其中針對「我的健康紀錄系統」(My Health Record System)日前發生資料外洩事件提出檢討及隱私建議。

  「我的健康紀錄系統」於2012年開始由澳洲數位健康局(Australian Digital Health Agency)負責維運,所有健康報告以電子形式通過網站存檔或讀取,包括處方藥紀錄、醫生診療記錄、影像檢查以及其它測試紀錄等,所有資訊將置於網路並授權醫療專業人員,例如醫生、藥劑師、醫院工作人員和專職醫療人員(例如護士或物理治療師),均可登錄查詢。

  「我的健康紀錄系統」原先以民眾自願選擇加入模式運作,以選擇性線上註冊方式概括同意健康資料存取。隨後為促進醫療產業發展,澳洲政府宣布「我的健康紀錄系統」全國適用並提供退出機制至2019年1月31日。而2018年澳洲修訂「我的健康紀錄法」(My Health Records Act 2012)強化個人資料管理相關規範,例如:提供永久刪除權、不得適用於保險目的、違反關鍵隱私保護而增加民事和刑事處罰等。

  「2018-2019年數位健康年報」指出,隨著「我的健康紀錄系統」於2019年2月從選擇性註冊模式變為退出模式,關於隱私疑慮的查詢和投訴大幅增加。2018年至2019年OAIC收到57件投訴案,OAIC更對數位醫療產業中的受監管企業進行隱私評估,包括私人醫院、藥房等。為解決民眾疑慮,「我的健康紀錄法」修訂賦予永久刪除權,使投訴數量開始遞減,OAIC亦為醫療服務提供者發布有關保護患者個人健康資料相關指引,並與衛生部門組織合作,促進良好的隱私保護觀念,以增進健康服務提供者對預防和應對資料外洩的理解。

相關連結
你可能會想參加
※ 澳洲發布「數位健康2018-2019年報」針對「我的健康紀錄系統」提出檢討及建議, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8357&no=57&tp=1 (最後瀏覽日:2025/12/01)
引註此篇文章
你可能還會想看
歐盟法院認為設立歐洲專利法院違反歐盟條約

  歐盟最高法院(European Court of Justice, ECJ)於2011年03月08日發表裁定,認為歐盟會員國所提出有關設立單一歐洲專利法院來統一受理歐盟境內專利訴訟之草案協議係違反歐盟條約,此裁定對於推動歐洲單一專利制度(unitary patent)勢必為一大打擊。   在此草案協議中,歐盟會員國及歐洲專利公約(European Patent Convention)締約國屬意設立一個全新的歐洲專利法院,並賦予其歐洲專利及未來歐洲單一專利相關的法律訴訟之管轄權,其架構下將有初審法院(court of first instance)、上訴法院(court of appeals)及專利註冊處(registry)。歐盟會員國在2009年時就此草案協議是否符合歐盟條約提請歐盟最高法院出具意見。   而歐盟高法院認為協議所設立之歐洲專利法院係屬歐盟架構外之國際法庭,但仍有權受理歐盟境內之專利訴訟案件,並對歐盟法律提出解釋與應用,這會剝奪歐盟會員國司法機關對專利案件的管轄權及其向歐盟最高法院申請初步裁決(preliminary ruling)等權益,以上都會影響到賦予給歐盟機構和歐盟會員國之重要權力,此為歐盟條約最基本之要件,因此,若設立歐洲專利法院將不符合歐盟法律。歐洲目前的專利制度常被視為非常繁瑣及昂貴,雖然當事人可以向歐洲專利局(European Patent Office)統一申請專利,但仍需經過各國專利局一一承認後方有效力,這明顯增加在歐洲申請專利之成本。另外,專利訴訟均屬歐洲各國法院之管轄,因此若有需要,當事人必須逐一在各國法院提出告訴,以保障其在歐洲的專利權,另又各國法院針對同一個專利也有可能會做出不同的判決,亦會造成專利權在歐洲市場執行的不便。因此,歐盟國家近年來持續推動歐洲專利制度改革,除了希望能在歐洲能建立單一專利制度之外,歐洲專利法院的設立以統一專利訴訟制度也是推動的改革之一。   歐盟最高法院03月08日的裁決是否會影響歐洲單一專利制度的推動,仍有待觀察,而歐盟委員會(EU Commission)針對此裁定表示將謹慎分析歐盟最高法院的判決並進一步構想適當的解決方案。另一方面,歐盟理事會(EU Council)已於03月10日發表聲明,宣布啟動強化合作(enhanced cooperation)機制以繼續朝向單一歐洲專利制度邁進。

加拿大公布新的企業個資保護自評工具

  加拿大聯邦政府與亞伯達省(Alberta)及英屬哥倫比亞省(British Columbia)的隱私委員會針對一般企業,聯合推出新的個人資料保護自我評量線上工具,該線上工具之內容包括風險管理、政策、記錄管理、人力資源安全、物理安全、系統安全、網路安全、無線、資料庫安全、作業系統、電子郵件和傳真安全、資料完整性和保護、存取控制、信息系統獲取,開發和維護、事件管理、業務連續性規劃、承諾等項目之評估測驗。   聯合制定該線上自我評量工具的隱私委員辦公室表示,該線上工具可用於任何私人組織,特別是小型及中小型企業,而且新的線上工具是針對企業為一全面性的評估,並且該評估的內容十分鉅細靡遺。另外,為了提供使用者於使用該線上工具時的靈活性,故使用者亦可以將重點放在最切合自己的企業的部分,亦即僅選擇其中一項或數項為自我評估的內容即可。   又,該線上自我評量工具會將使用者的自我評估和分析過程的結果做成結論,而使用者可以獲得該分析得出之結論,並將作成之結論用來有系統地為評估組織本身的個人資料保護安全性,並藉以提高個人資料保護的安全。

日本成立供應鏈資通安全聯盟(Supply Chain Cybersecurity Consortium)

  日本經濟產業省(下稱經產省)於2020年6月12日發布其國內產業資通安全現況與將來對策(昨今の産業を巡るサイバーセキュリティに係る状況の認識と、今後の取組の方向性)報告,指出近期針對供應鏈資通安全弱點企業所展開的攻擊,有顯著增長趨勢。為此,該報告建議共組供應鏈的企業間,應密切共享資訊;於關鍵技術之相關資訊有外洩之虞時,應向經產省提出報告;若會對多數利害關係人產生影響,並應公開該報告。遵循該報告之建議要旨,同年11月1日在各產業主要的工商團體引領下,設立了「供應鏈資通安全聯盟(原文為サプライチェーン・サイバーセキュリティ・コンソーシアム,簡稱SC3)」,以獨立行政法人資訊處理推進機構(独立行政法人情報処理推進機構,IPA)為主管機關。其目的在於擬定與推動供應鏈資通安全之整體性策略,而經產省則以觀察員(オブザーバー)的身分加入,除支援產業界合作,亦藉此強化政府與業界就供應鏈資通安全議題之對話。   只要贊同上述經產省政策方向與聯盟方針,任何法人或個人均得參加SC3。針對產業供應鏈遭遇資安攻擊的問題,經產省與IPA已有建構「資通安全協助隊(サイバーセキュリティお助け隊)」服務制度(以下稱協助隊服務),邀集具相關專長之企業,在其他企業遭遇供應鏈資安攻擊時,協助進行事故應變處理、或擔任事故發生時之諮詢窗口。而SC3則規畫為這些參與提供協助隊服務的企業建立審查認證制度。其具體任務包含擬定認證制度的審查基準草案、以及審查機關基準草案,提供IPA來建構上述基準。依該制度取得認證的企業,將獲授權使用「資通安全協助隊」的商標。同時在業界推廣協助隊服務制度,讓取得認證的中小企業得以之為拓展其業務的優勢與宣傳材料。

人權組織向法國最高行政法院提交申訴,要求政府停止使用歧視性演算法

.Pindent{text-indent: 2em;} .Noindent{margin-left: 2em;} .NoPindent{text-indent: 2em; margin-left: 2em;} .No2indent{margin-left: 3em;} .No2Pindent{text-indent: 2em; margin-left: 3em} .No3indent{margin-left: 4em;} .No3Pindent{text-indent: 2em; margin-left: 4em} 國際特赦組織(Amnesty International)與法國數位隱私權倡議團體La Quadrature du Net(LQDN)等組織於2024年10月15日向法國最高行政法院提交申訴,要求停止法國國家家庭津貼基金機構(Caisse nationale des allocations familiales,CNAF)所使用的歧視性風險評分演算法系統。 CNAF自2010年起即慣於使用此系統識別可能進行福利金詐欺的對象,該系統演算法對獲取家庭與住房補助的對象進行0至1之間的風險評分,分數越接近1即越可能被列入清單並受調查,政府當局並宣稱此系統將有助於提升辨識詐欺與錯誤的效率。 LQDN取得該系統的原始碼,並揭露其帶有歧視性質。該等組織說明,CNAF所使用的評分演算法自始即對社會邊緣群體如身心障礙者、單親家長,與低收入、失業、居住於弱勢地區等貧困者表現出懷疑態度,且可能蒐集與系統原先目的不相稱的資訊量,這樣的方向直接違背了人權標準,侵犯平等、非歧視與隱私等權利。 依據歐盟《人工智慧法》(Artificial Intelligence Act,下稱AIA),有兩部分規定: 1. 用於公機關評估自然人是否有資格獲得基本社會福利或服務,以及是否授予、減少、撤銷或收回此類服務的人工智慧系統;以及用於評估自然人信用或建立信用評分的人工智慧系統,應被視為高風險系統。 2. 由公機關或私人對自然人進行社會評分之人工智慧系統可能導致歧視性結果並排除特定群體,從此類人工智慧總結的社會分數可能導致自然人或其群體遭受不當連結或程度不相稱的不利待遇。因此應禁止涉及此類不可接受的評分方式,並可能導致不當結果的人工智慧系統。 然而,AIA並未針對「社會評分系統」明確定義其內涵、組成,因此人權組織同時呼籲,歐盟立法者應針對相關禁令提供具體解釋,惟無論CNAF所使用的系統為何種類型,因其所具有的歧視性,公機關皆應立即停止使用並審視其具有偏見的實務做法。

TOP