澳洲發布「健康隱私指引」以降低健康資料之隱私風險

  澳洲隱私保護辦公室(Office of the Australian Information Commissioner, OAIC)於2019年9月發布「健康隱私指引」(Guide to health privacy)協助健康服務提供者了解及實踐相關規範所制定之隱私義務以確保個人資料安全。依據1988年澳洲隱私法(Privacy Act 1988)規定,健康服務指所有評估、維持、改善或管理個人健康狀況;或是診斷、治療或紀錄個人疾病或健康狀況之行為。而健康服務提供者除了醫院及醫療人員,更包含其他專業人員例如健身房及減肥診所、私立學校及托兒所、遠端醫療服務等所有涉及健康資料並提供健康服務之單位及人員。由於澳洲隱私法要求服務提供者必須積極建立、實施及維護隱私合法處理程序,為了協助所有健康服務提供者確實遵守法定義務,以減少健康資料之隱私風險問題,OAIC制定「健康隱私指引」提出八大步驟要求健康服務提供者確保遵守義務並保障所持有之個人資料:

  1. 制定並實施隱私管理計畫,確保遵守澳洲隱私原則(Australian Privacy Principles, APPs)。
  2. 制定明確的責任制以進行隱私管理,並及時提供員工幫助與指導。
  3. 建立個人資料檔案紀錄,以確認持有之個人資料。
  4. 了解法律規範之隱私義務並實施法定流程以履行義務。
  5. 定期舉辦員工隱私培訓課程以強化團隊基礎知識。
  6. 建立隱私權政策並於網頁上呈現或是提供手冊說明相關內容。
  7. 保護所持有之資料不被濫用、遺失或未經授權的修改及揭露等。
  8. 制定資料外洩因應措施,針對資料外洩進行危機處理。

 

相關連結
你可能會想參加
※ 澳洲發布「健康隱私指引」以降低健康資料之隱私風險, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8327&no=55&tp=1 (最後瀏覽日:2025/12/10)
引註此篇文章
你可能還會想看
美國科技公司指控六名中國人竊取科技公司營業秘密

  美國司法部起訴六名中國大陸公民,包含三名大學教授,在美從事商業間諜活動,自兩間科技公司竊取有關行動通訊技術的敏感資料,並已經提供中國大陸的大學及企業預備產製。如果罪名成立,最多可判刑15年。被竊取營業秘密包括載有薄膜體聲波共振器(FBAR)的原始碼、規格、配方等文件,主要應用在行動通訊,如平版、智慧型手機、GPS設備等消費性產品及軍事、國防通訊技術,其作用在於過濾無線訊號,改善通訊品質。   據報導,其中兩名被告張浩與龐慰為天津大學的教授,在美國南加州的一所大學攻讀電子工程學博士學位相識,期間獲得國防高等研究計劃署 (DARPA)提供的研究經費,研究FBAR技術。2005年取得學位後,分別進入Avago Technologies與Skyworks Solutions科技公司擔任FBAR工程師,並竊取分別屬於二公司的營業秘密。2006至2007年間,更開始接觸中國大陸的大學,尋找生產FBAR技術的可能性,最終得到天津大學支援,在中國大陸建立FBAR技術中心,更在2009年分別自二科技公司離職,擔任天津大學的全職教授,同時合資成立ROFS精密儀器公司,計畫生產FBAR產品,並已和企業和軍方簽訂契約。   美國政府表示,外國機構利用在美國活動的個人從事商業間諜活動,竊取美國企業投入高額成本開發的技術資料,將造成美國企業的重大損失,削弱市場競爭力,最終損害美國在全球經濟的利益,故將持續調查、蒐集不法證據,以打擊商業間諜活動與制止竊取營業秘密為首要任務。

歐盟統一專利制度可望於2014年實施

  在歷經超過三十年的討論後,歐洲議會於12月11日通過統一專利制度包裹草案。在統一專利制度下,省去申請生效的翻譯費用及程序,能夠節省最高八成的專利申請成本,可望增加歐盟的科技創新競爭力。   2011年在歐盟僅有6萬兩千個新專利申請被核准,遠少於美國同年的22萬4千個專利、中國的17萬2千個專利,其中一個主要原因是因為在歐盟申請專利的成本過高。目前申請歐盟專利除了透過各會員國專利局外,亦可以依據歐洲專利公約(European Patent Convention, EPC)向歐洲專利局(European Patent Office, EPO)申請,然核准後仍須向各會員國提交該國官方語言版本以生效,因此耗費大量程序及翻譯費用,平均每個專利需花費36,000歐元。   統一專利制度下,不論對於個人或公司發明人都能夠提供更便宜、更有效率的專利保護。統一專利制度包裹草案包含三個協議:統一專利制度、統一申請語言、統一專利法院。統一專利制度及統一申請語言建立適用於歐盟各國的專利制度,僅需以英文、德文或法文進行單一申請即可擁有25個會員國(除反對之義大利及西班牙外)自動專利保護,不需再另外申請生效,使得專利申請降至最低4,725歐元,大幅減少歐洲公司申請專利成本,增加歐洲企業競爭力,對於中小企業、研究機構幫助最大;另外,對於中小企業、非營利組織、自然人、大學及研究機構,若居住或主要營業處所位於歐盟內,以非統一申請語言提出申請案件通過後,會退還翻譯費用;針對中小企業也會降低專利維護費用。統一專利法院則能集中處理統一專利之爭端,預計設立於巴黎,並於倫敦及慕尼黑設立分院。   統一專利制度將在2014年1月1日生效,或是在13個會員國批准時生效(須含法國、德國及英國),歐盟專利局預計第一批適用新制的專利將於2014年4月被核准。

5G汽車協會發布《道路使用者保護白皮書》

  5G汽車協會(5G Automotive Association, 5GAA)於2020年8月24日發布「弱勢道路使用者保護白皮書」(Vulnerable Road User Protection),點出目前道路交通安全對相關道路使用者保護不足,同時揭示未來車聯網(V2X)可提供整體用路人更安全之道路交通環境。   白皮書指出,道路安全是交通政策關鍵,應透過科技技術與政策制定,共同實現道路安全目標。而根據目前統計數據,弱勢道路使用者(Vulnerable Road User,以下簡稱VRU),包含:「行人」、「騎自行車者」、「騎電動車者」、「道路施工者」、「輪椅使用者」及「滑板或是單輪車使用者」,其占交通事故之傷亡比例最高,幾乎超過半數之死亡人數均為VRU,未來更可能因環境或與健康因素,使道路交通使用者數量不斷提升,對VRU之保護將成為未來各國交通之關鍵。   技術層面,則是車輛感測器偵測VRU、路側設備(Roadside Unit, RSU)、行動邊緣計算技術(Mobile Edge Computing, MEC)等,並進一步應用於車聯網下之不同案例情況:(1)高度風險區域:例如車輛進入行人密度極高的地區,透過感測器發出警訊,以即時警惕人車彼此存在,降低視線死角之事故發生率。(2)VRU與車輛透過裝置溝通:如車輛與VRU之間透過手機等設備傳輸相關資料並通訊。(3)車輛透過安全演算系統與VRU及各項設施交換訊息:此項涉及車聯網通訊應用下,車與車(V2V)和車與交通基礎設施(V2I)通訊,透過C-V2X PC5通訊技術軟體,使車輛、基礎設施與VRU之隨身電子設備之間得以進行通訊,降低事故碰撞發生。   綜上,未來應建立國際通用的車聯網之弱勢道路使用者保護標準,而非因區域而不同之標準,如目前美國汽車工程師協會之個人安全訊息標準(Personal Safety Messages, SAE PSM)及歐盟電信標準協會之弱勢道路使用者分布(Vulnerable Analysis Mapping , ETSI VAM),兩者在保護上即有所差異。VRU之保護服務是未來車聯網應用之關鍵與道路交通安全核心目標之一,相關系統與感測技術亦在不斷提升,未來更能融合感測器技術,並預測行人可能路徑,將全面提升道路安全。

人權組織向法國最高行政法院提交申訴,要求政府停止使用歧視性演算法

.Pindent{text-indent: 2em;} .Noindent{margin-left: 2em;} .NoPindent{text-indent: 2em; margin-left: 2em;} .No2indent{margin-left: 3em;} .No2Pindent{text-indent: 2em; margin-left: 3em} .No3indent{margin-left: 4em;} .No3Pindent{text-indent: 2em; margin-left: 4em} 國際特赦組織(Amnesty International)與法國數位隱私權倡議團體La Quadrature du Net(LQDN)等組織於2024年10月15日向法國最高行政法院提交申訴,要求停止法國國家家庭津貼基金機構(Caisse nationale des allocations familiales,CNAF)所使用的歧視性風險評分演算法系統。 CNAF自2010年起即慣於使用此系統識別可能進行福利金詐欺的對象,該系統演算法對獲取家庭與住房補助的對象進行0至1之間的風險評分,分數越接近1即越可能被列入清單並受調查,政府當局並宣稱此系統將有助於提升辨識詐欺與錯誤的效率。 LQDN取得該系統的原始碼,並揭露其帶有歧視性質。該等組織說明,CNAF所使用的評分演算法自始即對社會邊緣群體如身心障礙者、單親家長,與低收入、失業、居住於弱勢地區等貧困者表現出懷疑態度,且可能蒐集與系統原先目的不相稱的資訊量,這樣的方向直接違背了人權標準,侵犯平等、非歧視與隱私等權利。 依據歐盟《人工智慧法》(Artificial Intelligence Act,下稱AIA),有兩部分規定: 1. 用於公機關評估自然人是否有資格獲得基本社會福利或服務,以及是否授予、減少、撤銷或收回此類服務的人工智慧系統;以及用於評估自然人信用或建立信用評分的人工智慧系統,應被視為高風險系統。 2. 由公機關或私人對自然人進行社會評分之人工智慧系統可能導致歧視性結果並排除特定群體,從此類人工智慧總結的社會分數可能導致自然人或其群體遭受不當連結或程度不相稱的不利待遇。因此應禁止涉及此類不可接受的評分方式,並可能導致不當結果的人工智慧系統。 然而,AIA並未針對「社會評分系統」明確定義其內涵、組成,因此人權組織同時呼籲,歐盟立法者應針對相關禁令提供具體解釋,惟無論CNAF所使用的系統為何種類型,因其所具有的歧視性,公機關皆應立即停止使用並審視其具有偏見的實務做法。

TOP