加拿大配合數位隱私法之推行,公告安全防護措施違反之規則草案

  加拿大數位隱私法(Digital Privacy Act)於2015年6月18日獲得皇室御准,該法目的係為修訂規範私部門運用個人資料的聯邦個人資料保護及電子文件法(Personal Information Protection and Electronic Documents Act, PIPEDA)。該法有多個章節於公告時便即刻施行,但仍有部分章節需待日後其他行政機關公告配套之法規後始能正式施行,例如該法的重點章節之一:「安全防護措施之違反」(Breaches of Security Safeguards)。

  歷經約莫兩年,加拿大創新、科學及經濟發展部(Innovation, Science and Economic Development Canada)於2017年9月2日公告安全防護措施違反之規則草案(Breaches of Security Safeguards Regulations),以及規則衝擊分析聲明(Regulatory Impact Analysis Statement)。草案自公告時起開放30天供相關利益關係人發表意見,未來將和數位隱私法的「安全防護措施之違反」同時生效施行。

  草案制定目的在於確保加拿大本國人若遇有資料外洩且具有損害風險時,可收到精確的相關資訊。私部門對本人的通知應包含使本人可理解外洩的衝擊和影響的詳細資訊。草案確保加拿大個人資料保護公署(Office of the Privacy Commissioner of Canada)之專員亦能獲得有關資料外洩的確實且對等資訊,並可監督、確認私部門遵守法規並執行。草案詳載私部門於通報個人資料保護公署時應提交的資訊,以及通知本人時應提供的資訊,且不限制私部門額外提供其他資訊。遇有資料外洩情事而故意不即時通報個人資料保護公署或通知本人者,最高將可處十萬美金罰鍰。

相關連結
你可能會想參加
※ 加拿大配合數位隱私法之推行,公告安全防護措施違反之規則草案, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=7885&no=57&tp=1 (最後瀏覽日:2026/03/29)
引註此篇文章
你可能還會想看
美國國家製造創新網絡2016年度報告

  依2014年復甦美國製造與創新法(Revitalize American Manufacturing and Innovation (RAMI) Act of 2014),美國國家製造創新網絡計畫於2016年2月公布年度報告(Annual Report)。國家製造創新網絡計畫的目標是處理發生於執行面的、介於初期基礎研究與技術布建之間的製造技術轉型(manufacturing related technology transition)挑戰。   國家製造創新網絡計畫的關鍵核心之一,是連結創新與製造,而「研發機構」(Institute)在這當中扮演最為關鍵的角色。此所稱之研發機構,係指2013年「國家製造創新網絡先期規劃」(NNMI-PD)以及2014年復甦美國製造與創新法(RAMI Act of 2014)第278s條(c)項所界定之「製造創新中心」(center for manufacturing innovation)——其採公私合營制(public-private partnership),其成員可包括各該業界之業者與學研機構,以及商務部長認屬適當之產業聯盟(industry-led consortia)、技職教育學校、聯邦政府所屬實驗室、以及非營利機構等。「研發機構」將以上之利害關係各方匯聚形成一個創新生態系(innovation ecosystem),以共同因應高風險之製造業挑戰並協助製造業者維持並提升產能與競爭力。   我國於民國105年7月由行政院核定通過之「智慧機械產業推動方案」,亦規劃透過「智機產業化」與「產業智機化」,建構智慧機械產業生態體系,整合產學研能量,並深化智慧機械自主技術中長期布局與產品創新。

歐洲食品安全局頒佈利益申報實施細則

  為了有效管理歐洲食品安全局(European Food Safety Authority, EFSA)內部各項活動間之利益管控與監督,EFSA日前於3月5日公布利益申報(Declarations of Interest, DOIs)施行規則(Implementing Rules),並計畫於2012年7月1日正式實施,且同時搭配一個為期4個月的過渡(Transition Period)配套措施方案。該利益申報施行規則,乃為EFSA於今年初所核准之「獨立性與科學決策過程」(Independence and Scientific Decision-Making Processes)政策的基礎規範項目之一。   本次EFSA所頒布之利益申報施行規則,其訂定之理由係因,原任職於EFSA旗下基因工程植物之首席風險評估專家,轉任至一家專門研發及生產該種植物之生物科技公司;為避免並且釐清相關因該事件所衍生之利益衝突問題,乃制定本規範。故此,為具體有效管理EFSA內部人員與其他涉及EFSA各項活動之機構間的利益監督事宜,EFSA遂進一步於今年初開始著手進行相關措施之規劃。目前該利益申報施行規則除了主要針對EFSA旗下之各層級人員訂定各項利益類型之規範準則外,更重要的是,其亦提供其旗下之專業科學研究人員,各項能有效具體確認其利益界線之劃分的保護措施。由於該利益申報施行規則授與EFSA選取與管理利益申報議題若干彈性,因此EFSA能具體且有效的利用相關規範延攬頂尖研究人員,進而協助EFSA提升其內部研發人員之創新研發能力。   政府機關成員之利益申報與迴避問題,乃為全球各國政府需面對之問題,而對於如何有效且彈性的進行相關議題之管控,更是相關政策制訂時需加以考量之點。EFSA之利益申報施行規則不僅有效管理內部人員之利益衝突與申報問題,同時亦藉由彈性的管理規範方式,延攬優秀頂尖人才,達到具體提升研發水準之功效;對此,EFSA之規範方式與運作成效,實值得加以觀察與效仿。

日本經產省修訂網路安全經營指引

  日本經濟產業省與獨立行政法人資訊處理推進機構(IPA)於2017年11月16日修正並公佈「網路安全經營指引」(サイバーセキュリティ経営ガイドライン)。經產省與獨立行政法人資訊處理推進機構為推動網路安全對策,以經營者為對象於2015年12月制定「網路安全經營指引」。惟因近年來網路攻擊越發頻繁,且攻擊方式亦越來越多樣化,僅透過事前對策無法妥善因應網路攻擊問題,故日本經產省與獨立行政法人資訊處理推進機構合作,參考歐美等國網路安全對策修正方向,擬加強企業事後檢測、應對和復原措施,並舉辦「網路安全經營指引修正研究會」,修訂「網路安全經營指引」。   本次修正未更改經營者應認識之三大原則︰(1)經營者應對網路安全有所認知,並作為領者者採取對策;(2)商業夥伴和委託者在內之供應鍊安全對策;(3)不論平時或緊急時,網路安全相關資訊之公開應與關係者進行適當溝通,而是修正10大經營重要項目中第5項、第8項和第9項,分別為︰(1)「建構網路安全風險應對措施」加入包含「攻擊檢測」在內之風險應對措施;(2)「事件被害復原體制之整備」加入「遭受網路攻擊時復原之準備」;(3)「包含商業夥伴和委託者在內之全體供應鍊對策及狀況掌握」加入「供應鍊對策強化」等記載。 日本政府希望透過上開指引之修正,建構安全之網路經營環境。

經濟合作與發展組織發布《促進AI可歸責性:在生命週期中治理與管理風險以實現可信賴的AI》

經濟合作與發展組織(Organisation for Economic Co-operation and Development, OECD)於2023年2月23日發布《促進AI可歸責性:在生命週期中治理與管理風險以實現可信賴的AI》(Advancing accountability in AI: Governing and managing risks throughout the lifecycle for trustworthy AI)。本報告整合ISO 31000:2018風險管理框架(risk-management framework)、美國國家標準暨技術研究院(National Institute of Standards and Technology, NIST)人工智慧風險管理框架(Artificial Intelligence Risk Management Framework, AI RMF)與OECD負責任商業行為之盡職調查指南(OECD Due Diligence Guidance for Responsible Business Conduct)等文件,將AI風險管理分為「界定、評估、處理、治理」四個階段: 1.界定:範圍、背景、參與者和風險準則(Define: Scope, context, actors and criteria)。AI風險會因不同使用情境及環境而有差異,第一步應先界定AI系統生命週期中每個階段涉及之範圍、參與者與利害關係人,並就各角色適用適當的風險評估準則。 2.評估:識別並量測AI風險(Assess: Identify and measure AI risks)。透過識別與分析個人、整體及社會層面的問題,評估潛在風險與發生程度,並根據各項基本價值原則及評估標準進行風險量測。 3.處理:預防、減輕或停止AI風險(Treat: Prevent, mitigate, or cease AI risks)。風險處理考慮每個潛在風險的影響,並大致分為與流程相關(Process-related)及技術(Technical)之兩大處理策略。前者要求AI參與者建立系統設計開發之相關管理程序,後者則與系統技術規格相關,處理此類風險可能需重新訓練或重新評估AI模型。 4.治理:監控、紀錄、溝通、諮詢與融入(Govern: Monitor, document, communicate, consult and embed)。透過在組織中導入培養風險管理的文化,並持續監控、審查管理流程、溝通與諮詢,以及保存相關紀錄,以進行治理。治理之重要性在於能為AI風險管理流程進行外在監督,並能夠更廣泛地在不同類型的組織中建立相應機制。

TOP