加拿大配合數位隱私法之推行,公告安全防護措施違反之規則草案

  加拿大數位隱私法(Digital Privacy Act)於2015年6月18日獲得皇室御准,該法目的係為修訂規範私部門運用個人資料的聯邦個人資料保護及電子文件法(Personal Information Protection and Electronic Documents Act, PIPEDA)。該法有多個章節於公告時便即刻施行,但仍有部分章節需待日後其他行政機關公告配套之法規後始能正式施行,例如該法的重點章節之一:「安全防護措施之違反」(Breaches of Security Safeguards)。

  歷經約莫兩年,加拿大創新、科學及經濟發展部(Innovation, Science and Economic Development Canada)於2017年9月2日公告安全防護措施違反之規則草案(Breaches of Security Safeguards Regulations),以及規則衝擊分析聲明(Regulatory Impact Analysis Statement)。草案自公告時起開放30天供相關利益關係人發表意見,未來將和數位隱私法的「安全防護措施之違反」同時生效施行。

  草案制定目的在於確保加拿大本國人若遇有資料外洩且具有損害風險時,可收到精確的相關資訊。私部門對本人的通知應包含使本人可理解外洩的衝擊和影響的詳細資訊。草案確保加拿大個人資料保護公署(Office of the Privacy Commissioner of Canada)之專員亦能獲得有關資料外洩的確實且對等資訊,並可監督、確認私部門遵守法規並執行。草案詳載私部門於通報個人資料保護公署時應提交的資訊,以及通知本人時應提供的資訊,且不限制私部門額外提供其他資訊。遇有資料外洩情事而故意不即時通報個人資料保護公署或通知本人者,最高將可處十萬美金罰鍰。

相關連結
你可能會想參加
※ 加拿大配合數位隱私法之推行,公告安全防護措施違反之規則草案, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw//article-detail.aspx?d=7885&no=0&tp=1 (最後瀏覽日:2026/04/28)
引註此篇文章
你可能還會想看
世界經濟論壇發布《人工智慧公平性和包容性藍圖》白皮書

  世界經濟論壇(World Economic Forum, WEF)於2022年6月29日發布《人工智慧公平性和包容性藍圖》白皮書(A Blueprint for Equity and Inclusion in Artificial Intelligence),說明在AI開發生命週期和治理生態系統中,應該如何改善公平性和強化包容性。根據全球未來人類AI理事會(Global Future Council on Artificial Intelligence for Humanity)指出,目前AI生命週期應分為兩個部分,一是管理AI使用,二是設計、開發、部署AI以滿足利益相關者需求。   包容性AI不僅是考量技術發展中之公平性與包容性,而是需整體考量並建立包容的AI生態系統,包括(1)包容性AI基礎設施(例如運算能力、資料儲存、網路),鼓勵更多技術或非技術的人員有能力參與到AI相關工作中;(2)建立AI素養、教育及意識,例如從小開始開啟AI相關課程,讓孩子從小即可以從父母的工作、家庭、學校,甚至玩具中學習AI系統對資料和隱私的影響並進行思考,盡可能讓使其互動的人都了解AI之基礎知識,並能夠認識其可能帶來的風險與機會;(3)公平的工作環境,未來各行各業需要越來越多多元化人才,企業需拓寬與AI相關之職位,例如讓非傳統背景人員接受交叉培訓、公私協力建立夥伴關係、提高員工職場歸屬感。   在設計包容性方面,必須考慮不同利益相關者之需求,並從設計者、開發者、監督機關等不同角度觀察。本報告將包容性AI開發及治理整個生命週期分為6個不同階段,期望在生命週期中的每個階段皆考量公平性與包容性: 1.了解問題並確定AI解決方案:釐清為何需要部署AI,並設定希望改善的目標變量(target variable),並透過制定包容性社會參與框架或行為準則,盡可能實現包容性社會參與(特別是代表性不足或受保護的族群)。 2.包容性模型設計:設計時需考慮社會和受影響的利益相關者,並多方考量各種設計決策及運用在不同情況時之公平性、健全性、全面性、可解釋性、準確性及透明度等。 3.包容性資料蒐集:透過設計健全的治理及隱私,確定更具包容性的資料蒐集路徑,以確保所建立之模型能適用到整體社會。 4.公平和包容的模型開發及測試:除多元化開發團隊及資料代表性,組織也應引進不同利益相關者進行迭代開發與測試,並招募測試組進行測試與部署,以確保測試人群能夠代表整體人類。且模型可能隨著時間發展而有變化,需以多元化指標評估與調整。 5.公平地部署受信任的AI系統,並監控社會影響:部署AI系統後仍應持續監控,並持續評估可能出現新的利益相關者或使用者,以降低因環境變化而可能產生的危害。 6.不斷循環發展的生命週期:不應以傳統重複循環過程看待AI生命週期,而是以流動、展開及演變的態度,隨時評估及調整,以因應新的挑戰及需求,透過定期紀錄及審查,隨時重塑包容性AI生態系統。   綜上,本報告以包容性AI生態系統及生命週期概念,期望透過基礎設施、教育與培訓、公平的工作環境等,以因應未來無所不在的AI社會與生活,建立公司、政府、教育機構可以遵循的方向。

韓國《創業投資促進法》修正:明確創辦人連帶責任之適用範圍

韓國國會於2025年11月21日通過《創業投資促進法》(Venture Investment Promotion Act, VIPA)修正,並於同年12月30日經總統公布,將過往僅屬行政指導層級,建議投資契約不宜要求創辦人對受投資企業依法應負擔的營運責任或債務義務負連帶保證責任,提升為具有法律拘束力之規範。 過去韓國雖透過行政指導方式,建議投資契約不宜要求創辦人負連帶保證責任,但因缺乏法律強制力,投資方常基於契約自由原則,仍在契約中要求創辦人擔保,造成風險不對等,影響創辦人創業意願。 修法後原則上不得將受投資企業依法應負擔的營運責任或債務義務強加於創辦人,透過法律規範,改善創辦人與投資方間的締約地位不對等,使投資風險更回歸企業本身之經營表現與事業前景之評估,進而提升新創團隊取得資本市場資源之效率。然而,為在制度保障與契約自由間取得平衡,若創辦人涉及提供虛假資訊、違反資金用途、違規處分股票或嚴重違約等故意或重大過失行為,該規範將不適用,投資方仍可請求創辦人履行連帶保證義務。 此外,本次修法後,創業育成機構、加速器、創投公司等與創辦人簽訂投資契約之情況下,不得要求創辦人就受投資企業依法應負擔之營運責任或債務義務負連帶保證責任,旨在於創投生態中建立統一風險分攤標準,釐清企業債務與個人財務界線。 本法預計於2026年7月1日生效,但有關明確創辦人連帶責任之適用範圍之條文,依附則規定自2025年12月30日公布日起即刻施行,從法律層面確立對創辦人的保護,改善韓國創投領域的責任歸屬制度。

日本金融廳全面整治虛擬貨幣交易所

  今年1月底日本Coincheck虛擬貨幣交易所爆出最大規模的駭客攻擊事件後,日本金融廳開始擴大調查國內虛擬貨幣交易平台營運狀況;3月8日首次對2家虛擬貨幣交易平台業者Bit Station及FSHO祭出為期一個月「勒令停業」之行政處分,前者主因係公司內部高階主管擅自挪用客戶資金,違反資金結算法中用戶財產管理與用戶保護措施規範;後者則係發現多筆高額交易時,網路系統並未進行用戶認證,公司亦未對員工進行內部培訓課程,違反資金結算法中關於用戶保護措施之規範。   同時,日本金融廳亦對Coincheck、Bicrements、GMO Coin、Tech Bureau,及Mr.Exchange等5家虛擬交易平台業者發布下令改善之行政處分,要求業者重新審視經營漏洞,限期建立有效且完善的風險管理系統、保護消費者機制、反洗錢與打擊資恐、資金管理系統、內部稽核與內部控制系統及用戶客服系統等,避免再度發生大型駭客攻擊事件。   另為能有效地建立虛擬貨幣交易市場管制規範,日本金融廳宣布成立「虛擬貨幣交易產業研究小組」,並由學者、金融業者及虛擬貨幣業者為主要成員,為將來虛擬貨幣市場可能面臨各種議題,研析相關監管政策及法制規範。   面對襲捲而來之虛擬貨幣交易經濟,日前法務部邀集金管會、內政部、央行、警政署、調查局等單位跨部會協商,並就管制面、執法面等持續進行研商;我國或可以日本該次事件為借鏡,於行政管制強度做適當之調整,尤其我國為亞太防制洗錢組織(APG)創始會員,而虛擬貨幣交易之匿名性,已成為反洗錢與反資恐之最大風險,隨著虛擬貨幣交易行為頻繁與發展態樣多變,日後對於虛擬貨幣交易之管制政策與範圍都將備受矚目。

從RFID的應用談科技變遷下的人權議題

TOP