歐盟認可紐西蘭已提供相當於歐盟保護層級之個人資料保護

  在2012年12月19日,歐盟執委會宣布一項決議,該決議認可紐西蘭為已提供相當於歐盟保護層級之個人資料保護的國家;根據1995年歐盟個人資料保護指令(EU Data Protection Directive of 1995),此決議將使位於歐盟會員國(目前為27國)的事業,可以不必採取額外的防護措施,即可將個人資料自歐盟會員國傳輸到紐西蘭。

 

  根據歐盟個人資料保護指令,個人資料不許被傳輸至歐盟會員國以外的國家,除非這些國家被歐盟執委會認可為,已提供相當於歐盟保護層級的個人資料保護;或此些國家對上述傳輸已採取額外的防護措施,例如已取得當事人之同意,或已於相關契約內附有經歐盟認可之個人資料保護相關契約條款。歐洲經濟區(EuropeanEconomic Area;簡稱EEA)內的另三個國家,亦即挪威、冰島、列支敦士登,亦因EEA條約(Agreement on the European Economic Area)之約束,而須遵行個人資料保護指令。

 

  由於上述認可的過程相當嚴格而繁複,目前已取得歐盟執委會上述認可的非歐洲國家,除了紐西蘭之外,僅有例如,加拿大、阿根廷、以色列、澳洲等少數國家;至於歐洲國家亦僅有例如瑞士、安道爾等數國。

相關連結
※ 歐盟認可紐西蘭已提供相當於歐盟保護層級之個人資料保護, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=5929&no=64&tp=1 (最後瀏覽日:2025/12/14)
引註此篇文章
你可能還會想看
線上遊戲「Second Life」大筆玩家資料外洩

  線上遊戲新奇的聲光效果與眾多同儕參與的凝聚感,吸引全球玩家爭先投入此一新興娛樂領域之際,遊戲本身的安全性卻也格外值得重視。知名的線上遊戲「 Second Life 」驚傳個人資料外洩事件,遊戲營運商「 Linden Lab 」 9 月 10 號發布公開聲明,表示「 Second Life 」遊戲伺服器於同月 6 日遭到駭客入侵,總計約有 65 萬名玩家的個人資料遭竊。   廣受全球玩家青睞的多人線上角色扮演遊戲( Massive Multiplayer Online Role Playing Game ; MMORPG )「 Second Life 」採取全然的 3D 介面( three-dimensional ),遊戲當中所有的虛擬物件,包括角色、道具與各式各樣的配件均由個別玩家設計與創造,玩家可在遊戲中從事虛擬土地及建築物的買賣並賺取遊戲虛擬貨幣( Linden Dollars );玩家亦可將遊戲中獲取的虛擬貨幣於真實社會中進行現金交易。   營運商「 Linden Lab 」表示,此次駭客係利用「 Zero-Day Exploit 」技術滲透遊戲伺服器,外洩的個人資料包括了玩家姓名、住址、帳號密碼及其信用卡卡號等。 Linden Lab 除已要求所有的玩家立即更改密碼,並將在遊戲的部落格( blog )中提供新的安全方案。

日本簽署SBOM國際共通指引,強化軟體弱點管理,全面提升國家網路安全

由美國網路安全暨基礎設施安全局(Cybersecurity and Infrastructure Security Agency, 簡稱CISA)自2024年以來,持續主導並規劃《SBOM網路安全之共同願景》(A Shared Vision of Software Bill of Materials(SBOM) for Cybersecurity)之指引訂定,作為保障網路安全之國際共通指引。於2025年9月3日,由日本內閣官房網路安全統括室為首,偕同經濟產業省共同代表日本簽署了該份指引,包含日本在內,尚有美國、德國、法國、義大利、荷蘭、加拿大、澳洲、紐西蘭、印度、新加坡、韓國、波蘭、捷克、斯洛伐克等共計15個國家的網路安全部門,皆同步完成簽署。以下為指引之重點內容: 1. 軟體物料清單的定位(Software Bill of Materials, 簡稱SBOM) SBOM於軟體建構上,包含元件內容資訊與供應鏈關係等相關資訊的正式紀錄。 2. 導入SBOM的優點 (1) 提升管理軟體弱點之效率。 (2) 協助供應鏈風險管理(提供選用安全的軟體,提升供應商與使用者之間溝通效率)。 (3) 協助改善軟體開發之進程。 (4) 提升管理授權軟體之效率。 3. SBOM對於利害關係人之影響 (1) 使軟體開發人員可選擇最符合需求的軟體元件,並針對弱點做出適當處置。 (2) 軟體資訊的透明化,可供採購人員依風險評估決定是否採購。 (3) 若發現軟體有新的弱點,使軟體營運商更易於特定軟體與掌握弱點、漏洞。 (4) 使政府部門於採購流程中,發現與因應影響國家安全的潛在風險。 4. SBOM適用原則與相關告知義務 確保軟體開發商、製造商供應鏈的資訊透明,適用符合安全性設計(Security by Design)之資安要求,以及須承擔SBOM相關告知義務。 近年來軟體物料清單(SBOM),已逐漸成為軟體開發人員與使用者,於管理軟體弱點上的最佳解決方案。然而,針對SBOM的作法與要求程度,各先進國家大不相同,因此透過國際共通指引的簽署,各國對於SBOM的要求與效益終於有了新的共識。指引內容不僅建議軟體開發商、製造商宜於設計階段採用安全設計,以確保所有類型的資通訊產品(特別是軟體)之使用安全,也鼓勵製造商為每項軟體產品建立SBOM並進行管理,包含軟體版本控制與資料更新,指引更強調SBOM必須整合組織現有的開發與管理工具(例如漏洞管理工具、資產管理工具等)以發揮價值。此份指引可作為我國未來之參考借鏡,訂定相關的軟體物料清單之適用標準,提升政府部門以及產業供應鏈之網路安全。

歐盟針對體外診療器材提出新管制架構,預期將於2015年正式實施

  歐盟對於體外診療器材(In Vitro Diagnostic Medical Devices,以下簡稱IVDs)之管制,最早起始於1998年的體外診療器材指令(Directive 98/79/EC on In Vitro Diagnostic Medical Devices,以下簡稱「1998年IVDD指令」),該指令依IVDs是否具有侵入性、接觸病人的時間長短及是否需要能源加以驅動等條件,進一步區分為四種風險等級:第1級(Class I)-低風險性、第2a級(Class IIa)-低至中風險性、第2b級(Class IIb)-中至高風險性、第3級(Class III)-高風險性。Class I因風險性最低,故1998年IVDD指令僅要求廠商建立品管系統、保留產品技術檔案、並自為符合性聲明後,即得於市場上流通;Class IIa與Class IIb則由於風險略高,所建立之品管系統需經過「符合性評鑑」;而Class III的風險最高,故其品管系統除須符合前述要求外,更應由經歐盟認證的代檢機構(Notified Body)進行審查,通過前述評鑑及審查後,始可於歐洲市場流通使用。   然而,隨著科學及技術的進步,市場上不斷出現創新性的產品,使得1998年IVDD指令已逐漸無法滿足管理需求,輔以各會員國對於指令的解釋和實施各有不同,致使歐盟內部在病患及公共健康的保護上有程度不一的落差,為歐盟單一市場的運作埋下隱憂。因此,歐盟執委會(European Commission)於2012年9月26日提出新的管制架構(Proposal for a Regulation of the European Parliament and of the Council on in vitro diagnostic devices),其主要變革包括: 1. 擴大IVDs的定義:將IVDs的範圍擴及用以獲取醫療狀況或疾病罹患傾向資訊(如基因檢測)的器材及醫療軟體(medical software)等。 2. 新的分類標準及評估程序:將診療器材重新分為A、B、C、D四類,A類為風險最低,D類為風險最高。A類維持原先1998年IVDD指令中的廠商自我管控機制,但當A類器材欲進行臨床測試(near-patient testing)、具備評量功能或用於殺菌者,須先由代檢機構就其設計、評量功能及殺菌過程進行驗證。B類器材因風險略高,故須通過代檢機構之品管系統審查;C類產品除品管系統審查外,需再提交產品樣本的技術文件;而D類由於風險最高,除前述品管系統審查外,需經過核准使能進入市場。至於A、B、C、D類產品進入市場後,代檢機構會定期進行上市後(the post-market phase)監控。 3. 導入認證人員(qualified person,簡稱GP):診療器材製造商應於組織內導入GP人員,負責確保製造商組織內部的一切法令遵循事宜。 4. 落實提升透明度(transparency)之相關措施:為確保醫療器材的安全性和效能,要求:(1) 歐盟市場內之經濟經營商(economic operator)應能夠辨認IVDs的供應者及被供應者;(2) 製造商應將單一裝置辨識碼(Unique Device Identification)導入產品中,以利日後之追蹤;(3) 歐盟單一市場中的所有製造商及進口商,應將其企業及產品資訊於歐洲資料庫(European database)中進行註冊;(4) 製造商有義務向大眾公開高風險性裝置的安全性與效能等相關說明資訊。   歐盟執委會已提交新管制架構予歐洲議會,若順利通過將可望於2015年起正式實施,未來將對歐洲IVDs產業有何影響,值得持續觀察之。

歐盟執委會公布《可信賴的AI政策及投資建議》

  歐盟執委會於2018年6月成立人工智慧高級專家組(The High-Level Expert Group on Artificial Intelligence, AI HLEG),主要負責兩項工作:(1)人工智慧倫理準則;(2)人工智慧政策與投資建議。並於2019年4月8日提出《可信賴的人工智慧倫理準則》(Ethics Guidelines for Trustworthy AI),2019年6月公布之《可信賴的AI政策及投資建議》(Policy and Investment Recommendations for Trustworthy Artificial Intelligence)則是人工智慧高級專家組所交付之第二項具體成果。   該報告主要分為兩大部分,首先第一部分是要透過可信賴的人工智慧建立對歐洲之正面影響,內容提及人工智慧應保護人類和社會,並促進歐洲公司各部門利用人工智慧及技術移轉,而公部門則扮演人工智慧增長及創新之催化劑,以確保歐洲具有世界一流之研究能力;第二部分則是影響歐洲各成員國建立可信賴之人工智慧,內容則提及將發展人工智慧相關基礎設施、教育措施、政策規範及資金投資,同時合法、有道德的使用各項數據。   在本報告中關於法規面的建議則是進一步制定政策和監管框架,確保人工智慧在尊重人權、民主及創新下發展,因此將建立人工智慧政策制定者、開發者及用戶間的對話機制,若是遇到將對社會或是人類產生重大影響之敏感性人工智慧系統,除透過歐洲人工智慧聯盟(The European AI Alliance)進行對話之外,也需要在尊重各成員國之語言及文化多樣性下展開協調機制。另外,報告中也特別提到如果政府以「保護社會」為由建立一個普遍的人工智慧監督系統是非常危險的作法,政府應該承諾不對個人進行大規模監視,並在遵守法律及基本權利下進行人工智慧系統之發展。

TOP