物聯網時代的資料保護防線-以歐盟GDPR為中心

刊登期別
第28卷,第10期,2016年10月
 

本文為「經濟部產業技術司科技專案成果」

※ 物聯網時代的資料保護防線-以歐盟GDPR為中心, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=7665&no=64&tp=1 (最後瀏覽日:2026/02/17)
引註此篇文章
你可能還會想看
違反荷蘭資料保護法,Google恐遭罰1500萬歐元

  Google為了提供客製化的廣告服務,利用搜尋引擎、Youtube、Gmail及其他服務,在事前未告知並取得使用者同意的情況下,蒐集人們的資料(包括搜尋紀錄、電子郵件、第三方網站軌跡資料、位置資訊及影片觀看紀錄等)。歐洲各國隱私監管機構對此表示憂心,認為Google恐將以前所未有的規模,掌握使用者的一舉一動,紛紛投入調查工作,並相繼認為Google確實已經違反其內國法。   荷蘭資料保護局(Data Protection Authority, DPA)主席Jacob Kohnstamm於2014年12月15日表示,使用者有權知悉他們在某一平台輸入的資料,其他平台也可以利用它們,並要求Google在合併不同服務所取得的個人資料前,應以跳出不同視窗等方式供使用者點選,俾以取得其明示同意(unambiguous consent),僅只透過一般隱私條款,並不足以提供當事人清楚且一致的資訊(clear and consistent imformation)。   DPA希望Google不要再考驗他們的耐心,並揚言對Google處以1500萬歐元罰鍰,除非它在2015年2月底前完成改善。但面對DPA的最後通牒,Google僅回應,他們已經大幅修正了隱私權政策,很遺憾DPA仍作出這樣的決定,但他們將儘快與歐洲各國隱私監管機構就後續修訂方案進行討論。

美國發明法(America Invents Act)修正法案通過,為美國專利制度寫下里程碑

  美國參議院在2011年9月通過發明法修正案(Leahy-Smith America Invents Act),並經總統歐巴馬簽署同意公布,預計新修正的法案內容,將為美國專利制度寫下里程碑。觀察該法案幾項重要變革包括: 一、 專利權之取得:以先申請制(First to file)取代先發明制(First to invent),目的在於增進美國專利制度與國際專利制度的調和,以及確保發明人的權利保障可與國際普遍的制度接軌。新規定將自2013年3月16日開始實施。 二、 先前技術(prior art)之定義與新穎性優惠期(grace period):新法擴張先前技術(Prior Art)之範圍,申請專利之發明於申請日之前,如已見於刊物、已公開使用、已銷售或其他公眾所得知悉者,即因已公開而成為先前技術之一部分,喪失新穎性。惟在例外的情況下,申請專利之發明,在申請日前一年內由發明人或共同發明人自己,或間接透過第三人進行之公開行為等,則不被視為先前技術。 三、 支持小型企業或獨立發明人:修正條文要求美國專利及商標局(USPTO)應與相關智慧財產權協會合作,為小型企業或獨立發明人提供協助,並設立專利監察專案(Patent Ombudsman Program)提供申請專利之相關幫助,同時給予小型企業與微型實體(Micro Entities)最高75%的規費減免優惠。   美國在此次修正其發明法的過程中,納入過去25年來國際專利制度協商後的成果,雖有論者指出該法仍未解決部分問題,然而儘管有這些不足之處,新通過的法案仍解決了舊法時期不合理之處。

由美國「二十一世紀通訊與視訊接取無障礙法」談無障礙通訊傳播環境之建立

英國發布人工智慧網路資安實務守則

英國政府於2025年1月31日發布「人工智慧網路資安實務守則」(Code of Practice for the Cyber Security of AI,以下簡稱「實務守則」),目的是提供人工智慧(AI)系統的網路資安指引。該實務守則為英國參考國際上主要標準、規範後所訂定之自願性指引,以期降低人工智慧所面臨的網路資安風險,並促使人工智慧系統開發者與供應商落實基本的資安措施,以確保人工智慧系統的安性和可靠性。 由於人工智慧系統在功能與運作模式上與傳統網路架構及軟體有明顯的不同,因此產生新的資安風險,主要包含以下: 1. 資料投毒(Data Poisoning):在AI系統的訓練資料中蓄意加入有害或錯誤的資料,影響模型訓練結果,導致人工智慧系統產出錯誤推論或決策。 2. 模型混淆(Model Obfuscation):攻擊者有意識地隱藏或掩飾AI模型的內部運作特徵與行為,以增加系統漏洞、引發混亂或防礙資安管理,可能導致AI系統的安全性與穩定性受損。 3. 輸入間接指令(Indirect Prompt Injection):藉由輸入經精心設計的指令,使人工智慧系統的產出未預期、錯誤或是有害的結果。 為了提升實務守則可操作性,實務守則涵蓋了人工智慧生命週期的各階段,並針對相關角色提出指導。角色界定如下: 1. 人工智慧系統開發者(Developers):負責設計和建立人工智慧系統的個人或組織。 2. 人工智慧系統供應鏈(Supply chain):涵蓋人工智慧系統開發、部署、營運過程中的的所有相關個人和組織。 實務守則希望上述角色能夠參考以下資安原則,以確保人工智慧系統的安全性與可靠性: 1. 風險評估(Risk Assessment):識別、分析和減輕人工智慧系統安全性或功能的潛在威脅的過程。 2. 資料管理(Data management):確保AI系統整個資料生命週期中的資料安全及有效利用,並採取完善管理措施。 3. 模型安全(Model Security):在模型訓練、部署和使用階段,均應符合當時的技術安全標準。 4. 供應鏈安全(Supply chain security):確保AI系統供應鏈中所有利益相關方落實適當的安全措施。 「人工智慧網路資安實務守則」藉由清晰且全面的指導方針,期望各角色能有效落實AI系統安全管控,促進人工智慧技術在網路環境中的安全性與穩健發展。

TOP