德國聯邦內政部對歐盟部長會議「資料保護基本規則」(Datenschutz-Grundverordnung)發表意見書,並提出修法建議

  德國聯邦內政部資料保護與資訊自由委員會於2015年8月15日針對歐盟部長會議於6月15日所確立對歐盟資料保護基本規則(Datenschutz-Grundverordnung)的基本立場,若依該立場則(1)資料處理目的之變更理由將變得更寬泛(2)對資訊保有機構所提出的申請程序以有償為原則(3)蒐集個人資料應遵循之規範過於簡略等,該委員會提出批評與建議。

  該委員會會議認為有必要改進歐盟「資料保護基本規則」,令其更周延,更呼籲對資料保護基本規則的修正,應循以下重點及原則進行:

1.資訊節約原則應該堅持

  多年來在德國法已確立的資訊節約原則(Datensparsamkeit)和資訊避免原則(Datenvermeidung),應予維持。因此資料保護基本規則中,須清楚詳盡地規定節約原則和資訊避免原則。

2.目的明確性原則的要求不能退縮

  目的明確性原則(der Grundsatz der Zweckbindung)之功能,係為資料處理之透明性和可預見性,該原則亦強化了當事人的資訊自主權,使其得以信賴個人資料之處理,僅限於所申請之目的內進行。

  故若依理事會建議之規範,使資料處理目的之變更,得以更寬泛的理由進行,將背棄歐盟基本權利憲章中之目的明確性原則。

3.即令個人同意書亦不得拋棄資訊主權

  資訊自決權,意謂原則上個人可以用同意的方式,決定個人資訊的使用和拋棄。但即使有清楚明確的意思表示,該同意亦僅係保障資訊主權的重要因素之一。另就同意書而言,若如歐盟部長理事會所建議者,只需清楚明確即可,則這種方式於保護上是不夠充分的。

4.個人資料建檔必須有效地限制

  該會議重申,嚴格規範對個人資料的蒐集有其必要性。為個人檔案之整合與充分使用設置嚴格的界限,現有規定太過簡略而遭到批評。

5.有效的資訊保護需要歐盟層級的企業與官署的資料保護專員

  對於資訊保護監督的有效性,在德國已確立之官方與私人企業的資訊保護專員制度係重要之一環。應致力於歐盟層級公/私機構資訊保護專員制度在整個歐洲的推動。

6. 資訊傳輸第三國官署和法院需要更嚴格的監督

  近期的隱私醜聞之後,目前亟需對歐洲公民個人資料給予更妥善的保護,以對抗來自第三國的機構。此意見書贊同歐盟議會的建議,即以第三國法院的判決和行政機關的決議,要求對個人資訊的披露,在歐盟之中僅能基於國際公約中機關互助和法律協助之規定,原則上予以承認與執行。

本文為「經濟部產業技術司科技專案成果」

相關連結
※ 德國聯邦內政部對歐盟部長會議「資料保護基本規則」(Datenschutz-Grundverordnung)發表意見書,並提出修法建議, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=7020&no=57&tp=1 (最後瀏覽日:2026/01/27)
引註此篇文章
你可能還會想看
美國聯邦上訴法院認定,美國政府不得強取境外伺服器資料

  微軟在美國政府索要用戶郵件的一起官司中獲得勝訴。美國政府第二巡迴上訴法院裁決,如果資料是儲存在美國境外伺服器,則不為美國聯邦政府的令狀效力所及。   這件訴訟案源於2013年的一起涉外毒品案件中,紐約區法院發布了一項搜查令,要求微軟提供公司一名用戶的郵件和相關訊息。然而因為有些資料是存放在微軟公司在愛爾蘭的伺服器,因此微軟爭辯說郵件本身是儲存在愛爾蘭的,因此不應受到美國政府令狀效力所及。2014年聯邦地方法院再次要求微軟提供郵件內容——但微軟上訴到了聯邦第二巡迴法院。   美國聯邦第二巡迴法院在判決中,認定基於《儲存通訊記錄法》(Stored Communications Act:SCA/下稱SCA)規定美國政府得以令狀要求連結網路使用者資料的規定並不適用於境外。法院所持理由為: 1. SCA規定搜索票/扣押票之核發應符合美國聯邦刑事訴訟法之相關規定,而美國聯邦刑事訴訟法第41條即規定搜索票/扣押票應由搜索/扣押標的物所在地之法院核發並交由該地或國內他地執法人員執行。 2. 法院曾於2010年之MORRISON ET AL. v. NATIONAL AUSTRALIA BANK LTD. ET AL.案判決理由中指明,如國會立法時認為某法規可能或必須有域外效力,應以明文定之,而SCA條文中並無任何規定寫明該法可於境外適用之。 3. SCA在第2703條所使用之搜索票/扣押票(warrant)一字,源自美國憲法增修條文第四條,即規定美國政府對其國內人民為搜索扣押時應以搜索票/扣押票(warrant)為之,且SCA更刻意以不同條款及不同強度區分搜索票/扣押票(warrant)與傳票(Subpoena),立法者之用意顯然是希望能以前者提供使用者更高度的隱私保護。 這是美國首例企業對獲取境外資料的政府搜查令提起上訴的案件,審判結果影響著美國法律界對於執法機關是否能就存放在世界上其他國家的美國用戶資料,進行合法調查。

英國倫理機構針對海量資料(big data)之使用展開公眾諮詢調查

  納菲爾德生物倫理學理事會(Nuffield Council on Bioethics)成立於1991年,是一家英國的獨立慈善機構,致力於考察在生物與醫學領域新近研究發展中所可能牽涉的各項倫理議題。由該理事會所發表的報告極具影響力,往往成為官方在政策決策時之依據。   有鑑於近年big data與個人生物和健康資料的分析使用,在生物醫學研究中引起廣泛的爭議討論,此間雖然不乏學者論理著述,但對社會層面的實質影響卻較少實證調查研究。Nuffield Council on Bioethics於日前發布一項為期三個月(2013/10/17~2014/01/10)的生物暨健康資料之連結使用公眾諮詢調查計畫(The linking and use of biological and health data – Open consultation)。此項計畫之目的在於,瞭解更多有關資料連結與使用時所可能導致之傷害或可能的有利發展。並研析適當的治理模式和法律措施,使得民眾隱私權保護與相關研究之合法性得以兼顧,俾使更多人受益。   為執行此項計畫,Nuffield Council on Bioethics延攬健康照護資訊技術、資訊治理、健康研究、臨床診療、倫理和法律等領域專家組成計畫工作小組,由工作小組廣泛地蒐集來自民眾與各類型組織的觀點,探詢當民眾在面對個人的生物與健康資訊相互連結、分析時,民眾對當中所牽涉倫理議題之看法。該項公眾諮詢調查將針對以下重點進行: 1.生物醫學資料之特殊意義 2.新的隱私權議題 3.資料科學和資訊技術發展所造成之影響 4.在研究中使用已連結的生物醫學資料所可能帶來的影響 5.在醫學臨床上使用已連結的資料所可能帶來的影響 6.使用生物醫學研究和健康照護以外的生物醫學資料所可能帶來的影響 7.探討能夠在倫理上支持連結生物醫學資料的法律和治理機制   由於Nuffield Council on Bioethics被視為英國科學界的倫理監察員、政府智囊團,因此未來調查報告發布後對相關政府政策所可能產生的影響,當值得我們持續關注。

英特爾將停用開源碼授權

  英特爾公司宣布,將廢止一項適用於部分自家軟體的開放原始碼授權辦法。這家晶片製造公司表示,已通知開放原始碼促進會 (Open Source Initiative ; OSI) 移除英特爾的開源碼授權許可,未來不再以 OSI 認可的授權形式繼續使用。 OSI 是一個非營利性機構,其宗旨在推廣使用開放原始碼軟體,並且在 OSI 網站上公布一份開放原始碼軟體授權清單。該公司希望把英特爾開放原始碼授權 (Intel Open Source License) 「移除,未來停用」,藉此降低授權協議日益增多的情形。    授權協議如雨後春筍般地孳生,已引起開放原始碼社群人士關切,因為授權版本大增之後,有意採用開放原始碼軟體的企業必須多花一些錢評估、管理各類型的授權,無形中導致成本增加。英特爾發言人表示,決定廢止開源碼授權,是發現公司內部數年來一直未使用,公司以外的使用頻率也不高。 Smith 說,英特爾不希望讓這項授權的「解除許可」效力回溯既往,以免迫使企業重新取得程式碼的使用授權。

強化政府橫向協調,提升AI治理—澳洲擬於2026年初設立AI安全研究所

澳洲政府於2025年11月25日宣布,將於2026年初設立AI安全研究所(AI Safety Institute)。澳洲AI安全研究所的設立目標,為提供相關的專業能力,以監管、測試與共享AI在技術、風險、危害層面的資訊。經由辨識潛在的風險,提供澳洲政府與人民必要的保護。AI安全研究所將以既有之法律與監管框架為基礎,因應AI風險,協助政府各部門調整相關規範。其主要業務如下: .協助政府掌握AI技術的發展趨勢,動態應對新興的風險與危害; .強化政府對先進AI技術發展及潛在影響的理解; .共享AI資訊與作為協調政府各部門的樞紐; .經由國家AI中心(National AI Centre,NAIC)等管道,提供事業、政府、公眾與AI相關的機會、風險和安全的指導; .協助澳洲履行國際AI安全協議的承諾。 AI安全研究所並為2025年12月2日,工業、科學與資源部(Department of Industry, Science and Resources)發布的國家AI計畫(National AI Plan,下稱澳洲AI計畫)中,保障應用AI安全性的關鍵項目。澳洲AI計畫指出,AI安全研究所將關注AI的上游風險(upstream AI risks),與下游危害(downstream AI harms)。所稱之上游風險,係指AI模型和系統的建構、訓練方式,與AI本身的能力,可能產生的疑慮。下游危害,則係指使用AI系統時,可能的實質影響。 AI安全研究所將支援與國際、政府各部門間之合作;並共享新興的AI技術能力,以及對AI上游風險的見解,發布安全研究成果,提供產業與學術界參考。AI安全研究所監測、分析與共享資訊,提出政府各部門,對AI下游危害,可採取的一致性應對建議。 綜上所述,澳洲政府提出國家AI計畫,於既有的法制體系,滾動調整相關規範,以應對AI風險。並成立AI安全研究所,追蹤國際AI發展脈動,及時提供澳洲政府應對建議,協調各部門採取一致性的行動。澳洲政府對新興AI技術,所採取策略的具體成效,仍有待觀察。 本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。 本文同步刊登於TIPS網站(https://www.tips.org.tw)

TOP