德國新聯邦個人資料保護法將於2018年5月施行

  德國聯邦議院在今年4月27日通過「個人資料保護調整和施行法」(Datenschutzanpassungs- und Umsetzungsgesetz, DSAnpUG),其中包含新的德國聯邦個人資料保護法(Bundesdatenschutzgesetz, BDSG)。在這部新的法案中,已施行40年的 BDSG進行大幅調整以符合歐盟個人資料保護規則(Datenschutzgrundverordnung , DSGVO)的標準。

  所有歐盟成員國將於2018年5月25日開始適用DSGVO的規定。DSGVO希望能在歐盟成員國內,形成一套具有法律統一性、標準性與高水準的個人資料保護制度。這也意味著侵害個人資料保護的違法行為,如:未使用適當的加密技術以確保個人資料安全,可能受到更嚴重的處罰,最高可達2,000萬歐元或企業全年營業額的4%。

  DSGVO的目的在確保歐盟成員國間個人資料保護的共同法制標準,但考量到各成員國間的區域差異,DSGVO也提供國家立法者約60條的開放性條款(Öffnungsklauseln)─允許許多地區的成員國在特定條件下可不依循DSVGO標準。德國聯邦政府在新的BDSG,也運用了這些開放性條款。但有批評者認為,部分新的BDSG規範內容已超越DSGVO的條文規範,如:個資保護專員(Datenschutzbeauftragten)的就業保障。因此,新的BDSG與歐盟法律不符的部分,很可能被宣布違反歐盟法律。另一方面,舊的BDSG僅有48條規定,而新的BDSG則超過85條規定,且更為複雜,這都提高了法律適用上的難度。

  雖然新的BDSG其適法性仍有爭議,且是否能通過司法審查亦屬未知。但盡管如此,隨著DSAnpUG 及新的BDSG法律條文制定,未來德國個人資料處理的基本法律框架已確定。由於企業個人資料處理的基本原則已明訂於DSGVO中,且新的BDSG仍是依照DSGVO的規範而制定,因此企業應盡速審查和調整他們的契約和流程,以符合DSGVO的規範要求。

相關連結
※ 德國新聯邦個人資料保護法將於2018年5月施行, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=7905&no=57&tp=1 (最後瀏覽日:2026/04/22)
引註此篇文章
你可能還會想看
多普達的電視手機被控鏈結侵權,一審被判訴

  多普達在2004年即將結束時接到了北京市海澱區人民法院的判決,原告北京央視公?資訊有限公司在一審中勝訴,不過,多普達總裁楊興平在今天的一個公開場合表示已經在準備上訴,“多普達有信心打贏這場官司。”楊興平說。   台灣手機廠商多普達於2004年3月在大陸推出型號為535之智慧型手機,此款手機具有強大的視頻功能,可藉由超連結收看網路電視。而多普達也在該款手機上內建了大陸中央電視台的頻道鏈結,讓使用者可以收看CCTV-新聞、CCTV-4、CCTV-9三個頻道的節目。不過,與中央電視臺簽有授權於電信網路傳播合同的央視公?,於2004年8月13日控告多普達侵權,要求多普達財償人民幣50萬元。   此案於2004年12月30日經海澱區人民法院判決多普達公司侵害央視公?公司在電信領域所取得的中央電視臺節目傳播權,應停止使用CCTV-新聞、CCTV-4、CCTV-9節目、在相關媒體上道歉,並賠償央視公?公司經濟損失共計37.1萬元。而且,法院還要求多普達的經銷商停止銷售該款手機。多普達則決定向北京市中級人民法院提出上訴。

日本產業競爭力強化法簡介—以新事業活動特例制度為中心

歐盟執委會提出「具可信度之人工智慧倫理指引」

  歐盟執委會人工智慧高級專家小組(High-Level Expert Group on Artificial Intelligence)於2019年4月8日公布「具可信度之人工智慧倫理指引」(Ethics Guidelines For Trustworthy AI)。該指引首先指出,具可信度之人工智慧需具備三個關鍵特徵:(1)合法(Lawful):應遵守所有適用於人工智慧之法規;(2)合乎倫理(Ethical):確保人工智慧符合倫理原則與價值;(3)健全(Robust):自技術與社會層面觀之,避免人工智慧於無意間造成傷害。   該指引並進一步指出人工智慧應遵守以下四項倫理原則: (1) 尊重人類之自主權(Respect for Human Autonomy):歐盟之核心價值在於尊重人類之自由與自主,與人工智慧系統互動之個人,仍應享有充分且有效之自我決定空間。因此,人工智慧之運用,不應脅迫、欺騙或操縱人類,人工智慧應被設計為輔助與增強人類之社會文化技能與認知。 (2) 避免傷害(Prevention of Harm):人工智慧不應對人類造成不利之影響,亦不應加劇既有的衝突或傷害。人工智慧之系統運行環境應具備安全性,技術上則應健全,且確保不會被惡意濫用。此外,弱勢族群應於人工智慧運用中受到更多關注,並被視為服務對象。 (3) 公平(Fairness):人工智慧系統之開發、布建與利用,必須具備公平性。除了透過實質承諾與規範,進行平等與公正之利益與成本分配外,亦須透過救濟程序確保個人或特定族群不受到歧視與偏見之侵害,並可對人工智慧之自動化決策結果提出質疑,且獲得有效之補救。 (4) 可解釋性(Explicability):人工智慧應盡量避免黑箱(Black Box)決策,其系統處理程序須公開透明,並盡可能使相關決策結果具備可解釋性,分析特定訊息可能導致之決策結果,此外亦需具備可溯性且可接受審核。

資訊社會法制架構初探-以2003年聯合國資訊社會高峰會之決議為借鏡

TOP