德國針對企業資訊安全及資料保護相關法律提出建議文件

  德國經濟及能源部於2018年3月8日為企業資訊安全保護措施建議及資料保護、資料所有權相關法規提出建議文件,協助中小企業提升對於組織及特別領域中的資安風險之意識,並進一步採取有效防護檢測,包括基本安全防護措施、組織資安維護、及法規,並同時宣導德國資料保護法中對於資安保護的法定要求。

  資通訊安全及其法規係為企業進行數位化時,涉及確保法的安定性(Rechtssicherheit)之議題。加強資安保護,除可增進銷售及生產力,並使商業貿易間有更大的透明度和靈活性,和創造新的合作信賴關係。因此相關網路內容服務提供商應符合法律要求,提供相關服務,並使共享資料得到完善的保護。例如:應如何保護處理後的資料?如何執行刪除個人資料權利?各方如何保護營業秘密?如果資料遺失,誰應承擔責任?唯有釐清上述相關等問題時,方能建立必要的信任。而在德國聯邦資料保護法,歐盟一般個人資料保護法、歐盟網路與資訊安全指令等規範及相關法律原則,係為數位創新企業執行資安基礎工作重要法律框架。但是,由於數位化的發展,新的法律問題不斷出現,目前的法律框架尚未全面解決。例如,機器是否可以處理第三方資料並刪除或保存?或是誰可擁有機器協作所產生的資料?因此,未來勢必應針對相關問題進行討論及規範。鑑於日益網路化和自動運作的生產設備,工業4.0的IT法律問題變得複雜。一方面,需要解決中、大型企業的營業祕密,資料所有權和責任主題之實際問題,以促進相關數位化創新。另一方面,為了能夠推導出現實的法律規範,需要更多具體實施案例討論。

  據研究顯示,企業家對產品責任問題,人工智慧使用,外包IT解決方案,及雲端計算等核心問題的新法規以顯示出極大的興趣,並進一步列入既有或規劃中研究項目。未來,政府將協助為所有公司在安全框架下展開數位計畫合作的機會,並充分利用網路的潛力,而中小企業4.0能力中心也將為中小型公司在數位化目標上提供IT法問題方面的支持。

本文為「經濟部產業技術司科技專案成果」

相關連結
你可能會想參加
※ 德國針對企業資訊安全及資料保護相關法律提出建議文件, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8030&no=55&tp=1 (最後瀏覽日:2026/05/13)
引註此篇文章
你可能還會想看
臺北高等行政法院103年度訴更一字第120號判決對健保資料作目的外運用之態度

英國猶疑應否開放人獸混合細胞之胚胎幹細胞研究

  英國之胚胎幹細胞研究活動,係根據「1990年人類受精與胚胎學法」(Human Fertilisation and Embryology Act 1990,HF&E Act)和「2001年人類受精與胚胎學規則」(Human Fertilisation and Embryology (Research Purposes) Regulations 2001,Research Purposes Regulations)之規定,授權由「人類受精與胚胎學管理局」(Human Fertilisation and Embryology Authority,HFEA)依法管理。   新堡大學東北英格蘭幹細胞中心(North East England Stem Cell Institute)Lyle Armstrong博士,在去年底向HFEA申請一項涉及混合人類與動物細胞製造胚胎幹細胞之研究許可;其計劃利用細胞核轉置技術,將牛的卵子細胞核取出,植入人類體細胞核,並刺激其分裂形成胚囊或早期複製胚胎,用以研究培養病患所需身體組織之技術。過去HFEA從未曾核准過此類研究,僅核准過2件利用細胞核轉置技術和單性活化卵母細胞製造胚胎幹細胞株作為醫學研究之申請。此研究申請訊息一流出,即引起保守團體嘩然及指責,要求英國政府應盡速立法,禁止製造人獸混合細胞之實驗活動。面對各界抗議聲浪,HFEA表示,會暫緩此申請案。   事實上,去年12月英國健康部提出了一篇報告-「人工生殖及胚胎學法之檢討」(Review of the Human Fertilisation and Embryology Act),建議國會應儘速立法規範人類動物細胞混合研究。而英國政府與人民究竟能否接受混合人類動物遺傳細胞研究之合法性、合道德性,則為未來立法動向之重要指標。

新加坡網路安全局發布人工智慧系統安全指南,以降低AI系統潛在風險

新加坡網路安全局(Cyber Security Agency of Singapore, CSA)於2024年10月15日發布人工智慧系統安全指南(Guidelines on Securing AI Systems),旨在強化AI系統安全,協助組織以安全之方式運用AI,降低潛在風險。 該指南將AI系統生命週期分成五個關鍵階段,分別針對各階段的安全風險,提出相關防範措施: (1)規劃與設計:提高AI安全風險認知能力,進行安全風險評估。 (2)開發:提升訓練資料、模型、應用程式介面與軟體庫之供應安全,確保供應商遵守安全政策與國際標準或進行風險管理;並辨識、追蹤及保護AI相關資產(例如模型、資料、輸入指令),以確保AI開發環境安全。 (3)部署:適用標準安全措施(例如存取控制、日誌記錄),並建立事件管理程序。 (4)運作與維護:持續監控AI系統的輸入和輸出,偵測異常與潛在攻擊,並建立漏洞揭露流程。 (5)壽命終期:應根據相關行業標準或法規,對資料與模型進行適當之處理、銷毀,防止未經授權之存取。 CSA期待該指南發布後,將有助於預防供應鏈攻擊(supply chain attacks)、對抗式機器學習攻擊(Adversarial Machine Learning attacks)等安全風險,確保AI系統的整體安全與穩定運行。

歐洲人權法院認定義大利稅務機關對銀行用戶資料存取享過大且欠缺有效司法或獨立監督之裁量權,違反ECHR

歐洲人權法院(European Court of Human Rights,簡稱ECtHR)於2026年1月8日就Ferrieri and Bonassisa v. Italy一案作成判決,認定義大利稅務機關儘管為稅務稽查目的享有查閱當事人銀行資料,但相關授權規定賦予了政府查閱措施之範圍與條件的絕對裁量權,缺乏避免恣意裁量之程序保障,違反歐洲人權公約(European Convention on Human Rights, ECHR)對隱私權之保障。 本案起源於申訴人接獲其銀行通知,表示接獲稅務機關要求,須提供特定時間段內與申訴人相關或可追溯至申訴人之銀行帳戶、交易紀錄及其他金融活動之資料。銀行並表示將配合稅務機關之要求。 申訴人不服,主張法律及相關規定未就請求銀行提供資料的情形或條件進行足夠細緻的規定,亦未就稅務機關行使調閱權設計有效的事前及事後控制程序,從而賦予稅務機關不受約束的裁量空間。 義大利稅務機關則回應,為履行其「核查納稅人提交的申報資料及繳納款項,偵測任何遺漏事項,並據此進行應繳稅款的核定與徵收」職權,法律賦予其要求銀行提供納稅人的相關資料之權限。 法院強調,凡涉及人權的政府措施,均必須保障個人免受任意干預,並接受在獨立機構進行前進行的某種對抗性程序審查,以適時審核決策依據及相關證據,始符合法治之要求。在本案中,法院認為,若義大利稅務機關發布行政規則,能補充並進一步界定了銀行資料之調閱事由及權限,且對執行單位具有拘束力,相關規定應能符合法治之要求。 但法院發現,在事前的內部授權流程中,執行單位可以不附理由地提出調閱申請,不須就前述行政規則例示之調閱事由,如「稅務申報存在異常」等情形提供證據。 法院也發現,申訴人也無法在事後針對調閱決定透過法院獲得有效救濟。一方面,若申訴人依附於稅務評定書(tax assessment notice)向稅務法庭就調閱行為進行爭執,由於根據義大利判決先例,調閱缺乏授權或授權理由不足,不足以構成撤銷稅務評定書的正當理由,調閱行為之合法性本身可能因此被視為訴訟上不相關的爭議,在訴訟過程中並不受到審查。另一方面,即便直接針對向民事法院請求救濟,在調閱決定可不附理由之情形下,也難以想像法院如何進行審查。 因此,法院判決最後認為,義大利法律框架賦予了稅務機關不受約束的調閱裁量權,違反ECHR第8條對隱私權之保障。

TOP