德國針對企業聯網資訊安全及資料保護相關法律提出建議文件

  德國經濟及能源部於2018年3月8日為企業聯網資訊安全保護措施建議及資料保護、資料所有權相關法規提出建議文件,協助中小企業提升對於組織及特別領域中的資安風險之意識,並進一步採取有效防護檢測,包括基本安全防護措施、組織資安維護、及法規,並同時宣導德國資料保護法中對於資安保護的法定要求。

  資通訊安全及其法規係為企業進行數位化時,涉及確保法的安定性(Rechtssicherheit)之議題。例如:應如何保護處理後的資料?如何執行刪除個人資料權利?各方如何保護營業秘密?如果資料遺失,誰應承擔責任?唯有釐清上述相關等問題時,方能建立必要的信任。而在德國聯邦資料保護法,歐盟一般個人資料保護法、歐盟網路與資訊安全指令等規範及相關法律原則,係為數位創新企業執行資安基礎工作重要法律框架。但是,由於數位化的發展,新的法律問題不斷出現,目前的法律框架尚未全面解決。

  例如,機器是否可以處理第三方資料並刪除或保存?或是誰可擁有機器協作所產生的資料?因此,未來勢必應針對相關問題進行討論及規範。鑑於日益網路化和自動運作的生產設備,工業4.0的IT法律問題變得複雜。一方面,需要解決中、大型企業的營業祕密,資料所有權和責任主題之實際問題,以促進相關數位化創新。另一方面,為了能夠推導出現實的法律規範,需要更多具體實施案例討論,例如,企業家對產品責任問題,人工智慧使用,外包IT解決方案,及雲端計算等核心等問題,政府應協助為所有公司在安全框架下展開數位計畫合作的機會,並充分利用網路的潛力,而中小企業4.0能力中心也將為中小型公司在數位化目標上提供IT法問題方面的支持。

本文為「經濟部產業技術司科技專案成果」

※ 德國針對企業聯網資訊安全及資料保護相關法律提出建議文件, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8069&no=55&tp=1 (最後瀏覽日:2026/05/04)
引註此篇文章
你可能還會想看
德國專利商標局和中國大陸國家知識產權局延長了專利審查高速公路(PPH)試點項目之合作期限

  德中專利審查高速公路(The Patent Prosecution Highway,以下簡稱PPH)試點項目自2012年1月23日啟動,為期兩年,PPH的啟動將有助於協助企業在海外盡快取得專利權。申請人可在德國專利商標局(Das Deutsche Patent- und Markenamt Amt,以下簡稱DPMA)和中國大陸國家知識產權局(State Intellectual Property Office of the People's Republic of China,以下簡稱SIPO)提出專利加速審查的申請。爾後,德中PPH試點項目再於2014年1月23日起延長兩年。該項目原定於2016年1月22日終止,DPMA和SIPO進一步將試點項目延長兩年至2018年1月22日止。   在德中PPH試點項目框架下,申請人可向DPMA或SIPO提出首次申請,一旦首次申請受理局(Office of First Filing,以下簡稱OFF)認為申請人提出的專利請求項中至少有一項被認定可能具有可專利性,則申請人可向後續申請受理局(Office of Second Filing,以下簡稱OSF)提出請求加速審查該申請案。而OSF將以OFF的初步檢索審查結果為基礎,進一步獨立執行專利審查。   DPMA已長期與SIPO密切合作,並於2015年7月6日加入全球專利審查高速公路(Global Patent Prosecution Highway,以下簡稱GPPH),德國的專利申請案將能於加入GPPH的國家申請加速審查。目前包括DPMA在內共有21國專利局加入GPPH項目,與DPMA另外有PPH協議的合作專利局則有9個,德國加入GPPH後,既有的PPH協議將被GPPH取代。而SIPO目前尚未加入GPPH,與DPMA仍維持採行PPH協議。

智慧型運輸系統之頻譜規劃-參考美國及歐盟之規範

談我國基因改造生物田間試驗管理規範之現況與修正方向

美國國家標準與技術研究院公布人工智慧風險管理框架(AI RMF 1.0)

美國國家標準與技術研究院(National Institute of Standards and Technology, NIST)於2023年1月26日公布「人工智慧風險管理框架1.0」(Artificial Intelligence Risk Management Framework, AI RMF 1.0),該自願性框架提供相關資源,以協助組織與個人管理人工智慧風險,並促進可信賴的人工智慧(Trustworthy AI)之設計、開發與使用。NIST曾於2021年7月29日提出「人工智慧風險管理框架」草案進行公眾徵詢,獲得業界之建議包含框架應有明確之衡量方法以及數值指標、人工智慧系統設計時應先思考整體系統之假設於真實世界中運作時,是否會產生公平性或誤差的問題等。本框架將隨著各界使用後的意見回饋持續更新,期待各產業發展出適合自己的使用方式。 本框架首先說明人工智慧技術的風險與其他科技的差異,定義人工智慧與可信賴的人工智慧,並指出設計該自願性框架的目的。再來,其分析人工智慧風險管理的困難,並用人工智慧的生命週期定義出風險管理相關人員(AI actors)。本框架提供七種評估人工智慧系統之信賴度的特徵,包含有效且可靠(valid and reliable):有客觀證據證明人工智慧系統的有效性與系統穩定度;安全性(safe):包含生命、健康、財產、環境安全,且應依照安全風險種類決定管理上的優先次序;資安與韌性(secure and resilient);可歸責與資訊透明度(accountable and transparent);可解釋性與可詮譯性(explainable and interpretable);隱私保護(privacy-enhanced);公平性—有害偏見管理(fair – with harmful bias managed)。 本框架亦提出人工智慧風險管理框架核心(AI RMF Core)概念,包含四項主要功能:治理、映射(mapping)、量測與管理。其中,治理功能為一切的基礎,負責孕育風險管理文化。各項功能皆有具體項目與子項目,並對應特定行動和結果產出。NIST同時公布「人工智慧風險管理框架教戰手冊」(AI RMF Playbook),提供實際做法之建議,並鼓勵業界分享其具體成果供他人參考。

TOP