何謂德國「資訊科技安全法(IT-Sicherheitsgesetz)?

  德國聯邦議會於2015年通過資訊科技安全法(IT-Sicherheitsgesetz),主管機關為聯邦資訊安全局(Bundesamt für Sicherheit in der Informationstechnik, BSI),隸屬於德國聯邦內政部(Bundesministerium des Innern)。目的是為保障德國公民與企業使用的資訊系統安全,特別是在全國數位化進程中,攸關國家發展的關鍵基礎設施,讓德國成為全球資訊科技系統及數位基礎設施安全的先驅與各國的模範,同時藉此強化德國資訊科技安全企業的競爭力,提升外銷實力。

  該法案主題包括,在關鍵基礎設施上改進企業資訊科技安全、保護公民的網路安全、確保德國聯邦資訊科技、加強聯邦資訊技術安全局的能力與資源、擴展聯邦刑事網路犯罪的調查權力。

  該法主要係針對關鍵基礎設施營運者(Kritische Infrastrukturbetreiber) 進行安全要求,例如在能源、資訊科技、電信、運輸和交通、醫療、水利、食品、金融與保險等領域的企業。德國聯邦政府要求關鍵基礎設施的營運商,要滿足資訊科技安全的最低標準,且須向聯邦資訊安全局通報資訊安全事件。聯邦資訊安全局要對關鍵基礎設施營運商的資訊進行評估分析,並提供給關鍵基礎設施營運商彙整改善,以提高其基礎設施的保護。

本文為「經濟部產業技術司科技專案成果」

※ 何謂德國「資訊科技安全法(IT-Sicherheitsgesetz)? , 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=7598&no=67&tp=1 (最後瀏覽日:2026/01/01)
引註此篇文章
你可能還會想看
德國聯邦內政部公布《資訊科技安全法草案》

美國勞工部發布「人工智慧及勞工福祉:開發人員與雇主的原則暨最佳實務」文件,要為雇主和員工創造雙贏

.Pindent{text-indent: 2em;} .Noindent{margin-left: 2em;} .NoPindent{text-indent: 2em; margin-left: 2em;} .No2indent{margin-left: 3em;} .No2Pindent{text-indent: 2em; margin-left: 3em} .No3indent{margin-left: 4em;} .No3Pindent{text-indent: 2em; margin-left: 4em} 美國勞工部(Department of Labor)於2024年10月發布「人工智慧及勞工福祉:開發人員與雇主的原則暨最佳實務」(Artificial Intelligence and Worker Well-Being: Principles and Best Practices for Developers and Employers)參考文件(下稱本文件)。本文件係勞工部回應拜登總統2023年在其《AI安全行政命令》(Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence)中對勞工的承諾,作為行政命令中承諾的一部分,本文件為開發人員和雇主制定如何利用人工智慧技術開展業務的路線圖,同時確保勞工可從人工智慧創造的新機會中受益,並免受其潛在危害。 本文件以八項AI原則為基礎,提出最佳實踐作法,其重點如下。 1. 賦予勞工參與權(empowering workers):開發人員和雇主履行各項原則時,應該秉持「賦予勞工參與權」的精神,並且將勞工的經驗與意見納入AI系統整個生命週期各環節的活動中。 2. 以合乎倫理的方式開發AI系統:開發人員應為AI系統建立標準,以利進行AI系統影響評估與稽核,保護勞工安全及權益,確保AI系統性能符合預期。 3. 建立AI治理和人類監督:組織應有明確的治理計畫,包括對AI系統的人類監督機制與定期評估流程。 4. 確保AI使用透明:雇主應事先告知員工或求職者關於AI系統之使用、使用目的及可能影響。雇主及開發人員應共同確保以清晰易懂的方式公開說明AI系統將如何蒐集、儲存及使用勞工的個資。 5. 保護勞工和就業權利:雇主使用AI系統時,除應保障其健康與安全外,不得侵犯或損害勞工的組織權、法定工資和工時等權利。 6. 使用AI以提升勞工技能(Enable Workers):雇主應先了解AI系統如何協助勞工提高工作品質、所需技能、工作機會和風險,再決定採用AI系統。 7. 支援受AI影響的勞工:雇主應為受AI影響的勞工提供AI技能和其他職能培訓,必要時應提供組織內的其它工作機會。 8. 負責任使用勞工個資:開發人員和雇主應盡責保護和處理AI系統所蒐集、使用的勞工個資。

美國國家標準暨技術研究院發布「全球AI安全機構合作策略願景目標」,期能推動全球AI安全合作

美國國家標準暨技術研究院(National Institute of Standards and Technology, NIST)於2024年5月21日提出「全球AI安全機構合作策略願景目標」(The United States Artificial Intelligence Safety Institute: Vision, Mission, and Strategic Goals,下稱本策略願景),美國商務部(Department of Commerce)亦於2024年參與AI首爾峰會(AI Seoul Summit)期間對外揭示本策略願景,期能與其他國家攜手打造安全、可靠且可信賴之AI生態系。 由於AI可信賴與否往往取決於安全性,NIST指出當前AI安全所面臨的挑戰包含:一、欠缺對先進AI之標準化衡量指標;二、風險測試、評估、驗證及確效(Test, Evaluation, Validation, and Verification, TEVV)方法不健全;三、欠缺對AI建模後模型架構與模型表現間因果關係的了解;四、產業、公民社會、國內外參與者等在實踐AI安全一事上合作程度極為有限。 為因應上述挑戰並促進AI創新,NIST在本策略願景中擬定以下三大戰略目標:(1)推動AI安全科學發展:為建立安全準則與工具進行技術合作研究,並預先部署TEVV方法,以利評估先進AI模型之潛在風險與應對措施;(2)推展AI安全實務作法:制定並發布不同領域AI風險管理之相關準則與指標,以達到負責任設計、開發、部署與應用AI模型與系統之目的;(3)支持AI安全合作:促進各界採用前述安全準則、工具或指標,並推動全球合作,以發展國際通用的AI安全風險應對機制。

發展奈米 應避開專利地雷

  美國知名研究機構雷克斯研究公司 ,九月底 應經濟部邀請,在國際招商論壇上,以「奈米科技的創新與創投」為題,發表專題演講。其副總裁挪登馬修( Matthew M.Nordan )指出,奈米科技的重要性,在於其未來將應用到各個產業上,改變各個產業原有風貌。從創投業者立場,所選擇投資對象,是要能以奈米科技來促進原有產品功能,或能大幅降低原有產品成本。此外,如何避開專利地雷,亦將是各企業在投入奈米科技時,必須正視的問題。   挪登表示,二○○三年全球在奈米科技的相關研究經費約為八十六億美元,其中只有二億美元來自於創投基金,創投業界對奈米科技的投入如此保守,除受到網路經濟泡沫衝擊,主要是因為奈米科技的商品化,還有一段很長的路要走,加上創投業者多半對材料工業比較陌生,業界過去又傳出多起投資失敗的案例,均讓創投業者不敢對奈米科技有大手筆投入。相對於創投業者的保守態度 , 如何判斷優質的奈米科技投資案更形重要 。 其表示,除企業必須提出如何能避開國際已有的「專利地雷」,或取得國際專利的交互授權外,更重要的是,投資人必須瞭解,奈米科技的應用,並不是要開發出一個全新的「奈米產品」,或者應用奈米科技就能帶來超額的利潤,而是能對現存產業,帶來功效的提升或成本的降低。

TOP