德國聯邦網路局發布電信網路安全要求要點

  德國聯邦網路局(BNetzA)於2019年3月7日公布電信網路營運安全發展需求目錄關鍵要點。該要點係德國聯邦網路局電信通訊法第109條第6項規定,與聯邦資訊安全局(BSI)和德國聯邦資料保護與資訊自由委員會(BfDI)達成協議後制定,並由德國聯邦網路局發布之。此尤其適用於在德國發展5G網路,因該技術係為未來核心關鍵基礎設施,為確保技術發展之安全性,電信網路公司必須滿足相關安全要求。鑑於5G對未來競爭力極具重要性,故用於構建5G之技術必須符合最高安全標準,且應盡可能排除安全問題,該標準同樣適用於所使用的硬體和軟體。附加的安全目錄要點基本內容如下:

(1)系統僅允許從嚴格遵守國家安全法規及電信保密和隱私法規,且值得信賴之供應商處獲得。

(2)必須定期且持續監控網路流量異常情況,如有疑問,應採取適當的保護措施。

(3)僅可使用經聯邦資訊安全局對其IT安全性檢查核可且取得認證之安全相關的網路和系統組件(以下簡稱關鍵核心組件)。關鍵核心組件僅能從獲得信賴保證之供應商/製造商中取得。

(4)安全相關的關鍵核心組)應在交付期間進行適當之驗收測試後方能使用,且須定期和持續進行安全檢查。關鍵核心組件之定義將由德國聯邦網路局和聯邦資訊安全局共同協議訂定。

(5)在安全相關領域,只能聘用經過培訓之專業人員。

(6)電信網路營運商須證明所使用的產品中,實際使用經測試合格之安全相關組件硬體和供應鏈末端的原始碼。

(7)在規劃和建立網路時,應使用來自不同製造商的網路和系統組件,以避免類似「單一耕作」(Monokulturen),即避免技術生態圈無法均衡發展,以及易受市場波動影響之不良效應。

(8)外包與安全相關勞務時,僅可考慮有能力,可靠且值得信賴的承包商。

(9)對於關鍵且與安全相關的關鍵核心組件,必須提供足夠的冗餘(Redundanzen)。

  鑑於德國於3月中旬已拍賣5G頻譜,聯邦政府將大力推廣附加要求,並讓相關企業可以清楚了解進一步計畫。為確保立法層面之具體要求,聯邦政府計畫將對電信法第109條作重大修訂。明確規定操作人員必須證明符合安全規範,並由法律規範相關認證義務。針對關鍵基礎設施中使用的關鍵核心組件應來自可信賴之供應商/製造商,應適用於整體供應鏈。此外,德國聯邦政府擬針對聯邦資訊安全局法進行修訂,包括關鍵基礎設施、其組件可信賴性之相關規範。依聯邦資訊安全局法第9條規定,將在認證框架內提供可信賴性證明。

本文為「經濟部產業技術司科技專案成果」

相關連結
你可能會想參加
※ 德國聯邦網路局發布電信網路安全要求要點, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8273&no=67&tp=1 (最後瀏覽日:2026/04/28)
引註此篇文章
你可能還會想看
歐盟執委會公布《可信賴的AI政策及投資建議》

  歐盟執委會於2018年6月成立人工智慧高級專家組(The High-Level Expert Group on Artificial Intelligence, AI HLEG),主要負責兩項工作:(1)人工智慧倫理準則;(2)人工智慧政策與投資建議。並於2019年4月8日提出《可信賴的人工智慧倫理準則》(Ethics Guidelines for Trustworthy AI),2019年6月公布之《可信賴的AI政策及投資建議》(Policy and Investment Recommendations for Trustworthy Artificial Intelligence)則是人工智慧高級專家組所交付之第二項具體成果。   該報告主要分為兩大部分,首先第一部分是要透過可信賴的人工智慧建立對歐洲之正面影響,內容提及人工智慧應保護人類和社會,並促進歐洲公司各部門利用人工智慧及技術移轉,而公部門則扮演人工智慧增長及創新之催化劑,以確保歐洲具有世界一流之研究能力;第二部分則是影響歐洲各成員國建立可信賴之人工智慧,內容則提及將發展人工智慧相關基礎設施、教育措施、政策規範及資金投資,同時合法、有道德的使用各項數據。   在本報告中關於法規面的建議則是進一步制定政策和監管框架,確保人工智慧在尊重人權、民主及創新下發展,因此將建立人工智慧政策制定者、開發者及用戶間的對話機制,若是遇到將對社會或是人類產生重大影響之敏感性人工智慧系統,除透過歐洲人工智慧聯盟(The European AI Alliance)進行對話之外,也需要在尊重各成員國之語言及文化多樣性下展開協調機制。另外,報告中也特別提到如果政府以「保護社會」為由建立一個普遍的人工智慧監督系統是非常危險的作法,政府應該承諾不對個人進行大規模監視,並在遵守法律及基本權利下進行人工智慧系統之發展。

亞太經濟合作組織(APEC)糧食安全政策夥伴關係機制(PPFS)2014年8月14日在北京召開成員會議

  亞太經濟合作組織(Asia-Pacific Economic Cooperation, APEC)糧食安全政策夥伴關係機制(Policy Partnership on Food Security, PPFS)成員國、APEC秘書處、APEC工商諮詢理事會秘書處、糧農組織代表在北京召開全體成員會議,就亞太糧食安全相關議題與糧食安全政策夥伴關係機制(PPFS)建構進行討論。PPFS為政府部門與民間組織、企業溝通對話之平台,係APEC解決亞太糧食安全所建構之機制,茲就本次會議作成之重點分述如下: 1.亞太經濟合作組織(APEC)糧食安全政策夥伴關係機制(PPFS)全於會中作成3項倡議:第一,加強APEC成員糧農政策對話與交流,協商區域合作的規劃和措施。第二,降低貿易和投資成本,消除貿易壁壘促進糧農貿易。第三,加強各政府、產業與個體農民交流,促進私部門參與糧食安全之商業模式,以利亞太糧食安全之永續。相關糧食安全議題及合作方向包括:糧食生產與技術移轉跨國合作;糧食儲備、供應鏈及降低糧損技術之交流與合作和貿易合作、投資與基礎建設等。 2.本次會議除作成前述宣示性倡議外, 另通過「APEC減少糧食損失和浪費行動計畫」、「APEC糧食安全商業計畫」、「APEC增強糧食標準與質量安全互通行動計畫」、「2020糧食安全路線圖」等修訂文件。其中,「2020糧食安全路線圖」,提及PPFS將致力於降低亞太區域之糧食農損失,並宣示於2020年降低農損總量10%之具體目標(以2011-2012年度之農損總量為比較基準)。

歐盟執委會通過「歐洲創新議程」,加速深度技術創新並資助新創事業

  歐盟執委會(European Commission, EC)於2022年7月5日通過「新歐洲創新議程」(New European Innovation Agenda,下稱創新議程),藉由引領創新,特別是在「深度技術」(Deep Tech),例如AI、量子科學、光子技術等領域之創新,強化歐洲在綠色轉型和數位轉型的中心角色,並為氣候變遷及網路威脅等迫切的社會問題,提供創新的解決方案,以減少能源依賴、改善民眾健康,並繁榮歐洲經濟。創新議程包括以下5項旗艦項目: (1)資助新創公司(start-ups):使歐洲私人機構及其他私人投資者更願意投資於「深度技術」之新創公司。除此之外,簡化上市規則,使公司上市成本減少,以增加公司上市意願,更易於向公眾募集資金。 (2)重視實驗場域及創新採購:讓創新的企業可藉由「監理沙盒」(Regulatory Sandbox)等實驗場域(experimentation spaces)驗證其概念,政府則加強對創新產品和服務的公共採購(public procurement),促進創新研發。 (3)打造歐洲創新生態系(European Innovation Ecosystems):支持包括低度開發地區在內的區域,建立多個「區域創新谷」(regional innovation valleys),以強化歐洲創新者間的連結,並促進會員國投入至少100億歐元於各區域創新谷包含「深度技術」在內的創新專案。 (4)育才、攬才及留才:確保「深度技術」的人才能來到歐盟國家,並在歐盟國家間流動及發展,當中包括針對新創公司的創新實習生計畫、幫助新創公司尋找非歐盟人才的歐盟人才資料庫(talent pool)計畫、女性創業和領導計畫、新創公司員工有認股權(stock option)等。 (5)優化政策制定之流程及架構,促進歐盟內部協調一致:藉由開發可供各國比對的資料集(data set),以及對於新創公司設立階段(start-up)及成長階段(scale-up)之共通定義,提升並強化政策的傳播及落實,並確保在歐洲創新理事會論壇(European Innovation Council)有更好的政策協調。

美國國家標準與技術研究院公布人工智慧風險管理框架(AI RMF 1.0)

美國國家標準與技術研究院(National Institute of Standards and Technology, NIST)於2023年1月26日公布「人工智慧風險管理框架1.0」(Artificial Intelligence Risk Management Framework, AI RMF 1.0),該自願性框架提供相關資源,以協助組織與個人管理人工智慧風險,並促進可信賴的人工智慧(Trustworthy AI)之設計、開發與使用。NIST曾於2021年7月29日提出「人工智慧風險管理框架」草案進行公眾徵詢,獲得業界之建議包含框架應有明確之衡量方法以及數值指標、人工智慧系統設計時應先思考整體系統之假設於真實世界中運作時,是否會產生公平性或誤差的問題等。本框架將隨著各界使用後的意見回饋持續更新,期待各產業發展出適合自己的使用方式。 本框架首先說明人工智慧技術的風險與其他科技的差異,定義人工智慧與可信賴的人工智慧,並指出設計該自願性框架的目的。再來,其分析人工智慧風險管理的困難,並用人工智慧的生命週期定義出風險管理相關人員(AI actors)。本框架提供七種評估人工智慧系統之信賴度的特徵,包含有效且可靠(valid and reliable):有客觀證據證明人工智慧系統的有效性與系統穩定度;安全性(safe):包含生命、健康、財產、環境安全,且應依照安全風險種類決定管理上的優先次序;資安與韌性(secure and resilient);可歸責與資訊透明度(accountable and transparent);可解釋性與可詮譯性(explainable and interpretable);隱私保護(privacy-enhanced);公平性—有害偏見管理(fair – with harmful bias managed)。 本框架亦提出人工智慧風險管理框架核心(AI RMF Core)概念,包含四項主要功能:治理、映射(mapping)、量測與管理。其中,治理功能為一切的基礎,負責孕育風險管理文化。各項功能皆有具體項目與子項目,並對應特定行動和結果產出。NIST同時公布「人工智慧風險管理框架教戰手冊」(AI RMF Playbook),提供實際做法之建議,並鼓勵業界分享其具體成果供他人參考。

TOP