德國聯邦網路局發布電信網路安全要求要點

  德國聯邦網路局(BNetzA)於2019年3月7日公布電信網路營運安全發展需求目錄關鍵要點。該要點係德國聯邦網路局電信通訊法第109條第6項規定,與聯邦資訊安全局(BSI)和德國聯邦資料保護與資訊自由委員會(BfDI)達成協議後制定,並由德國聯邦網路局發布之。此尤其適用於在德國發展5G網路,因該技術係為未來核心關鍵基礎設施,為確保技術發展之安全性,電信網路公司必須滿足相關安全要求。鑑於5G對未來競爭力極具重要性,故用於構建5G之技術必須符合最高安全標準,且應盡可能排除安全問題,該標準同樣適用於所使用的硬體和軟體。附加的安全目錄要點基本內容如下:

(1)系統僅允許從嚴格遵守國家安全法規及電信保密和隱私法規,且值得信賴之供應商處獲得。

(2)必須定期且持續監控網路流量異常情況,如有疑問,應採取適當的保護措施。

(3)僅可使用經聯邦資訊安全局對其IT安全性檢查核可且取得認證之安全相關的網路和系統組件(以下簡稱關鍵核心組件)。關鍵核心組件僅能從獲得信賴保證之供應商/製造商中取得。

(4)安全相關的關鍵核心組)應在交付期間進行適當之驗收測試後方能使用,且須定期和持續進行安全檢查。關鍵核心組件之定義將由德國聯邦網路局和聯邦資訊安全局共同協議訂定。

(5)在安全相關領域,只能聘用經過培訓之專業人員。

(6)電信網路營運商須證明所使用的產品中,實際使用經測試合格之安全相關組件硬體和供應鏈末端的原始碼。

(7)在規劃和建立網路時,應使用來自不同製造商的網路和系統組件,以避免類似「單一耕作」(Monokulturen),即避免技術生態圈無法均衡發展,以及易受市場波動影響之不良效應。

(8)外包與安全相關勞務時,僅可考慮有能力,可靠且值得信賴的承包商。

(9)對於關鍵且與安全相關的關鍵核心組件,必須提供足夠的冗餘(Redundanzen)。

  鑑於德國於3月中旬已拍賣5G頻譜,聯邦政府將大力推廣附加要求,並讓相關企業可以清楚了解進一步計畫。為確保立法層面之具體要求,聯邦政府計畫將對電信法第109條作重大修訂。明確規定操作人員必須證明符合安全規範,並由法律規範相關認證義務。針對關鍵基礎設施中使用的關鍵核心組件應來自可信賴之供應商/製造商,應適用於整體供應鏈。此外,德國聯邦政府擬針對聯邦資訊安全局法進行修訂,包括關鍵基礎設施、其組件可信賴性之相關規範。依聯邦資訊安全局法第9條規定,將在認證框架內提供可信賴性證明。

本文為「經濟部產業技術司科技專案成果」

相關連結
你可能會想參加
※ 德國聯邦網路局發布電信網路安全要求要點, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8273&no=67&tp=5 (最後瀏覽日:2026/01/14)
引註此篇文章
你可能還會想看
日本政府怎樣對公部門管制DeepSeek?

日本政府怎樣對公部門管制DeepSeek? 資訊工業策進會科技法律研究所 2025年07月07日 2025年2月3日,日本個人情報保護委員會(Personal Information Protection Commission,簡稱PPC)發布新聞稿指出[1],DeepSeek所蒐集的資料,將會儲存在中國的伺服器裡,且為中國《國家情報法》的適用對象[2]。這可能將導致個人資料遭到中國政府調用或未經授權的存取。作為中國開發的生成式AI,DeepSeek雖以優異的文本能力迅速崛起,卻也引發資安疑慮。 身處地緣政治敏感區的日本對此高度警覺,成為率先提出警告的國家之一。台灣與日本面臨相似風險,因此日本的應對措施值得借鏡。本文將從PPC新聞稿出發,探討日本如何規範公部門使用DeepSeek。 壹、事件摘要 DeepSeek作為中國快速崛起之生成式AI服務,其使用範圍已快速在全球蔓延。然而,日本PPC發現該公司所公布之隱私政策,內容說明其所蒐集之資料將存儲於中國伺服器內,並依據中國《國家情報法》之適用範圍可能遭到中國政府調用或未經授權之存取。 日本PPC因而於2025年2月3日發布新聞稿,隨後日本數位廳於2月6日發函給各中央省廳,強調在尚未完成風險評估與資安審查之前,政府機關不應以任何形式將敏感資訊輸入DeepSeek,並建議所有業務使用應先諮詢內閣資安中心(内閣サイバーセキュリティセンター,NISC)與數位廳(デジタル庁)意見,才能判定可否導入該類工具[3]。數位大臣平將明亦在記者會中強調:「即使不是處理非機密資料,各機關也應充分考量風險,判斷是否可以使用。」(要機密情報を扱わない場合も、各省庁等でリスクを十分踏まえ、利用の可否を判断する)[4]。 本次事件成為日本對於生成式AI工具採取行政限制措施的首次案例,也引發公私部門對資料主權與跨境平台風險的新一輪討論。 貳、重點說明 一、日本對於人工智慧的治理模式 日本在人工智慧治理方面採取的是所謂的「軟法」(soft law)策略,也就是不依賴單一、強制性的法律來規範,而是以彈性、分散的方式,根據AI的實際應用場景與潛在風險,由相關機關分別負責,或透過部門之間協作因應。因此,針對DeepSeek的管理行動也不是由某一個政府部門單獨推動,而是透過跨部會協作完成的綜合性管控,例如: (一)PPC的警示性通知:PPC公開說明DeepSeek儲存架構與中國法規交錯風險,提醒政府機關與公務人員謹慎使用,避免洩漏資料。 (二)數位廳的行政指引:2025年2月6日,日本數位廳針對生成式AI的業務應用發布通知,明列三項原則:禁止涉密資料輸入、限制使用未明確審查之外部生成工具、導入前應諮詢資安機構。 (三)政策溝通與政治聲明:平將明大臣在記者會上多次強調DeepSeek雖未明列於法條中禁用,但其高風險屬性應視同「潛在危害工具」,需列入高敏感度審查項目。 二、日本的漸進式預防原則 對於DeepSeek的管制措施並未升高至法律層級,日本政府亦沒有一概禁止DeepSeek的使用,而是交由各機關獨自判斷[5]。這反映出了日本在AI治理上的「漸進式預防原則」:先以行政指引建構紅線,再視實際風險與民間回饋考慮是否立法禁用。這樣的作法既保留彈性,又讓官僚系統有所依循,避免「先開放、後收緊」所帶來的信任危機。 三、日本跟循國際趨勢 隨著生成式AI技術迅速普及,其影響已不再侷限於產業應用與商業創新,而是逐漸牽動國家資安、個資保護以及國際政治秩序。特別是生成式AI在資料存取、模型訓練來源及跨境資料流通上的高度不透明,使其成為國家安全與數位主權的新興挑戰。在這樣的背景下,各國對生成式AI工具的風險管理,也從原先聚焦於產業自律與技術規範,提升至涉及國安與外交戰略層面。 日本所採取的標準與國際趨勢相仿。例如韓國行政安全部與教育部也在同時宣布限制DeepSeek使用,歐盟、美國、澳洲等國亦有不同程度的封鎖、審查或政策勸導。日本雖然和美國皆採取「軟法」(soft law)的治理策略,然而,相較於美國以技術封鎖為主,日本因其地緣政治的考量,對於中國的生成式AI採取明確防範的態度,這一點與韓國近期禁止政府機構與學校使用中國AI工具、澳洲政府全面禁止政府設備安裝特定中國應用程式類似。 參、事件評析 這次日本政府對於DeepSeek的應對措施,反映出科技治理中的「資料主權問題」(data sovereignty):即一個國家是否有能力控制、保存與使用其管轄範圍內所生產的資料。尤其在跨境資料傳輸的背景下,一個國家是否能保障其資料不被外國企業或政府擅自使用、存取或監控,是資料主權的核心問題。 生成式AI不同於傳統AI,其運作依賴大規模訓練資料與即時伺服器連接,因此資料在輸入的瞬間可能已被收錄、轉存甚至交付第三方。日本因而對生成式AI建立「安全門檻」,要求跨境工具若未經審核,即不得進入政府資料處理流程。這樣的應對策略預示了未來國際數位政治的發展趨勢:生成式AI不只是科技商品,它已成為跨國治理與地緣競爭的核心工具。 中國通過的《國家情報法》賦予政府調閱私人企業資料的權力,使得中國境內所開發的生成式AI,儼然成為一種資訊戰略利器。若中國政府藉由DeepSeek滲透他國公部門,這將對國家安全構成潛在威脅。在此背景下,日本對公部門使用DeepSeek的管制,可被解讀為一種「數位防衛行為」,象徵著日本在數位主權議題上的前哨部署。 值得注意的是,日本在處理DeepSeek事件時,採取了「不立法限制、但公開警示」的方式來應對科技風險。此舉既避免激烈封鎖引發爭議,又對於資料的運用設下邊界。由於法令規範之制定曠日費時,為避免立法前可能產生之風險,日本先以軟性之限制與推廣手段以防止危害擴大。 台灣雖與日本同處地緣政治的敏感地帶,資料主權議題對社會影響深遠,為使我國可在尚未有立法規範之狀態下,參考日本所採之行政命令內控與公開說明外宣雙向並行之策略,對台灣或許是一種可行的借鏡模式。 本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。 本文同步刊登於TIPS網站(https://www.tips.org.tw) [1]個人情報保護委員会,DeepSeekに関する情報提供,https://www.ppc.go.jp/news/careful_information/250203_alert_deepseek/ (最後瀏覽日:2025/05/06)。 [2]《中华人民共和国国家情报法》第7条第1项:「任何组织和公民都应当依法支持、协助和配合国家情报工作,保守所知悉的国家情报工作秘密。」 [3]デジタル社会推進会議幹事会事務局,DeepSeek等の生成AIの業務利用に関する注意喚起(事務連絡),https://www.digital.go.jp/assets/contents/node/basic_page/field_ref_resources/d2a5bbd2-ae8f-450c-adaa-33979181d26a/e7bfeba7/20250206_councils_social-promotion-executive_outline_01.pdf (最後瀏覽日:2025/05/06)。 [4]デジタル庁,平大臣記者会見(令和7年2月7日),https://www.digital.go.jp/speech/minister-250207-01 (最後瀏覽日:2025/05/06)。 [5]Plus Web3 media,日本政府、ディープシークを一律禁止せず 「各機関が可否を判断する」,https://plus-web3.com/media/500ds/?utm_source=chatgpt.com (最後瀏覽日:2025/05/06)。

法國CNIL重罰微軟因搜尋引擎Bing違法運用cookie

  法國國家資訊自由委員會(Commission Nationale de l'Informatique et des Libertés, CNIL)基於cookie聲明(cookie banner)違反法國資料保護法(Act N°78-17 of 6 January 1978 on Information Technology, Data Files and Individual Liberties)裁罰微軟愛爾蘭分公司(Microsoft Ireland Operations LTD,下稱微軟)搜尋引擎Bing,並根據cookie蒐集資料間接產生的廣告收入、資料主題數量及處理的資料範圍定出6千萬歐元之罰鍰額度,且要求微軟應於3個月內限期改正,如逾期按日處以6萬歐元罰鍰。本案是繼2022年1月6日以來,CNIL以相同理由分別對Google與Facebook裁罰1.5億及6千萬歐元罰鍰後,再增1件科技巨頭因違法運用cookie遭受裁罰之案例。本案對我國隱私執法機關參酌於數位環境中,應就cookie聲明如何進行管理之理由與細節,具有參考價值。   而本案微軟之搜尋引擎Bing遭受裁罰之理由,主要可分為二面向:   一、未經使用者事前同意,逕於使用者設備中設置cookie   依法國資料保護法第82條規定,業者利用cookie或其他追蹤方式針對使用者終端設備上的資料進行讀取或寫入資料前,應盡告知義務並取得使用者同意。惟搜尋引擎Bing在使用者造訪網站時,未經使用者同意便設置一種具有安全及廣告等多種用途的cookie(MUID cookie)於其電腦設備,且當使用者繼續瀏覽網站時,將會另設置其他廣告cookie,然微軟亦未就此取得使用者同意。   二、拒絕設置cookie與給予同意之方式便利性應相同   在有效同意的標準與具體判斷上,由於搜尋引擎Bing的cookie聲明第一階層僅提供「接受」與「設定」兩類按鈕,並未提供「拒絕」按鈕,因此使用者同意或拒絕設置cookie之流程便利性有其差異,並未一致,如下說明:   (一)使用者同意設置cookie   如使用者同意設置cookie,僅需於cookie聲明的第一階層點擊「接受」按鈕,即完成設置。   (二)使用者拒絕設置cookie   若使用者欲拒絕設置cookie,需於cookie聲明的第一階層點擊「設定」按鈕;其後進入第二階層,使用者可於各類型cookie選擇開啟或關閉,再點擊「保存設定」按鈕,始完成設置。   是以使用者拒絕同意設置cookie與給予同意之方式,兩者的便利性並未一致。又因第二階層顯示默認未設置cookie,恐導致使用者誤以為網站並未設置cookie,故CNIL認為此種同意欠缺自願性而屬無效者。

英國上議院正逐條審議資料保護和數位資訊法案,期展現脫歐新格局

英國科學、創新和技術部(Department for Science, Innovation & Technology)提出之《資料保護和數位資訊法案》(The Data Protection and Digital Information Bill,以下稱DPDI法案)於2023年11月經下議院三讀後移交上議院,並於2024年3月20日起逐條審議。DPDI法案旨在調整由英國《一般資料保護規則》(UK General Data Protection Regulation, 下稱UK GDPR)、《資料保護法》(Data Protection Act, DPA 2018)與《隱私與電子通訊規則》(Privacy and Electronic Communications (EC Directive) Regulations 2003)建構之資料保護框架,形塑有別於歐盟典範的資料保護制度。 下議院三讀通過之DPDI法案包含:個人資料保護、數位核驗服務、消費者與商業等各類數據使用以及監管制度等,期能增加資料使用彈性、衡平保護與運用之衝突。該法案將釐清與重新定義資料保護之一般性通則,以下就部分變革與爭議簡要說明: 一、資料使用限制放寬:藉擴大正當利益(legitimate interest)意涵與科學研究範圍,擴大個人資料使用的正當性基礎,如國安、犯罪預防、公共衛生及商業與非商業性科學研究。 二、組織資料治理層級轉變:取消資料保護長設置,改為指派高階管理層之一人專任或多人兼任高階負責人。 三、監管機構變換:將現行資訊專員辦公室(Information Commissioner’s Office, ICO)獨立機構監管模式,轉換為政府任命之委員會。 四、資料傳輸規範可能不足:英國脫歐後,其與歐盟間的資料傳輸經認可而獲維繫。若DPDI法案通過並調整且簡化資料傳輸規範,英國可能需證明新程序及規範持續具有保護適足性。 就DPDI法案內容觀之,該法案主要建構於UK GDPR及相關規範之刪修,象徵英國政府對脫歐前資料保護制度之檢討,並期藉改革減輕企業合規成本。然,部分團體認為資料使用放寬與保護制度之變革,可能導致演算法歧視以及英國與歐盟間資料流動困難。雖DPDI法案尚在上議院委員會討論階段,可能因各方磋商而修改條文內容,但仍可見英國政府積極重新伸張國家主權之作為。

德國法院針對GEMA控告YouTube判決出爐

  德國漢堡地方法院4月20日針對GEMA控告YouTube一案作出判決(Az. 310 O 461/10),確認影片平台業者著作權法上之義務,預料將為兩造授權金協議過程的僵局,造成一定影響。   本案原告GEMA主張被告YouTube應採取措施,阻止其享有權利之12個影音檔案,繼續透過YouTube平台在德國境內流通。而本案的爭點即在於:對於YouTube平台上由網友上傳、且涉嫌侵害著作權的影片內容,被告移除及防止侵害的責任範圍究竟多大。   本案法院認為,因被告本身並非將違法內容上傳之行為人,無法以德國電信服務法(TMG)第7條規定,課予其侵權行為人責任(Täterhaftung)。但被告因提供、經營平台,對著作權侵害有所「貢獻」,故法院依TMG第10條規定,認定被告YouTube僅在知悉特定侵權情事的情況下,才負擔移除或阻斷網路接取的義務;而當平台業者收到著作權侵害的通知後,便須立即阻斷涉嫌侵權的影片,並採取合理的措施,防止侵權行為再發生。然而,法院也強調,平台業者只負擔「合理」的檢查及管控義務,故平台業者毋須逐一檢視所有已上傳的影片。   按本案法院見解,所謂合理的措施,包括YouTube須利用其所研發的「內容識別系統Content-ID」,防止特定的侵權內容再次發生。另YouTube也負擔加裝文字過濾軟體的義務,以杜絕含有特定標題或關鍵字之影片上傳至平台。   據了解,雙方均發表聲明對此判決結果表示肯定。除原告得以主張其所享有的著作權外,YouTube也認為法院明確界定影視平台業者應作為的義務範圍。但對原告GEMA來說,重點在如何透過訴訟程序對YouTube施壓,重啟授權金的談判。兩造後續對長久來授權金計算公式的歧異將如何達成共識,值得關注。

TOP