英國NCSC針對使用高風險供應商之電信網路提出風險管理建議

  英國於2020年1月31日正式脫歐,同時積極爭取與重要貿易夥伴美國簽訂自由貿易協定(Free Trade Agreement, FTA)。然而,美國認定中國大陸華為的5G設備存在資安風險,可能被用於間諜活動進而威脅國家安全,故主張美英貿易合作與情報共享的前提,必須建立在英國排除使用華為5G網路基礎建設之上,對此英國嘗試透過政策研擬,在5G經濟發展與國家安全間求取平衡。英國國家網路安全中心(National Cyber Security Centre, NCSC)於2020年1月28日,即針對使用「高風險供應商(High risk vendors簡稱HRV)」之電信網路,提出風險管理建議,說明如何因應HRV帶來的網路安全風險及挑戰(須注意高風險供應商HRV不一定是關鍵供應商Critical Vendor,必須透過關鍵與否及風險高低兩個變動因素加以細部區分)。目前英國5G及光纖到戶(Fiber To The Home, FTTH)計畫推動處於關鍵階段,NCSC向電信營運商提出有關使用HRV設備的非拘束性技術建議,將有助於保護營運商免於外部攻擊,並降低英國電信網路的國家安全風險。

  NCSC在報告中,針對何謂高風險供應商,及如何管理這些供應商帶來的特定安全風險,提出詳盡判斷標準包括:供應商在英國及其他地區網路中的戰略地位及規模、對網路安全控管品質及透明度、過去商業行為及慣例、向英國營運商供應技術的穩定性及彈性等。另外供應商有無接受外國政府補貼及營業地點是考量重點:包括該廠商所屬國家政府機構對其施加影響之程度、是否具備攻擊英國網路能力、業務營運的重要組成部分是否受到本國法律監管,進而與英國法律相抵觸甚至進行外部指導等。

  又為減少由HRV引起的網路安全風險,NCSC對於HRV控管提出具體建議。包括應限制在5G或FTTP網路核心功能中使用HRV產品及服務,並將高風險廠商供應上限設定為35%,有效進行網路安全風險管理,平衡安全性風險和市場供應多樣化彈性需求。另外,其他具備敏感性的網路營運模式,例如大量個資蒐集、語音系統、記錄備份系統、寬頻遠端接入系統(BNG / BRAS)等,必須根據具體情況,對HRV進行限制;且不得在與政府營運或重要國家基礎設施,及任何與安全系統直接相關的敏感網路中使用HRV設備。目前,中國大陸華為是英國NCSC唯一認定的HRV廠商,華為被禁止參與英國5G網路建設的核心部分且受有市占率35%的供應限制;華為亦需遵守NCSC要求,訂定風險緩解策略,確保產品及服務不致威脅英國網路即國家安全。

本文為「經濟部產業技術司科技專案成果」

相關連結
你可能會想參加
※ 英國NCSC針對使用高風險供應商之電信網路提出風險管理建議, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8446&no=64&tp=5 (最後瀏覽日:2025/12/02)
引註此篇文章
你可能還會想看
美國商務部國家技術與標準局公布技術創新計畫(TIP)之執行規則草案,徵求外界意見

  過去十餘年來,美國商務部國家技術與標準局(The Commerce Department’s National Institute of Standards and Technology, NIST)推動的「先進技術計畫」(Advanced Technology Program, ATP),成功帶領美國中小企業透過技術的研發投入,創造美國經濟榮景。近年來面對變動劇烈的國際環境,為提升美國競爭力,美國總統於2007年8月9日簽署通過「意涵深遠地促進傑出技術、教育與科學之美國機會創造法」(The America Creating Opportunities To Meaningfully Promote Excellence In Technology, Education, And Science Act, 簡稱The America COMPETES Act)。   The America COMPETES Act特別授權NIST負責推動並執行一項新的研究補助計畫-技術創新計畫(Technology Innovation Program, TIP),企圖藉由在國家重點需求領域(critical national need areas),補助具有高風險性及高報酬的技術研究(high-risk, high-reward research),支持、促進並加速美國的創新。所謂「高風險、高報酬」之技術研究,指具有以下三項特質的技術研究:(1)研究可轉化成具體實益的潛在可行性,其成果將產生深遠及廣泛的影響;(2)研究計畫的進行係為了回應屬NIST技術職掌範圍內的重大國家需求;(3)研究的技術議題過於創新(too novel)或跨越甚多學科(spans too diverse a range of disciplines),以致傳統的專家審查程序無法適當地用來篩選此類計畫。至於「國家重點需求領域」,指問題觸及的面向極大,然須要被克服的社會挑戰(societal challenge)尚無因應之道而有賴國家予以關注,此等問題與社會挑戰可能可以透過高風險、高報酬研究之進行而予以解決者。   根據The America COMPETES Act,TIP將依研究實力競爭(on the basis of merit competitions)的原則,透過分攤成本的研究補助(cost-shared research grants)、合作協議(cooperative agreements)或契約(contracts)等方式,鼓勵業界單獨或共同(透過合資方式)提出技術創新的研究計畫申請以合資方式提出者,其主導者(lead entity)可為中小型企業或高等教育機構。TIP的補助對象限於設立於美國並在美國境內經營其主事務的中小型企業,外國企業參與TIP若符合美國經濟利益者,亦得獲得補助。TIP的補助金額不超過個別研究計畫總成本的半數,且只能用於補助直接成本,間接成本、收益或管理費則不在補助之列。總計對單一單位的補助以最長三年且不超過三百萬美元為限;對於合作研究則以最長五年且不過過九百萬美元為限。由於The America COMPETES Act僅就TIP的補助目的、補助對象、補助條件等作原則性規定,其運作細節仍有待NIST進一步設計,日前NIS已於2008年3月7日對外公布TIP執行規則草案,徵求各界意見。   隨著TIP的規劃與實際運作,過去由NIST所執行的ATP也將完成其歷史性任務,由TIP取代並宣告美國政府支持產業技術研發的新理念-亦即透過支持高風險、高報酬之技術研究,以回應美國的國家重點需求領域。   身為全球創新的龍頭,美國所提出的科技研發創新政策向為各國學習與參考借鏡的標竿,隨著The America COMPETES Act的通過,新法中關於美國產業創新的新機制規劃,已引起其他國家高度關注。印度科技與地球科學(Science & Technology and Earth Sciences)部長在The America COMPETES Act通過的一個月後即宣佈,印度政府將於短期內提出全面性的印度創新法案(Indian Innovation Act),藉以激勵印度的創新,而此項創新法案將會以美國的America COMPETES Act為參考模型。

從美國PayPal經驗與歐盟支付服務指令論我國第三方支付服務之現狀與未來

美國「人工智慧應用管制指引」

  美國白宮科學與技術政策辦公室(The White House’s Office of Science and Technology Policy , OSTP)於2020年1月9日發布「人工智慧應用管制指引」(Guidance for Regulation of Artificial Intelligence Application),為美國政府機關起草人工智慧規範並進行管制時提供指引,該指引內要求各機關之規範應遵循以下10項人工智慧原則: 一.公眾對AI之信任:政府對AI之管制或其他措施應促進AI之可靠性、健全性,且於應用上應具備可信性。 二.公共參與:政府應提供機會讓利害關係人參與AI管制規範立法程序。 三.科學實證與資訊品質:科學實證與資訊品質:政府機關發展AI之相關技術資訊,應透過公開且可驗證之方式提供給大眾參考,以提高大眾對AI之信任與協助政策制定。 四.風險分析與管理:應採取以風險為基礎之分析評估方法,確認哪些風險係可接受之風險,或那些風險代表無法接受之損害或所失利易大於預期利益。 五.利益與成本:政府於擬定相關規範時,應小心評估AI對於整體社會之利益,與預期外之效果。 六.彈性:法規應持續滾動檢視與調修以因應AI之創新應用。 七.公平且無歧視:政府應針對AI之應用與決策,考量公平與無歧視相關議題。 八.揭露與透明:透明度與揭露程序之建立可提升公眾對AI應用之信任。 九.安全:政府應特別注意AI系統內所儲存或傳輸資訊之安全與相關安全維護控制措施。 十.跨機關合作:政府各部會或機構間應相互合作與分享經驗,以確保AI相關政策之一致性與可預測性。

英國發布「人工智慧:機會與未來決策影響」政策報告,並聚焦人工智慧運用及管理

  英國科學辦公室於2016年11月9日,發布一份政策報告:「人工智慧:機會與未來決策影響(Artificial intelligence: opportunities and implications for the future of decision making)」,介紹人工智慧對於社會及政府的機會和影響,此份政策報告並提出以下各項重要建議: (一)關於人工智慧及應用界定與發展   人工智慧是指由人工製造系統所表現出來的智慧。不僅是將現有的流程自動化,還包含制定目標,並利用電腦程式實現這些目標,常見案例包括線上翻譯、語音辨識、搜尋引擎篩選排序、垃圾郵件過濾、透過用戶回饋改善線上服務、預測交通流量、環境或社會經濟趨勢發展觀察等。 (二)未來對社會及政府利益及衝擊   人工智慧針對提高生產力有巨大的潛力,最明顯的就是幫助企業或個人更有效地運用資源,並簡化大量資料的處理,例如Ocado 及 Amazon這樣的公司正充份利用人工智慧改善倉儲及銷售網路系統,使得客戶可便利快速購得網購商品。   目前,政府也日益增加相關技術的運用,以提高公共服務效率,使資源達到最佳化分配;減少決策者被誤導的可能;使政府決策透明化;確保各部門更了解人民的意見。然政府在利用人工智慧及巨量資料時,應遵守倫理使用指南,並遵守英國資料保護法及歐盟一般資料保護規則等相關法規。   在巨量資料、機器人、自動系統對於勞動市場的衝擊一直都是關注的議題,對於面臨未來工作結構的轉型及相關技術人員的進修及培養,應及早規劃,以適應未來的轉變。 (三)關於相關道德及法律風險管理課題   人工智慧可能潛在相關道德倫理問題。許多專家認為政府應積極管理並降低風險發生可能性,可從以下兩個面向思考: (1)研究機器學習與個人資料運用結合時,對個人自由、隱私和同意等概念的影響。 (2)調適由人工智慧作決策行為時的歸責概念和機制。   有關實際案例之研究,則包括,執法單位在應用預測技術時,應避免以種族、國籍、地址作為標準,並嚴守無罪推定原則,以防止民眾受到歧視或不公平的指控;透過人工智慧可從公開資料推測出某些私人訊息或其親朋好友的消息,此訊息即可能超出原先個人同意披露的內容;原先匿名化及去識別化的訊息,因人工智慧功能加強,導至可能被重新識別,故須定期檢視該保護措施是否足夠。另外,人工智慧的演算偏差可能導致偏見的風險,為了降低這種風險,技術人員應採取對應措施。   針對責任及疏失的判斷,目前尚無太多的實務案例,但為保持對使用人工智慧的信任,仍需有明確的歸責制,可能有必要讓首席執行長或高級主管對人工智慧做出的決策負最終責任。許多專家也建議,部分技術內容須保持透明度,以確定技術使用時是否有盡到相關注意義務。   人工智慧已成為未來發展趨勢之一,對於社會整體層面影響將越來越深,新的技術除了可提升生產力,帶來便利的生活,同樣也會帶來衝擊。為促進相關產業發展及推展新技術的使用,應打造技術發展友善環境,並對於公眾安全進行相關風險評估,如果風險屬於現有監管制度範圍,應評估是否可充分解決風險,或是須要做相對應的調適。另外,在人工智慧融入現實世界同時,相關業者應注意相關產品安全性、隱私權保護和從業人員的倫理教育,以提高大眾對新技術的接受及信賴,並確保對於未來挑戰及轉變已做好萬全準備。

TOP