歐盟NIS 2指令生效,為歐盟建構更安全與穩固的數位環境

歐盟第2022/2555號《於歐盟實施高度共通程度之資安措施指令》(Directive (EU) 2022/2555 on measures for a high common level of cybersecurity across the Union, NIS 2 Directive)於2023年1月16日正式生效,其於《網路與資訊系統安全指令》(Directive on Security of Network and Information Systems, NIS Directive)之基礎上,對監管範圍、成員國協調合作,以及資安風險管理措施面向進行補充。

(1)監管範圍:
NIS 2納入公共電子通訊網路或服務供應、特定關鍵產品(如藥品與醫療器材)製造、社交網路平台與資料中心相關數位服務、太空及公共行政等類型,並以企業規模進行區分,所有中大型企業皆須遵守NIS 2之規定,而個別具高度安全風險之小型企業是否需要遵守,則可由成員國自行規範。

(2)成員國協調合作:
NIS 2簡化資安事件報告流程,對報告程序、內容與期程進行更精確的規定,以提升成員國間資訊共享的有效性;建立歐洲網路危機聯絡組織網路(European cyber crisis liaison organisation network, EU-CyCLONe),以支持對大規模資安事件與危機的協調管理;為弱點建立資料庫及揭露之基本框架;並引入更嚴格的監督措施與執法要求,以使成員國間之裁罰制度能具有一致性。

(3)資安風險管理措施:
NIS 2具有更為詳盡且具體之資安風險管理措施,包含資安事件回報與危機管理、弱點處理與揭露、評估措施有效性的政策與程序、密碼的有效使用等,並要求各公司解決供應鏈中的資安風險。

本文為「經濟部產業技術司科技專案成果」

相關連結
你可能會想參加
※ 歐盟NIS 2指令生效,為歐盟建構更安全與穩固的數位環境, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8973&no=64&tp=1 (最後瀏覽日:2025/12/04)
引註此篇文章
你可能還會想看
美國和歐盟合作推動統一優良臨床試驗規範

  美國聯邦食品藥物管理局(U.S. Food and Drug Administration)和歐洲醫藥局(European Medicines Agency)在2009年7月31日共同公佈了一項名為優良臨床試驗行動(Good Clinical Practices Initiative)的合作計畫,期能藉由該計畫,使得不論是在美國或歐盟,所有臨床試驗之執行,都有遵守相同且適當的規範。   在醫藥品上市申請的實務中,因為大部份的醫藥品都會企圖向廣大的歐美市場扣關,同樣的臨床試驗通常也會分別提交到兩地的醫藥品上市許可申請程序中。故若兩地主管機關可以合作訂出統一的優良臨床試驗規範,則可避免因重複審查所造成的資源浪費,申請者也可以因為統一的規範而加速其在兩地審查的程序,且在跨國資訊交流整合下,也可為臨床試驗研究的參與者提供更好的安全基礎。   此次美國聯邦食品藥物管理局,和歐洲醫藥局合作之優良臨床試驗行動的幾個主要目標如下: 一、定期交換有關優良臨床試驗之實務操作資訊:交換的資訊包括(1)彼此的優良臨床試驗(Good Clinical Practices, GCP)查核計畫,以了解有那些臨床試驗或地點是對方會去查核的,就不需要重覆查核;(2)彼此受理的上市申請案件中,有關GCP的如科學上的建議或上市申請的結果等;以及(3)彼此執行GCP查核之結果。二、共同執行優良臨床試驗審查:藉此了解對方之GCP查核程序,並進而信賴彼此之程序,也藉由共同執行時之交流,提昇彼此查核之技巧,及精進查核之程序。 三、合作增進優良臨床試驗規範:藉由對彼此GCP相關法規、指導原則、和政策等的交流及了解,找出現有規範中可予以改進之處,以增進臨床試驗研究的品質。   自2009年9月1日起,此項合作行動將首先開始一個為期18個月的先期行動,在此先期行動結束後,兩主管機關將會共同發布一份包含其整體行動計畫,及雙方就各自既有法規或程序應予以調整部分。

英HFEA同意該國婦女利用PGD技術「訂製嬰兒」

  現今生殖醫學進步相當快速,透過諸如胚胎殖入前之基因診斷( PGD )、組織配對( tissue match )等新興生物技術,人們將有能力選擇未來孩子的外表、智力、健康甚至性別等,故就現今的科技發展而言,篩選具有某種特徵之嬰兒的技術能力早已具備,反而是相關的倫理、道德及社會共識等等卻是最難的部分,這也是有關「訂製嬰兒」( design babies )之爭議焦點。   近幾年,訂製嬰兒的討論在英國非常熱烈,在英國,人工生殖之進行應依人工生殖與胚胎學法規定,獲得 「人類生殖與胚胎管理局」 ( Human Fertilization and Embryology Authority, HFEA )之許可,至於進行人工生殖之同時,父母親是否得附加進一步的條件以「訂製嬰兒」,則一直有爭議。英國高等法院在 2002 年 12 月 20 日的一項判決中曾認為,國會制訂人工生殖與胚胎學法之目的,乃是在協助不孕婦女能夠生兒育女,至於組織配對的行為,則不在該法授權目的之內,因此 HFEA 無權就此等行為給予准駁。惟 2003 年 4 月 8 日 ,上訴法院推翻了高等法院的判決結果,但也進一步指出,這並不代表未來所有在進行 PGD 的同時加做組織配對之行為都是被允許的,想要施行這項技術之任何人,仍然需於事前取得 HFEA 的許可,新近 HFEA 已放寬管制規範,准許對更多種遺傳性疾病進行篩檢。   英國泰晤士報最近報導,一名英國女子已獲得英國 HFEA 同意 ,讓醫師將其透過體外受精方式培養出來的胚胎,利用基因篩檢技術,選擇出健康之胚胎植入其子宮內,以避免將她所罹患的遺傳性眼癌「視網膜母細胞瘤」基因傳給下一代。   本案婦女雖經 HFEA 同意「訂製嬰兒」,但仍會使「胚胎殖入前之基因診斷」( PGD )程序的爭議加劇,反對人士堅稱,基因篩檢的過程中勢必摧毀部分胚胎,且 為了某些目的而製造胚胎,將使人類被商品化,被訂製之嬰兒在長大成人後,若得知其出生之目的乃是在於治療其它親人,其心裡會對自己產生懷疑,並影響對自己人格的認同與其心理狀態。隨著生物技術發展飛快,許多可能背離社會良俗的行為恐將不斷出現,而法規能否隨之跟上則是生技產業能否興盛與倫理道德可否兼顧之重要關鍵。

新加坡交易所發布(2013)智財揭露指引鼓勵上市企業揭露智財權利資訊

  新加坡政府於2013年3月完成10年期的IP Hub Master Plan,並點出三個戰略目標,以帶領新加坡成為亞洲的智財匯流中心。在其智財匯流中心(IP Hub)的政策規劃中,主要是希望成為全球: 1.智財交易及管理中心(A hub for IP transactions and management ) 2.優質智財申請中心(A hub for quality IP filings) 3.智財爭端解決中心(A hub for IP dispute resolution)。   針對「智財交易及管理中心」目標實施策略,考量若能鼓勵企業揭露重要的智慧財產權資訊,將有助於使投資人更瞭解公司的競爭優勢及發展潛力。亦即企業的智慧財產權資訊適時揭露,將能爭取到更多外部資金投入,降低募資之成本。   據此,新加坡交易所(Singapore Exchange,SGX)於同年4月1日發佈智財揭露指引鼓勵上市企業揭露智財權利資訊。其中,除涉及可能損及公司商業活動之營業秘密,或涉及專利權之申請等事項外,公司對於智慧財產權之揭露訊息原則包括以下: 1.說明或解釋智財權對於公司經營業務之價值所在 。 2.為確保非專業的投資者都能夠理解揭露資訊,用語不受行話以及技術語言之限制。 3.解釋有關的智財權於根本上影響到公司的經營業務,以及獲利能力和公司及其子公司之前景與整體影響。   實際上,香港交易所亦曾於2012年2月發佈「上市文件智慧財產權揭露規範」,希望申請上市的企業能加強在上市文件中的智慧財產權揭露。該規範與新加坡證交所之智財揭露指引之內容,並無二致,皆希望透過智財權資訊之揭露,以增加投資人之投資意願;亦即,揭露程度越高,公司募資成本越低。

美國國家標準與技術研究院公布人工智慧風險管理框架(AI RMF 1.0)

美國國家標準與技術研究院(National Institute of Standards and Technology, NIST)於2023年1月26日公布「人工智慧風險管理框架1.0」(Artificial Intelligence Risk Management Framework, AI RMF 1.0),該自願性框架提供相關資源,以協助組織與個人管理人工智慧風險,並促進可信賴的人工智慧(Trustworthy AI)之設計、開發與使用。NIST曾於2021年7月29日提出「人工智慧風險管理框架」草案進行公眾徵詢,獲得業界之建議包含框架應有明確之衡量方法以及數值指標、人工智慧系統設計時應先思考整體系統之假設於真實世界中運作時,是否會產生公平性或誤差的問題等。本框架將隨著各界使用後的意見回饋持續更新,期待各產業發展出適合自己的使用方式。 本框架首先說明人工智慧技術的風險與其他科技的差異,定義人工智慧與可信賴的人工智慧,並指出設計該自願性框架的目的。再來,其分析人工智慧風險管理的困難,並用人工智慧的生命週期定義出風險管理相關人員(AI actors)。本框架提供七種評估人工智慧系統之信賴度的特徵,包含有效且可靠(valid and reliable):有客觀證據證明人工智慧系統的有效性與系統穩定度;安全性(safe):包含生命、健康、財產、環境安全,且應依照安全風險種類決定管理上的優先次序;資安與韌性(secure and resilient);可歸責與資訊透明度(accountable and transparent);可解釋性與可詮譯性(explainable and interpretable);隱私保護(privacy-enhanced);公平性—有害偏見管理(fair – with harmful bias managed)。 本框架亦提出人工智慧風險管理框架核心(AI RMF Core)概念,包含四項主要功能:治理、映射(mapping)、量測與管理。其中,治理功能為一切的基礎,負責孕育風險管理文化。各項功能皆有具體項目與子項目,並對應特定行動和結果產出。NIST同時公布「人工智慧風險管理框架教戰手冊」(AI RMF Playbook),提供實際做法之建議,並鼓勵業界分享其具體成果供他人參考。

TOP