美國能源部加強推動智慧電網之網路安全,並提供自我評估調查工具

  美國能源部於今年(2012)6月28日發布一套新的網路安全自我評估調查工具(Cybersecurity Self-Evaluation Survey Tool),以強化保護公共事業的業者避免遭受網路安全的攻擊,這套工具也是能源部為施行其於5月31日公布的網路安全能力成熟度模型(Cybersecurity Capability Maturity Model)的一部分,同時此模型的發展也是為了支持白宮的電力網路安全風險管理成熟度倡議( Electricity Subsector Cybersecurity Risk Management Maturity Initiative)。

 

  網路安全成熟度模型的發展乃係由能源部與國土安全部共同領導,並且與業界、其他聯邦機構以及卡內基大學軟體工程研究所合作進行,該模型的四個目標在於:加強電力網路安全能力、使相關業者可以有效並持續設立網路安全能力的基準、分享知識、解決的方法與其他相關的參考資料、使業者得以排定對於改善網路安全的行動以及投資上的優先順序,以幫助業者發展並且評估他們的網路安全能力。

 

  此次發佈的評估工具則是以問卷的方式,著重在情境式的認知與威脅及弱點的管理,而後能源部將針對自願提供評估結果的業者提供個案報告,幫助業者改善其網路安全能力,同時,能源部也建議業者,建立優先行動方案,以解決差距的問題,並且定期評估追蹤網路安全能力的改善進度,能源部也提醒業者注意網路威脅環境上與技術上的改變,以進行應變的評估。

相關連結
相關附件
※ 美國能源部加強推動智慧電網之網路安全,並提供自我評估調查工具, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=5855&no=55&tp=1 (最後瀏覽日:2026/05/17)
引註此篇文章
你可能還會想看
日本公布第6期科學技術與創新基本計畫草案並募集公眾意見,著重疫情與科技基本法修正後之因應

  日本內閣府於2021年1月20日發布「第6期科學技術與創新基本計畫」(科学技術・イノベーション基本計画,以下稱第6期科技創新基本計畫)草案,並自即日起至同年2月10日,對外徵求公眾意見。依2020年6月修正通過之日本科學技術與創新基本法(科学技術・イノベーション基本法,預定2021年正式公告施行)第12條規定,要求政府應就振興科學技術與創新創造的政策,擬定基本計畫並適時檢討調整,同時對外公告。而本次草案的提出,便為因應現行的第5期科學技術基本計畫即將屆期,啟動擬定下一期基本計畫。   依草案內容,第6期科技創新基本計畫延續Society5.0的願景,並以數位化及數位科技作為發展核心。但檢視至今的科技創新政策成效,數位化進程不如政策目標所預期;受COVID-19疫情影響,也提升了科技普及化應用的重要性。另一方面,科學技術基本法的修正,則揭示了人文社會科學與自然科學跨域融合運用的方向,並期待藉由創新創造納為立法目的,實現進一步的價值創造。基此,第6期科技創新基本計畫提出,應從強化創新、研究能量及確保人才與資金的三方向為主軸,結合SDGs、數位化、資料驅動及日本共通在地價值,建構出「日本模型」(Japan Model)作為實現Society5.0的框架。   針對如何強化創新能力、研究能量及確保人才與資金,計畫草案提出以下方向: (1)強化創新能力:整體性強化創新生態系(innovation ecosystem),建構具韌性的社會體系,並有計畫地推動具社會應用可能的研發活動。具體作法包含藉由AI與資料促成虛擬空間與現實世界的互動優化、持續縮減碳排放量實現循環經濟、減低自然災害與傳染病流行對經濟社會造成的風險、自社會需求出發推動產業結構走向創新、拓展智慧城市(smart city)的應用地域等。 (2)強化研究能力:鼓勵開放科學與資料驅動型之研究,並強化研究設備、機器等基礎設施的遠端與智慧機能,推動研究體系的數位轉型;以資料驅動型為目標,多元拓展具高附加價值的研究,包含生命科學、環境、能源、海洋、防災等領域;擴張大學的機能,如增進大學的自主性,從經營的角度調整與鬆綁國立大學法人的管理與績效評鑑方式等,用以厚植創新基底。 (3)人才培育及資金循環:目標培養具備應變力與設定議題能力的人才;同時藉由資助前瞻性研發,結合大學的基礎科研成果,激發創新的產出及延伸收益,並回頭挹注於研發,建立研發資金的循環運用體系。

論網路環境下的通訊監察法制

德國最新無人機之法規命令(Die Drohnen-verordnug)

  德國在2017年的3月通過了最新的無人機相關法規命令,亦包含傳統模型飛機的部分,並於2017年4月7日生效,新的修正重點如下: 模型飛機如在專用的機場飛行則維持不變,但如果離開專用機場作使用時,則必須安裝記載有所有人姓名及住址的徽章。 在非專用機場使用時,無人機與模型飛機的共通事項: (1) 超過0.25公斤時:必須安裝記載有所有人姓名及住址的徽章。 (2) 超過2公斤時:除前述的徽章外,還必須有特別的有關無人機或模型飛機的專業知識證明;而該知識證明,可以從聯邦航空局(Luftfahrt-Bunderamt)或民間飛行運動協會(Luftsportverband)透過考試取得。 (3) 超過5公斤時:除前述的條件外,需要從各地區航空管理部門(Landesluftfahrtbehörden)追加額外的升空許可(Aufsteigserlaubnis)。 關於操作者的規範: (1) 無人機的操作者,除了在模型飛機基地外,原則上禁止飛行超過100米高,但可向地區航空管理部門提出申請。 (2) 模型飛行器操作者須有專業知識證明。 (3) 無人機與模型飛行器只能在能肉眼可見下飛行。 一般適用規定:無人機與模型飛行器不能阻礙或危害人力駕駛飛行器。 禁止事項: (1) 所有的無人機或模型飛行器不得在敏感區域(例如:警察機關、救難隊、大群民眾所在地、主幹道、航空起降區等)使用。 (2) 無人機與模型飛行器不得於住宅區接收、播送、以及紀錄影片、聲音、或是無線電訊號。   綜合觀察可以發現,德國對於無人機的使用規範(或限制),可以歸結至三 方面,對於使用人的規範、無人機的大小以及使用地點的限制。

德國向歐盟提交《人工智慧白皮書-歐洲卓越與信任概念》及《人工智慧,物聯網和機器人技術對安全和責任之影響報告》意見

  德國聯邦政府於2020年6月29日,針對歐盟執委會於2020年2月19日公布的《人工智慧白皮書-歐洲卓越與信任概念》(Weißbuch zur Künstlichen Intelligenz – ein europäisches Konzept für Exzellenz und Vertrauen)及《人工智慧,物聯網和機器人技術對安全和責任之影響報告》(Bericht über die Auswirkungen künstlicher Intelligenz, des Internets der Dinge und der Robotik in Hinblick auf Sicherheit und Haftung) 提交意見,期能促進以負責任、公益導向、以人為本的人工智慧開發及使用行為,並同時提升歐盟的競爭力及創新能力。   歐盟執委會所發布的人工智慧的白皮書及人工智慧對安全和責任的影響報告,一方面可促進人工智慧使用,另一方面則藉此提醒相關風險。本次意見主要集結德國聯邦經濟與能源部、教育與研究部、勞動與社會事務部、內政、建築及社區部以及司法與消費者保護部之意見。德國政府表示,投資人工智慧為重要計畫之一,可確保未來的創新和競爭力,以及應對諸如COVID-19疫情等危機。最重要的是,可透過人工智慧的應用扶持中小型公司。然而在進行監管時,必須注意應促進技術發展而非抑制創新。   在《人工智會白皮書-歐洲卓越與信任概念》中指出,人工智慧發展應在充分尊重歐盟公民的價值觀和權利的前提下,實現AI的可信賴性和安全發展之政策抉擇,並於整體價值鏈中實現「卓越生態系統」(Ökosystem für Exzellenz),並建立適當獎勵機制,以加速採用AI技術為基礎之解決方案。未來歐洲AI監管框架將創建一個獨特的「信任生態系統」(Ökosystem für Vertrauen),並確保其能遵守歐盟法規,包括保護基本權利和消費者權益,尤其對於在歐盟營運且具有高風險的AI系統更應嚴格遵守。此外,應使公民有信心接受AI,並提供公司和公共組織使用AI進行創新之法律確定性。歐盟執委會將大力支持建立以人為本之AI開發方法,並考慮將AI專家小組制定的道德準則投入試行階段。德國政府指出,除了要制定並遵守歐洲AI的監管政策外,應特別注重保護人民之基本權,例如個人資料與隱私、消費者安全、資料自決權、職業自由、平等待遇等,並呼籲國際間應密切合作,運用人工智慧技術克服疫情、社會和生態永續性等挑戰。另外,德國政府亦支持將人工智慧測試中心與真實實驗室(監理沙盒場域)相結合,以助於加速企業實際運用,也將帶頭促進AI在公部門之運用。   在《人工智慧,物聯網和機器人技術對安全和責任之影響報告》中則指出,歐洲希望成為AI、IoT和機器人技術的領導者,將需要清楚、可預測的法律框架來應對技術的挑戰,包括明確的安全和責任框架,以確保消費者保護及企業合法性。AI、IoT和機器人技術等新數位技術的出現,將對產品安全性和責任方面出現新挑戰,而在當前的產品安全法規上,缺乏相關規範,特別是在一般產品的安全指令,機械指令,無線電設備指令等,未來將以一致地在各框架內針對不同法律進行調修。在責任方面,雖然原則上現有法令尚仍可應對新興技術,但人工智慧規模的的不斷變化和綜合影響,將可能增加對受害者提供賠償的困難度,導致不公平或效率低下的情形產生,為改善此一潛在不確定性,可考慮在歐盟層級調修產品責任指令和國家責任制度,以顧及不同AI應用所帶來的不同風險。德國政府除了支持歐盟作法,在創新與監管取得平衡,更強調應不斷檢視產品安全和產品責任法是否可滿足技術發展,尤其是對重要特定產業的要求,甚至修改舉證責任。並可透過標準化制定,加速人工智慧相關產品與服務的開發。另外,應依照風險高低擬定分類方法,並建議創建高風險AI系統之註冊與事故報告義務,以及相關數據保存、記錄及資料提供之義務,針對低風險AI應用則採自願認證制度。

TOP