日本內閣府網路安全戰略本部(サイバーセキュリティ戦略本部)於2017年7月13日第14次會議中提出對2020年後網路安全相關戰略案之回顧(2020年及びその後を見据えたサイバーセキュリティの在り方(案)-サイバーセキュリティ戦略中間レビュー-),針對網路攻擊嚴重程度,訂立網路安全判斷基準(下稱本基準)草案。對於現代網路攻擊造成之嚴重程度、資訊之重要程度、影響範圍等情狀,為使相關機關可以做出適當之處理,進而可以迅速採取相應之行動,特制訂強化處理網路攻擊判斷基準草案。其後將陸續與相關專家委員討論,將於2017年年底發布相關政策。
本基準設置目的:為了於事故發生時,具有視覺上立即判斷標準,以有助於事故相關主體間溝通與理解,並可以做為政府在面對網路侵害時判斷之基準,成為相關事件資訊共享之體制與方法之基準。
本基準以侵害程度由低至高,分為第0級至第5級。第0級(無)為無侵害,乃對國民生活無影響之可能性;第1級(低)為對國民生活影響之可能性低;第2級(中)為對國民生活有影響之可能性;第3級(高)為明顯的對國民生活影響,並具高可能性;第4級(重大)為顯著的對國民生活影響,並具高可能性;第5級(危機)為對國民生活廣泛顯著的影響,並具有急迫性。除了對國民及社會影響,另外在相關系統(システム)評估上,在緊急狀況時,判斷對重要關鍵基礎設施之安全性、持續性之影響時,基準在第0級至第4級;平常時期,判斷對關鍵基礎設施之影響,只利用第0級至第3級。
本次報告及相關政策將陸續在一年內施行,日本透過內閣府網路安全戰略本部及總務省、經濟產業省與相關機構及單位之共同合作,按照統一之標準採取措施,並依據資訊系統所收集和管理之資料作出適當的監控及觀測,藉由構建之資訊共享系統,可以防止網絡攻擊造成重大的損失,並防止侵害持續蔓延及擴大,同時也將為2020年東京奧運會之資訊安全做準備。我國行政院國家資通安全會報目前公布了「國家資通安全通報應變作業綱要」,而日本以國民生活之影響程度標準列成0至5等級,其區分較為精細,且有區分平時基準及非常時期基準等,日本之相關標準可作為綱要修正時之參考。
英國「文化、媒體及體育部」(Department for Culture, Media and Sport,DCMS)於2010年10月14日宣布關於19個公共部門的改革或廢除的政策,目的在增加政府公共服務的透明度與負責度。這些政策也包含針對電信管制機關Ofcom的改革方案。 針對Ofcom擬議的改革如下:修訂Ofcom每五年檢討公共廣播服務的責任,改由部長決定檢討的時機與範圍。允許Ofcom能有彈性的改變其機關結構,但須經過部長批准。廢除Ofcom促進訓練發展機會與提供公平機會的責任。改變Ofcom對區域頻道Channel 32網路安排之檢討,由年度檢討轉變為保留由Ofcom評估是否需要檢討。修訂Ofcom每三年審查媒體所有權的責任,回歸由部長決定是否檢討。取消對公共廣播服務者需提供年度節目規劃政策資訊的要求。修訂Ofcom對於Channel 3 與Channel 5的執照控制權變更的自動審查責任。允許Ofcom向ITU收取衛星申請費用。而在政府組織改革中,也計畫將郵政主管機關Postcomm合併至Ofcom,並隨之修訂其義務與權限。由這些改革方案來看,主要的作用在於修正或限制部分Ofcom的責任,以將政策制訂的權限回歸DCMS部長,減少不必要的花費與提高行政效率,後續效應值得觀察。
美國國家標準與技術研究院公布人工智慧風險管理框架(AI RMF 1.0)美國國家標準與技術研究院(National Institute of Standards and Technology, NIST)於2023年1月26日公布「人工智慧風險管理框架1.0」(Artificial Intelligence Risk Management Framework, AI RMF 1.0),該自願性框架提供相關資源,以協助組織與個人管理人工智慧風險,並促進可信賴的人工智慧(Trustworthy AI)之設計、開發與使用。NIST曾於2021年7月29日提出「人工智慧風險管理框架」草案進行公眾徵詢,獲得業界之建議包含框架應有明確之衡量方法以及數值指標、人工智慧系統設計時應先思考整體系統之假設於真實世界中運作時,是否會產生公平性或誤差的問題等。本框架將隨著各界使用後的意見回饋持續更新,期待各產業發展出適合自己的使用方式。 本框架首先說明人工智慧技術的風險與其他科技的差異,定義人工智慧與可信賴的人工智慧,並指出設計該自願性框架的目的。再來,其分析人工智慧風險管理的困難,並用人工智慧的生命週期定義出風險管理相關人員(AI actors)。本框架提供七種評估人工智慧系統之信賴度的特徵,包含有效且可靠(valid and reliable):有客觀證據證明人工智慧系統的有效性與系統穩定度;安全性(safe):包含生命、健康、財產、環境安全,且應依照安全風險種類決定管理上的優先次序;資安與韌性(secure and resilient);可歸責與資訊透明度(accountable and transparent);可解釋性與可詮譯性(explainable and interpretable);隱私保護(privacy-enhanced);公平性—有害偏見管理(fair – with harmful bias managed)。 本框架亦提出人工智慧風險管理框架核心(AI RMF Core)概念,包含四項主要功能:治理、映射(mapping)、量測與管理。其中,治理功能為一切的基礎,負責孕育風險管理文化。各項功能皆有具體項目與子項目,並對應特定行動和結果產出。NIST同時公布「人工智慧風險管理框架教戰手冊」(AI RMF Playbook),提供實際做法之建議,並鼓勵業界分享其具體成果供他人參考。
荷蘭與德國率先成立GO FAIR國際支援與合作辦公室,推動歐洲開放科學雲歐洲開放科學雲(European Open Science Cloud, EOSC)旨在整合現有的數據基礎設施以及科研基礎設施,為歐洲研究人員與全球科研合作者提供共享的開放資料服務。為此,荷蘭與德國於12月率先成立GO FAIR國際支援與合作辦公室(The GO FAIR international support and coordination office, GFISCO)。荷蘭辦公室坐落於萊頓,並由荷蘭政府與萊頓大學醫學中心(Leiden University Medical Center)所共同出資設立。 該辦公室之成立源自於GO FAIR計畫,GO意即全球開放(The Global Open)、FAIR則分別係指可發現(Findable)、可連接(Accessible)、共同使用(Interoperable)和可重複使用(Re-usable),其目標在於跨越國界,開放目前科研領域現有的研究數據,係為邁向歐洲科學雲之里程碑。 荷蘭與德國曾於2017年5月時,發表聯合立場聲明書以展現推動歐洲開放科學雲以及全力支援GO FAIR計畫之企圖心,此次辦公室之設立為,包含以下主要任務: 支援由個人、機構、計畫組織等各方所組成的GO FAIR實踐網絡(GO FAIR Implementation Networks, INs)之營運工作。 進行GO FAIR實踐網絡之協調工作,以避免重複或壟斷之情形發生。 透過教育支援等方式倡議推行GO FAIR計畫。 GO FAIR國際支援與合作辦公室主要之角色為提供建言,而非幫助GO FAIR計畫做決策,若無達成預期效果或是缺乏明確的工作計畫時,該辦公室則可提供相關服務,以協助達成預期目標,並協助處理行政上之相關議題。