歐洲網路與資訊安全機構(European Network and Information Security Agency,簡稱ENISA)為了支持網路安全商品和服務進行標準化,於今年七月九日和歐洲標準化委員會(European Committee for Standardization,簡稱CEN)與歐洲電工技術標準化委員會(European Committee for Electrotechnical Standardization,簡稱CENELEC)共同簽署合作協議,來強化網路安全標準化的各項措施。
本合作協議的目的,在於能夠更有效地了解與解決網路和資訊安全標準化的議題,特別是處理和ENISA有所關連的不同訊息和通信技術(ICT)部門。本次簽署的合作協議,可視為是近來ENISA制定新法規的額外延伸,其將給予ENISA針對支持網路資訊安全(NIS)標準的發展,有更多積極的角色。本合作協議涉及的範圍包含下列情況:
‧ENISA於識別技術委員會(identified technical committees)作為觀察人,CEN與CENELEC的工作小組與講習作為支持歐洲標準的準備
‧CEN與CENELEC評估ENISA相關的研究成果,並且將其轉化成標準化活動
‧ENISA參與或適當地擔當依據CEN-CENELEC內部規章所組成的相關技術委員會、工作小組與講習之主席
‧散布和促進出版物、研究結果、會議或研討會之消息流通
‧對於促進活動與因NIS標準相關工作之商業聯繫建立和研究網絡提供相互支持
‧針對處理攸關NIS標準活動的科技和研究議題,舉辦各項局部工作小組、會議和研討會
‧針對共同利益確定之議題作相關資訊交換
有鑑於ENISA逐漸強調NIS標準化的相關工作,標準化不僅能改善網路安全外,更能提高所有網路安全產品與服務當面對不同網路威脅時的防禦能力。是以,我國資安主管機關是否亦需協調所有資安部門,針對網路安全技術架構研擬或規劃出相關標準化的網路威脅防範模組,則是亟需思考的問題。
本文為「經濟部產業技術司科技專案成果」
為了促進美國、韓國兩國之間的反托拉斯法主管機關合作。今年9月8日,美國司法部(Department of Justice,DOJ)、美國聯邦貿易委員會(Federal Trade Commission,FTC)與韓國公平貿易委員會(Korea Fair Trade Commission,KFTC)於華盛頓特區簽訂一反托拉斯備忘錄(memorandum of understanding,MOU);該備忘錄係由美國司法部反托拉斯署助理檢察總長Bill Baer與聯邦貿易委員會女主席Edith Ramirez及韓國公平交易委員會Jeong Jae-chan共同簽署。本備忘錄於簽署後立即生效。 反托拉斯署助理檢察總長Bill Baer表示:「具有坦誠和建設性對話之執法合作對於美國、韓國及全世界各地之競爭市場維持皆極其重要。本備忘錄標示了一直以來美國與韓國公平貿易委員會之間的合作關係;並展現出我們在未來日子中,欲持續加強該合作關係的企圖心。」該備忘錄的重點包含: 反托拉斯合作重要性的相互承認,包括在進行共同執法時,互相協調的重要性。 闡明了美國反托拉斯執法機關與韓國公平貿易委員會之間溝通的重要性。 承諾保護另一方所提供訊息之機密性;並承諾在法規不允許的情況下,禁止分享資訊。 自韓國1981年通過其反托拉斯法後,美國反托拉斯主管機關和韓國公平貿易委員會之合作關係越來越緊密;其中包括政策意見的交換,並視情況進行合作開展調查。本次所簽訂之備忘錄旨在進一步推動這些合作關係。
人工智慧採購指南草案人工智慧作為一前瞻性技術,運用於公部門,可以降低成本、提高管理品質、節省基層公務人員時間,整體改善政府公共服務。然而AI技術進化以及市場發展過於快速,現有採購類型沒有可以直接適用AI採購的判斷標準範本。因此,英國人工智慧辦公室(Office for Artificial Intelligence)與產官學研各界進行研商後,於2019年9月20日發表人工智慧採購指南草案(Draft Guidelines for AI procurement),作為公部門採購AI產品與服務之準則。該指南旨在加強公部門採購人員能力、協助採購人員評估供應商,讓廠商可以隨之調整其產品和服務內容。 該指南提供採購人員規劃政府AI採購的方向,包含招標、公告、評選、決標到履約。但指南強調無法解決採購AI產品與服務時遇到的所有挑戰。 指南內容簡述如下: 在制定規範時應重視如何清楚闡述面臨到的問題,而非只是說明解決方案; 評估AI帶來的風險時應緊扣公共利益,在招標階段敘明以公共利益為核心,並有可能在招標、評選和決標階段變動評估標準; 在招標文件中確實引用法規和AI相關實務守則; 其他包含將AI產品的生命週期納入招標和履約考慮、為提供AI產品和服務的廠商創造公平競爭環境、需與跨領域的團隊進行採購討論、確保採購流程從一開始就建立資料管理機制等。
美國國家標準暨技術研究院規劃建立「人工智慧風險管理框架」,並徵詢公眾對於該框架之意見美國國家標準暨技術研究院(National Institute of Standards and Technology, NIST)為管理人工智慧對於個人、組織以及社會所帶來之風險,於2021年7月29日提出將建立「人工智慧風險管理框架」(Artificial Intelligence Risk Management Framework, AI RMF)之規畫並徵詢公眾意見,截止日為9月15日,並預計於10月發布正式報告。 依照NIST說明,公眾所建議之人工智慧風險管理框架,可促進人工智慧之可信賴性,其中包含如何應對並解決人工智慧於設計、發展及使用過程中所遭遇之「精確度」(accuracy)、「可解釋性」(explainability)、「偏見」(bias)等議題。此外,上開管理框架預計為非強制性、供企業自願性使用於人工智慧設計、發展、使用、衡量及評估之人工智慧標準。 依現有公眾意見徵詢結果,其中DeepMind公司建議於人工智慧設計初期,必須預先構思整體系統之假設是否符合真正社會因果關係。舉例言之,當設計一套可預測民眾健保需求程度之系統時,如輸入參數僅考量民眾於醫療上的花費,將使僅有可負擔較高醫療費用之民眾被歸類為健保需求程度較高者,從而導致健保制度排擠經濟負擔程度較差之公民,故在設計系統時,應從預先設定之假設事實反面(counter-factual)思考並驗證是否會產生誤差或公平性之問題(例如預先思考並驗證「醫療費用支出較低之民眾是否即可被正確歸類為健保需求度低之民眾」)。惟進行上述驗證需要大量社會資料,因此DeepMind也建議NIST應建立相關機制,使這些社會資料可以被蒐集、使用。 此外,亦有民眾建議管理框架應有明確之衡量方法以及數值指標,以供工程界遵循。同時鑒於人工智慧發展極為快速,未來可能有不同於以往之人工智慧類型出現,故亦建議NIST應思考如何在「建構一套完整且詳細之人工智慧治理框架」與「保持人工智慧治理框架之彈性與靈活性」之間取得平衡。 最後,目前也有許多徵詢意見指出,許多人工智慧治理之目標會相互衝突。舉例言之,當NIST要求人工智慧系統應符合可解釋性,則人工智慧公司勢必需要經常抽取人工智慧系統中之「數據軌跡」(audit logs),惟數據軌跡可能被認為是使用者之個人資料,因此如何平衡或完善不同治理框架下之目標,為未來應持續關注之議題。
從歐盟、新加坡固網法規檢視台灣高速寬頻環境發展困境