美國針對政府雲端運算應用之資訊安全與認可評估提案

  為建構政府雲發展的妥適環境,美國於今年度啟動「聯邦風險與認可管理計畫」(Federal Risk and Authorization Management Program, FedRAMP),由國家技術標準局(National Institute of Standards and Technology, NIST)、公共服務行政部(General Service Administration)、資訊長聯席會(CIO Council)及其他關連私部門團體、NGO及學者代表共同組成的跨部會團隊,針對外部服務提供者提供政府部門IT共享的情形,建構一個共同授權與持續監督機制。在歷經18個月的討論後,於今(2010)年11月提出「政府雲端資訊安全與認可評估」提案(Proposed Security Assessment & Authorization for U.S Government Cloud Computing),現正公開徵詢公眾意見。


  在FedRAMP計畫中,首欲解決公部門應用雲端運算所衍伸的安全性認可問題,因此,其將研議出一套跨部門共通性風險管理程序。尤其是公部門導入雲端應用服務,終究會歸結到委外服務的管理,因此本計劃的進行,是希望能夠讓各部門透過一個機制,無論在雲端運算的應用及外部服務提供之衡量上,皆能依循跨機關的共通資訊安全評定流程,使聯邦資訊安全要求能夠協調應用,並強化風險管理及逐步達成效率化以節省管理成本。


  而在上述「政府雲端資訊安全與認可評估」文件中,可分為三個重要範疇。在雲端運算安全資訊安全基準的部份,主要是以NIST Special Publication 800-535中的資訊安全控制項作為基礎;並依據資訊系統所處理、儲存與傳輸的聯邦資訊的敏感性與重要性,區分影響等級。另一部份,則著重在持續性的系統監控,主要是判定所部署的資訊安全控制,能否在不斷變動的環境中持續有效運作。最後,則是針對聯邦資訊共享架構,出示模範管理模式、方策與責任分配體系。

本文為「經濟部產業技術司科技專案成果」

相關連結
※ 美國針對政府雲端運算應用之資訊安全與認可評估提案, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?no=55&tp=1&d=5356 (最後瀏覽日:2024/03/04)
引註此篇文章
你可能還會想看
中國通過網路安全法

  中國人大常委會於11月7日通過了備受爭議的網路安全法(以下簡稱本法),將於2017年6月1日開始施行。本法分為7章,共計79條。   本法立法目的係為了保障網路安全,維護網路空間主權和國家安全、社會公共利益,保護公民、法人和其他組織的合法權益,促進經濟社會資訊化健康發展(第1條)。本條賦予了管理部門極大的管理權能,引發了「中國將建立國家互聯網」的聯想。本法適用範圍包括在中華人民共和國境內建設、運營、維護和使用網路,以及網路安全的監督管理(第2條)。本法相關重點,摘要如次: 一、本法第21條將「網路實名制」明文化。規定網路營運者在為用戶辦理上網、電話等入網手續,或為用戶提供信息發布、即時通訊等服務,在與用戶簽訂契約時,應當要求用戶提供真實身份資訊。若用戶不提供真實身份資訊,網路營運者不得為其提供相關服務。 二、本法強化對個人資料之規範,例如:規定個人資料不得出售(第44條)。 三、嚴厲禁止任何網路詐騙行為(第46、67條)。 四、重大突發社會安全事件可在特定區域採取「網路通信限制」等臨時措施(第58條)。 五、境外的機構、組織、個人從事攻擊、侵入、干擾、破壞等危害中國的關鍵資訊基礎設施的活動,造成嚴重後果者,將依法追究法律責任;國務院公安部門和有關部門並可以決定對該機構、組織、個人採取凍結財產或者其他必要的制裁措施。(第75條)

德國機器人和人工智慧研究

  人工智慧及機器人分為以下4種類型:首先是工廠裡的作業機器人,可自主性重複執行相同任務,例如拾取、放置、運輸物品,它們在侷限的環境中執行具體事務,而且通常是在周圍無人的圍籬區內作業,然而目前趨勢已有越來越多機器人可安全執行人機協作的任務。第二種係用在傳統製造外的專業機器人,例如:擠奶機器人、醫院手術機器人。第三種是生活中常見的消費產品機器人,常用於私人目的,例如:吸塵器機器人、割草機器人。最後是人工智慧軟體,此軟體可應用於醫療診斷輔助系統、語音助理系統中,目前越來越多人工智慧軟體結合復雜的感測器和聯網裝置,可執行較複雜之任務,例如:自動駕駛車。   德國人工智慧研究中心(Deutsche Forschungszentrum für Künstliche Intelligenz,DFKI)為非營利性公私合作夥伴(PPP)之研究機構,與歐盟,聯邦教育及研究部(BMBF)、德國聯邦經濟及能源部(BMWi),各邦和德國研究基金會(DFG)等共同致力於人工智慧之研究發展,轄下之機器人創新中心(Robotics Innovation Center,RIC)亦投入水下、太空、搜救、物流、製造業等各領域機器人之研究,未來將著重於研究成果的實際運用,以提升各領域之生產力。2016年6月,各界專家於德國聯邦議院的數位議程委員會中,呼籲立法者應注意機器人技術對經濟,勞動和社會的影響,包括技術及產品的安全標準、機器人應用之法律歸責問題、智慧財產權的歸屬與侵權問題,隱私權問題、及是否對機器人課稅等,進行相關修法監管準備。   解決台灣人口結構老化、勞動力短缺與產業競爭力等問題已是當務之急,政府為促進台灣產業轉型,欲透過智慧機械創新與物聯網技術,促使產業朝智慧化生產目標邁進。未來除需持續精進技術研發與導入產業業升級轉型外,應將人工智慧納入政策方針,並持續完備法制環境建構及提升軟實力,以確保我國技術發展得以跟上世界潮流。

美國營業秘密之獨立經濟價值的認定趨勢變化

2023年6月來自美國法院的兩份營業秘密意見,強調了獨立經濟價值的重要性,並打破過往學者認為該要件沒有判斷實益的擔憂。所謂的獨立經濟價值,是指任何資訊若要成為營業秘密,所需具備源自其保密狀態的經濟價值。由於兩份意見都不允許原告透過薄弱之推論與假設,來證明其營業秘密具有獨立之經濟價值,顯示出法院對獨立經濟價值之認定趨勢的變化。 其中一份意見來自美國第四巡迴上訴法院,該法院認為原告未能提供充分的證據證明其營業秘密之價值,並駁回原告以該公司被收購之價格或授權其專有資料庫VulnDB所得收入,作為其75項涉案營業秘密經濟價值的論點。美國第四巡迴上訴法院強調,原告不僅需證明所主張之營業秘密具有經濟價值,尚需證明該經濟價值源自所主張之營業秘密的保密狀態。 另一份意見來自美國俄亥俄州北區地方法院,該法院駁回了原告透過其執行長的宣誓書來證明所主張之營業秘密具有獨立經濟價值的作法。儘管該宣誓書討論了法院經常認定為營業秘密的資訊,比如交易的形式、未經審計的財務報表等,但美國俄亥俄州北區地方法院仍拒絕主觀證詞,要求原告提供所主張之營業秘密具有獨立經濟價值的客觀指標或理由。 企業該如何證明其營業秘密具有獨立之經濟價值? 企業可透過下列方式來證明其營業秘密具有獨立之經濟價值,包括: 1.開發成本:開發營業秘密的時間與材料成本,但過去的研發成本未必等於現在的經濟價值; 2.授權、租賃費:他人付費使用其營業秘密的事實; 3.內部通訊紀錄:他人承認該營業秘密所帶來的好處或前僱員、承包商與其競爭對手分享營業秘密的事實; 4.展現出優勢:透過營業秘密資訊獲得一份有價值的合約或滿足某些標準、條件之要求; 5.降低成本/提高效率:透過營業秘密減少原物料之投入及所需時間或提高生產之效率。 隨著美國法院對獨立經濟價值之認定趨勢的變化,營業秘密案件之原告所負的舉證責任將逐漸提高。據此,當企業欲提出不當使用營業秘密之損害賠償時,應盡早開始收集相關證據,以滿足法院對於營業秘密之獨立經濟價值的認定標準。 本文同步刊登於TIPS網站(https://www.tips.org.tw)。

經濟合作與發展組織發布《促進AI可歸責性:在生命週期中治理與管理風險以實現可信賴的AI》

經濟合作與發展組織(Organisation for Economic Co-operation and Development, OECD)於2023年2月23日發布《促進AI可歸責性:在生命週期中治理與管理風險以實現可信賴的AI》(Advancing accountability in AI: Governing and managing risks throughout the lifecycle for trustworthy AI)。本報告整合ISO 31000:2018風險管理框架(risk-management framework)、美國國家標準暨技術研究院(National Institute of Standards and Technology, NIST)人工智慧風險管理框架(Artificial Intelligence Risk Management Framework, AI RMF)與OECD負責任商業行為之盡職調查指南(OECD Due Diligence Guidance for Responsible Business Conduct)等文件,將AI風險管理分為「界定、評估、處理、治理」四個階段: 1.界定:範圍、背景、參與者和風險準則(Define: Scope, context, actors and criteria)。AI風險會因不同使用情境及環境而有差異,第一步應先界定AI系統生命週期中每個階段涉及之範圍、參與者與利害關係人,並就各角色適用適當的風險評估準則。 2.評估:識別並量測AI風險(Assess: Identify and measure AI risks)。透過識別與分析個人、整體及社會層面的問題,評估潛在風險與發生程度,並根據各項基本價值原則及評估標準進行風險量測。 3.處理:預防、減輕或停止AI風險(Treat: Prevent, mitigate, or cease AI risks)。風險處理考慮每個潛在風險的影響,並大致分為與流程相關(Process-related)及技術(Technical)之兩大處理策略。前者要求AI參與者建立系統設計開發之相關管理程序,後者則與系統技術規格相關,處理此類風險可能需重新訓練或重新評估AI模型。 4.治理:監控、紀錄、溝通、諮詢與融入(Govern: Monitor, document, communicate, consult and embed)。透過在組織中導入培養風險管理的文化,並持續監控、審查管理流程、溝通與諮詢,以及保存相關紀錄,以進行治理。治理之重要性在於能為AI風險管理流程進行外在監督,並能夠更廣泛地在不同類型的組織中建立相應機制。

TOP