從美國「聯邦風險與授權管理計畫」看我國促進政府部門導入雲端運算之策略與機制

刊登期別
2013年09月04日
 

從美國「聯邦風險與授權管理計畫」看我國促進政府部門導入雲端運算之策略與機制

科技法律研究所
2013年07月03日

  資訊科技的發展,從早期「超級電腦/大型電腦」、近期「個人電腦」,到即將邁入以超大規模數量電腦主機虛擬集結的「雲端運算」時代。雲端運算將電腦集中運用,未來電腦運算設施就像是水、電;資料儲存與應用就像是銀行,只要連上網路就可以使用,不必各自投資發展。因此,「雲端運算」未來將成為每個國家的重要基礎建設。

  將雲端運算列為重要的產業發展重心,已是各國的趨勢,而運用雲端運算所帶來的效益,如節省經費、提升效率等,亦為普遍地承認,再加上公部門相較於民間,其擁有較多的經費及資源來進行雲端運算的導入,而藉由公部門導入雲端運算,可以帶動雲端運算產業的發展以及雲端運算應用的普及化。因此,各國均皆致力於促進公部門導入雲端運算。

  然而,在雲端運算帶來龐大經濟效益的同時,伴隨而來的,是新的資訊管理議題,雲端安全防護聯盟(Cloud Security Alliance, CSA)提出了雲端運算可能遭遇的九大安全威脅 :
一、資料外洩(Data Breaches)
二、資料遺失(Data Loss)
三、帳號被駭(Account Hijacking)
四、不安全的APIs程式(Insecure APIs)
五、拒絕服務(Denial of Service)
六、惡意的內部人員(Malicious Insiders)
七、濫用雲端服務(Abuse of Cloud Services)
八、審慎評鑑不足(Insufficient Due Diligence)
九、共享環境議題(Shared Technology Issues)

  面對前述的安全威脅,政府部門在考量導入雲端服務時,首先面對的就是要探討如何在導入雲端運算後仍能維持資訊安全的強度,以及政府部門要從何尋找符合其需求的業者。

壹、事件摘要

  美國政府在2010年12月發表了25項聯邦IT轉型重點政策,其中一項核心的政策便是「雲優先政策」(cloud first policy)。根據「雲優先政策」,聯邦機構必須在三個月內找出三項轉移到雲端的政府服務,並且要在一年內導入其中一項。

  然而,此種新型態的雲端運算服務為聯邦機構帶來資安管理的新挑戰,傳統由各機關分頭洽談所導入資訊系統與應用規格之方法,並實施個別的資訊安全需求與政策的作法,對服務商而言,其所提供的相同服務,在各機關導入時,卻必須將受各個機關的審查,造成各機關投入過多的資源在審查程序上,導致政府資源的浪費,不但耗費時間、審查重複,且無法達到建構妥善操作程序的效果。

  2012年6月6日,聯邦政府總務管理局(General Service Administration, GSA)宣布「聯邦風險與授權管理計畫」(Federal Risk and Authorization Management Program,以下稱FedRAMP)開始正式運作,GSA並表示,「FedRAMP」的正式運作,將解決美國政府在雲端產品及服務需求上,因各自導入之標準不一致所導致的系統相容性問題、重複投資浪費,並可降低各政府機關自行進行風險評估及管理相關系統所耗費的人力、金錢成本。預估該計畫可為美國政府節省高達40%的預算及費用,預期效益相當可觀。

  「FedRAMP」的目的是要為全國政府機關針對雲端產品與服務的風險評估、授權管理以及持續監控等標準作業規範,建立一套可遵循之依據。未來所有雲端產品的服務提供者,都必須遵守及達到該計畫的標準規範,才能為美國政府機關提供雲端產品及服務。

貳、重點說明

  「聯邦風險與授權管理計畫」主要由預算與管理辦公室(Office of Management and Budget, OMB)負責組織預算與管理;聯邦資訊長(the Federal Chief Information Officer,CIO)負責跨部門的整合;國土安全部(Department of Homeland Security, DHS)負責網際網路的監控與分析;總務管理局(General Services Administration, GSA) 則建立FedRAMP之架構與程序,並成立計畫管理辦公室( Program Management Office, PMO)負責FedRAMP之操作與管理;以及國家科技研究所(National Institute of Science and Technology, NIST)負責提供技術分析與標準;最後由國防部(Department of Defense, DoD) 、國土安全部、總務管理局,組成共同授權委員會(Joint Authorization Board, JAB),負責對服務提供者的授權與定期檢視。

  FedRAMP制度的精神在於「作一次並重複使用」(Do once ,Use Many Times),同一內容的雲端服務,透過FedRAMP,僅須經過一次的評估與授權,即得被多個機關所採用。早期各機關重複檢驗同一廠商的同一服務之安全性,造成資源浪費的問題,將可獲得解決。當其他機關欲採用雲端服務時,可透過FedRAMP,免去再一次的評估與驗證。

  FedRAMP主要由第三方評估機構、對服務提供者的評估、以及持續監督與授權等三個部份所構成,簡單介紹如下:

一、第三方評估機構的認證
  FedRAMP的特殊之處,在於雲端服務提供者應由通過FedRAMP認證的第三方評估機構(3PAO)來進行審查,而第三方評估機構欲通過認證,除了要符合FedRAMP的需求外,還必須具備雲端資訊系統的評估能力、備妥安全評估計畫、以及安全評估報告等,另外亦同時引進了ISO/IEC17020作為評估機構的資格。其認證程序如下:

(一)申請檢視
  機構首先必須符合ISO/IEC 17020 檢驗機構的品質與技術能力,並且自行檢視FedRAMP網站上的申請表,自行檢視是否合乎要求,然後決定是否提出申請。

(二)完成要求
  機構須分別完成申請表所要求的系統安全計畫(system security plan, SSP)、系統評估計畫(system assessment plan, SAP)、安全評估報告(security assessment report, SAR)。於完成後向計畫管理辦公室提出申請。

(三)審查
  在接受申請後,總務管理局會與ISO網路安全專家共同組成「專家審查委員會」(Expert Review Board , ERB),審查該申請。

(四)決議
  審查完畢後,FedRAMP計畫管理辦公室(PMO)會檢視ERB的意見,決議是否通過該申請。

  於通過申請後,該機構將會被列入FedRAMP官方網站(www.FedRAMP.gov)的第三方評估機構名單,目前為止,陸續已有十五個機構通過共同授權委員會的授權,日後得對雲端服務商進行評估。

二、對雲端服務提供者的評估
  在「聯邦風險與授權管理計畫」的機制設計中,政府機關或雲端服務提供者任一方,皆可提出申請(Request)啟動雲端服務的安全性評估(Security Assessment)程序,此程序中共有四個主要階段:

(一)提出申請
  在申請人將所須文件初步填寫完畢之後,計畫管理辦公室(PMO)即會指派資訊系統安全官(Information Systems Security Officer, ISSO)進行指導,使之得進行安全控制、出具必要文件、並實施安全測試。之後,PMO會與雲端服務提供者簽署協議,並要求相關機關實施對雲端服務系統的安全性測試。

(二)檔案安全控管
  雲端服務提供者必須作成系統安全計畫(System Security Plan, SSP),表明安全控制之實施方法,及其相關文件如IT系統永續計畫(IT Contingency Plan)、隱私衝擊調查(Privacy Impact Questionnaire),並送交ISSO進行審查,再由雲端服務提供者就對審查意見予以回覆之後,由ISSO將案件送至共同授權委員會(Joint Authorization Board, JAB)進行審查,以確認所提交的SSP安全措施符合雲端系統所需。

(三)進行安全測試
  服務提供者與第三方評估機構(Third Party Assessment Organization, 3PAO)簽約,且由PMO約集雲端服務提供者與3PAO,確認雙方對於安全測試實施的期待與時程,再由3PAO獨立進行該雲端系統測試,並完成安全評估報告(Security Assessment Report, SAR),闡述評估結果並確認所暴露的風險。雲端服務提供者針對此評估結果,作成行動與查核點報告(Plan of Action & Milestones (POA&M)),以提出矯正弱點與殘餘風險(residual risks)的措施、資源與時程規劃。

  雲端服務提供者再將前述SAR與POA&M提交予PMO,由JAB決定是否接受該弱點及其修正計畫,或者提出修正建議。倘若JAB可接受該弱點及其他因應措施,則由ISSO通知雲端服務提供者即將進入安全評估的最後階段。

(四)完成安全評估
  雲端服務提供者將所有安全控制相關文件彙成單一的安全評估方案,並提出證明將確實執行其安全控制措施。由JAB檢視此方案,並作出最終決定是否授予「附條件之授權」(Provisional Authorization)。得到此授權的雲端服務提供者名單,將會被列在FedRAMP官方網站上。倘若雲端服務提供者未獲得此授權,PMO會指導如何進行重新申請。

三、持續的評估與授權
  持續的評估與授權(ongoing Assessment and Authorization, A&A)通常也被稱為持續監控(Continuous Monitoring),在FedRAMP中第三個也是最後一個流程,透過持續的評估與授權機制,來確保雲端服務提供者持續的安全性授權。其中包含了三個主要層面:

(一)操作的能見度
  操作能見度的目標,是藉由自動化的方式來減少政府機構在監督作業上的行政耗費。亦即雲端服務提供者透過自動化的資料提供、定期提交具體控制的證據文件、以及年度自我認證報告等安全控制措施來說明操作的能見度,而不必政府機構另行要求。

(二)變更控制程序
  雲端服務提供者更新她們的系統是常有的事,此處的變更控制程序並非針對例行性的維修或變更,而是要求若有發生影響臨時性授權或的顯著變更時,服務提供者必須提供此種具衝擊性變更的有效資訊,使FedRAMP得以評估此變更的影響與衝擊。

(三)事件回應
  事件回應方面聚焦於新風險和漏洞的因應,服務提供者在發現影響授權的新風險或漏洞時,應向機構說明其針對保持系統安全的因應對策與作法。

參、事件評析

  在各國紛紛投入雲端運算的推動熱潮中,我國也不能在此項產業推動中缺席。2010年4月,行政院科技顧問組(現已改組為行政院科技會報)責成經濟部,研擬「雲端運算產業發展方案」;2011年5月,行政院研究發展考核委員會亦公布了「第四階段電子化政府計畫」,在內部運作管理面向,將運用新興雲端運算技術推動以全國性的政府雲端應用服務,減少機關重複開發成本,並達成節能減碳效果。

  雲端的安全問題,無論在私人企業或政府部門,均為選擇導入雲端服務的第一要務,「第四階段電子化政府計畫」中亦指出第四階段電子化政府將以雲端資安防護推動為重點,運用雲端運算技術,創新資安服務價值,確保政府資通安全防護。

  然而,在服務提供者的安全性方面,我國並沒有像美國FedRAMP計畫般適度地提供服務提供者的安全性保證。對此,我國可借鏡各國的作法,適度的以透過公正第三方機構驗證,來消除雲端服務安全性的疑惑,並推動一個公開的平台,將通過驗證的廠商公布出來,提供公部門甚至私人企業作選擇,不僅可免去同一服務廠商不斷重複驗證的麻煩,亦可削減選擇上的難題,並藉此發展雲端資安技術與推動雲端產業,使我國的雲端環境能夠更臻成熟。

※ 從美國「聯邦風險與授權管理計畫」看我國促進政府部門導入雲端運算之策略與機制, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=6318&no=645&tp=1 (最後瀏覽日:2026/02/17)
引註此篇文章
你可能還會想看
歐盟將通過新的指令加強科學研究所中所使用之動物的保護

  2010年9月歐洲議會通過第2010/63/EU號指令(DIRECTIVE 2010/63/EU)修正文本,新的指令將修正第86/609/EEC 指令(Directive 86/609/EEC)原有規定,以加強對科學實驗用動物的保護。   2010年5月世界動物健康組織(the World Organisation for Animal Health, OIE)第78屆 大會中通過了第一個國際動物福祉標準,該標準納入OIE陸棲動物健康法典規範(OIE Terrestrial Animal Health Code)做為研究與教育用動物保護的準則,歐盟作為主要的提案者於是加速規範修正作業以回應OIE之承諾。新指令將規定歐盟各國主管機關必須在同意研究採用動物實驗前,評估其他研究方式的可能性並進行倫理評估,如需採用動物實驗應儘可能減少被試驗動物之痛楚,此外新指令也確保被實驗動物享有應有的生存環境,如適當大小的籠子等的要求。   新指令適用範圍將包括教育、訓練與基礎研究用的動物,其包含所有人類以外的活體脊椎動物以及某些可能感受痛楚的物種。靈長類動物如人猿的實驗也被禁止,除非為了該物種本身之生存所需,或者其他可能造成人類生存威脅或疾病之避免所必要方得於各國政府同意下進行之。新的指令將擴大禁止使用人猿、黑猩猩、彌猴等靈長類動物的實驗,除非有證據顯示其他物種的實驗無以達成靈長類動物實驗所能達成之目的,但也有成員國表示擴大靈長類動物實驗的限制將對於神經退化性疾病如阿茲海默症等的研究造成阻礙。   動物實驗的3R原則—取代、減量與改善(replacing, reducing, and refining)在第2010/63/EU號指令修正文本都已有相關規範,歐盟執委會表示歐盟將繼續致力於強化實驗用動物的福祉,同時為了確保新法的貫徹,新指令將授權設立歐盟層級的示範實驗室(Reference Laboratory at European Union level)協調各國採取替代動物實驗的方式。歐盟執委會表示新的指令將會在今年秋天公布。

全球四大晶片業者共同研發奈米蝕刻技術

  世界四大電腦晶片業者決定與紐約州合作,在今後五年內出資 5.8億美元,研究發展下一代電腦微晶片製造技術。紐約州預定出資1.8億美元,美國IBM、超微半導體(AMD)、美光科技(Micron)與德國英飛凌預定各出五千萬美元的現金與設備,另2億美元由多家提供物料與設備的廠商提供。惟世界最大晶片廠商英特爾(Intel)並未參與此計畫,英特爾目前在x86微處理器市場中,占有銷售量的80%、銷售額的90%。   此國際奈米蝕刻事業( International Venture for Nanolithography, INVENT)計畫的基地,預定設在奧伯尼紐約州立大學奈米科學與工程學院,預期共有500多位研究人員、工程師與其他人員,投入此計畫。   奈米科技是研究分子與原子級的科學,此一計畫研究重心是利用光線,蝕刻大約頭髮直徑十萬分之一大小的電路,讓參與公司及早取得與學習應用研究出來的蝕刻工具。由於近年半導體速度與複雜性快速提高,晶片業者製造更小、更快晶片的難度增加,研究發展成本飛躍上升,業界體認到必須合作,才能負擔。一具蝕刻工具成本可能高達 2500萬美元,蝕刻工具進步攸關晶片廠商繼續縮小晶片規模,使每個晶片具有更多運算與儲存能力。目前生產的最先進晶片運用90奈米科技,晶片廠商希望從2006或2007年起,生產65奈米晶片。

亞利桑那州可望通過情色報復法,美國防治情色報復將再添一州

  美國亞利桑那州曾於2014年通過違反本人意願散布隱私內容之條文(泛稱為情色報復法Revenge Porn Law),構成要件未涵蓋行為人需有傷害的主觀不法構成要件,只要未經本人同意散布隱私內容即有可能觸犯本法而被判重罪(Felony),最高將可處三年又九個月之有期徒刑。然而,因構成要件過於廣泛,甚至未排除具新聞、藝術、教育價值之內容,未考慮本人之隱私期待性和傷害有無,美國公民自由聯盟遂代表出版業、媒體業和攝影業等,以該條文侵害言論自由有違憲之虞,於同年9月向亞利桑那州提告。該案於2015年7月10日達成和解,亞利桑那州地方法院宣告該條文將不會生效施行。   在經過漫長的修法後,亞利桑那州參議院最終於2016年3月7日無異議通過情色報復法之最新修法法案(House Bill 2001),待州長簽署核准後便立即生效施行。本次修法與2014年的版本不同處為,檢察官需證明隱私內容之本人具有合理的隱私期待,若被害人曾將自拍的影像寄送與他人,更需證明被害人未有分享的意思。此外,檢察官需證明行為人具有意圖傷害、騷擾、威脅或迫使他人之主觀意思。在此條文尚未通過前,實務上已有檢察官多次反應現行法無從對違反本人意願散布隱私內容之行為論罪,至多僅能以網路跟蹤或霸凌法等追究,對受害人保護甚為不周。

歐洲議會通過《人工智慧法案》朝向全球首部人工智慧監管標準邁進下一步

歐洲議會通過《人工智慧法案》 朝向全球首部人工智慧監管標準邁進下一步 資訊工業策進會科技法律研究所 2023年06月26日 觀察今年的科技盛事屬ChatGPT討論度最高,將人們從區塊鏈、元宇宙中,帶入人工智慧(AI)領域的新發展。ChatGPT於2022年11月由OpenAI開發的生成式人工智慧,透過深度學習模型,理解和生成自然語言,其功能包含回答各類型問題(如科學、歷史)、生成邏輯結構之文章(如翻譯、新聞標題)、圖形、影像等內容。然而對於人工智慧的發展,究竟如何去處理人機間互動關係,對於風險之管理及相關應用之規範又該如何,或許可從歐盟的法制發展看出端倪。 壹、事件摘要 面對人工智慧的發展及應用,歐盟執委會(European Commission)早在2018年6月成立人工智慧高級專家組(AI HLEG),並於隔年(2019)4月提出「可信賴的人工智慧倫理準則」(Ethics Guidelines for Trustworthy AI),要求人工智慧需遵守人類自主、傷害預防、公平、透明公開等倫理原則。於2021年4月21日歐盟執委會提出「人工智慧法律調和規則草案」(Proposal for a Regulation Laying Down Harmonised Rules on Artificial Intelligence (Artificial Intelligence Act) and Amending Certain Union Legislative Acts)(以下稱人工智慧法案),於2023年內部市場委員會(Internal Market Committee)與公民自由委員會(Civil Liberties Committee)通過並交由歐洲議會審議(European Parliament),最終《人工智慧法案》於2023年6月14日通過。後續將再歐盟理事會(Council of the European Union)與辯論協商,尋求具共識的最終文本[1]。 貳、重點說明 由於「歐盟議會通過」不等於「法案通過」,實際上歐盟立法機制不同於我國,以下透過法案內容說明的契機,概述一般情況下歐盟之立法流程: 一、歐盟立法過程 通常情況下,法案由歐盟執委會(下簡稱執委會)提出,送交歐盟理事會及歐洲議會,作為歐盟的「立法者」歐洲理事會(下簡稱理事會)與歐洲議會(下簡稱議會)將針對法案獨立討論並取得各自機關內之共識。大致上立法程序有可分為三階段,在一讀階段若理事會與議會對於執委會版本無修改且通過,則法案通過,若任一機關修改,則會進行到二讀階段。針對法案二讀若仍無法取得共識,則可召開調解委員會(Conciliation)協商,取得共識後進入三讀。簡單來說,法案是否能通過,取決於理事會與議會是否取得共識,並於各自機關內表決通過[2]。 目前《人工智慧法案》仍處於一讀階段,由於法案具備爭議性且人工智慧發展所因應而生之爭議迫在眉睫,議會通過後將與執委會、理事會進入「三方會談」(Trilogue)的非正式會議,期望針對法案內容取得共識。 二、人工智慧法案 (一)規範客體 《人工智慧法案》依風險及危害性程度分級,其中「不可接受風險」因抵觸歐盟基本價值原則禁止(符合公益目標,如重大或特定犯罪調查、防止人身安全遭受危害等例外許可)。「高風險」則為法案規範之重點,除針對系統技術穩健、資料處理及保存訂有規範外,針對人為介入、安全性等也訂定標準。 而針對高風險之範疇,此次議會決議即擴大其適用範圍,將涉及兒童認知、情緒等教育及深度偽造技術(Deepfake)納入高風險系統,並強調應遵循歐盟個人資料保護規範。此外對於社會具有高影響力之系統或社群平臺(法案以4500萬用戶做為判斷基準),由執委會評估是否列為高風險系統。針對目前討論度高的生成式人工智慧(ChatGPT),議會針對法案增訂其系統於訓練及應用目的上,應揭露其為生成式人工智慧所產出之內容或結果,並摘要說明所涉及之智慧財產權[3]。 (二)禁止項目 關於《人工智慧法案》對於高風險系統之要求,從執委會及理事會的觀點來看,原則上重點在於對弱勢的保護及生物資料辨識之權限。歐盟禁止人工智慧系統影響身理及心理,包含對於特定族群如孩童、身心障礙者等弱勢族群之不平等待遇。同時原則禁止即時遠端的生物辨識利用,包含對於人性分析、動作預測等對於人類評價、分類之應用,例外情況如犯罪調查、協尋失蹤兒童、預防恐怖攻擊、關鍵基礎設施破壞等情況時方被允許。此次議會決議提高禁止即時遠端生物辨識的標準,包含納入敏感資訊的蒐集如性別、種族、政治傾向等,及其他臉部辨識、執法、邊境管制、情緒辨識等項目[4]。 參、事件評析 有關《人工智慧法案》雖歐洲議會已一讀通過,然而後續仍要面對與歐盟理事會的協商討論,並取得共識才能規範整個歐盟市場。因此上述規範仍有變數,但仍可推敲出歐盟對於人工智慧(含生成式)的應用規範態度。在面對日新月異的新興科技發展,其立法管制措施也將隨著橫向發展,納入更多種面向並預測其走向趨勢。因人工智慧有應用多元無法一概而論及管制阻礙創新等疑慮,觀察目前國際上仍以政策或指引等文件,宣示人工智慧應用倫理原則或其風險之管理,偏重產業推動與自律。 觀察歐盟《人工智慧法案》之監管目的,似期望透過其市場規模影響國際間對於人工智慧的監管標準。倘若法案後續順利完成協商並取得共識通過,對於如OpenAI等大型人工系統開發商或社群平臺等,若經執委會評估認定為高風險系統,勢必對於未來開發、應用帶來一定衝擊。因此,歐盟對於人工智慧監管的態度及措施實則牽一髮而動全身,仍有持續觀察之必要。 本文同步刊登於TIPS網站(https://www.tips.org.tw) [1]The AI Act, Future of Life Institute, https://artificialintelligenceact.eu/developments/ (last visited Jun. 20, 2023) [2]The ordinary legislative procedure, Council of European Union, https://www.consilium.europa.eu/en/council-eu/decision-making/ordinary-legislative-procedure/ (last visited Jun. 19, 2023) [3]EU AI Act: first regulation on artificial intelligence, European Parliament, Jun. 14, 2023, https://www.europarl.europa.eu/news/en/headlines/society/20230601STO93804/eu-ai-act-first-regulation-on-artificial-intelligence (last visited Jun. 21, 2023) [4]MEPs ready to negotiate first-ever rules for safe and transparent AI, European Parliament, Jun. 14, 2023, https://www.europarl.europa.eu/news/en/press-room/20230609IPR96212/meps-ready-to-negotiate-first-ever-rules-for-safe-and-transparent-ai(last visited Jun. 21, 2023)

TOP