為建構政府雲發展的妥適環境,美國於今年度啟動「聯邦風險與認可管理計畫」(Federal Risk and Authorization Management Program, FedRAMP),由國家技術標準局(National Institute of Standards and Technology, NIST)、公共服務行政部(General Service Administration)、資訊長聯席會(CIO Council)及其他關連私部門團體、NGO及學者代表共同組成的跨部會團隊,針對外部服務提供者提供政府部門IT共享的情形,建構一個共同授權與持續監督機制。在歷經18個月的討論後,於今(2010)年11月提出「政府雲端資訊安全與認可評估」提案(Proposed Security Assessment & Authorization for U.S Government Cloud Computing),現正公開徵詢公眾意見。
在FedRAMP計畫中,首欲解決公部門應用雲端運算所衍伸的安全性認可問題,因此,其將研議出一套跨部門共通性風險管理程序。尤其是公部門導入雲端應用服務,終究會歸結到委外服務的管理,因此本計劃的進行,是希望能夠讓各部門透過一個機制,無論在雲端運算的應用及外部服務提供之衡量上,皆能依循跨機關的共通資訊安全評定流程,使聯邦資訊安全要求能夠協調應用,並強化風險管理及逐步達成效率化以節省管理成本。
而在上述「政府雲端資訊安全與認可評估」文件中,可分為三個重要範疇。在雲端運算安全資訊安全基準的部份,主要是以NIST Special Publication 800-535中的資訊安全控制項作為基礎;並依據資訊系統所處理、儲存與傳輸的聯邦資訊的敏感性與重要性,區分影響等級。另一部份,則著重在持續性的系統監控,主要是判定所部署的資訊安全控制,能否在不斷變動的環境中持續有效運作。最後,則是針對聯邦資訊共享架構,出示模範管理模式、方策與責任分配體系。
本文為「經濟部產業技術司科技專案成果」
奈米材質之特性雖有助於開發新穎產品,但對於環境與人體健康是否會造成危害,迄今仍未有定見;為避免奈米科技毫無節制地發展,2008年9月以降,美國環保署(Environmental Protection Agency,EPA)以毒性物質管制法(Toxic Substances Control Act,TSCA)管理奈米材料,並在10月底考慮將奈米碳管納入前述法規中;11月初,更進一步依據毒性物質管制法5(a)(2)發布「顯著新種使用規則(Significant New Use Rule,SNUR)」,將以矽氧烷(siloxane)所改造之奈米矽微粒(silica nanoparticles)與奈米鋁微粒(alumina nanoparticles)列入管理範圍內。 一般而言,化學物質如未列於由EPA所公佈之「化學物質目錄」者,皆應向環保署提出製造前通知(Premanufacture Notice,PMN);而顯著新種使用規則以指定特殊新種化學物質的方式,配合適用製造前通知制度,要求業界針對製造、加工、銷售與使用等過程,提出具體因應措施。申言之,關於前述兩項奈米物質,一旦涉及有別於以往的重大創新製造活動,業者即應於正式進行製造前之90天先行通報環保署,再由其評估該業者是否符合相關條件要求,否則得予以禁止或限制之。 根據環保署既有之測試資料,可以確認奈米微粒得由呼吸與皮膚接觸等方式進入人體。以矽氧烷所改造之奈米矽及奈米鋁,泰半係作為添加劑之用;然而,觀察過往製造前通知所登載之內容,該兩項化學物質無論在呼吸或皮膚接觸所造成之暴露程度尚屬輕微;因此,針對該等奈米材料而向環保署所為之通報流程及審查作業,可能會對於業者後續之生產製造活動形成不確定的阻礙。 有鑒於奈米材料可能對人體健康產生未知風險,為保障奈米工作環境中人員的安全,顯著新種使用規則將於2009年1月起正式生效,作為管理特殊化學物質的監督方式。對於製造或使用奈米材料所可能引發之風險,美國環保署正著眼於環境、健康與安全議題,逐漸採取較為謹慎的政策設計方向,以維護大眾利益。
奈米技術之瞻性規劃-以美國推行綠色奈米為中心 美國國家標準暨技術研究院發布「人工智慧風險管理框架:生成式AI概況」美國國家標準暨技術研究院(National Institute of Standard and Technology, NIST)2024年7月26日發布「人工智慧風險管理框架:生成式AI概況」(Artificial Intelligence Risk Management Framework: Generative Artificial Intelligence Profile),補充2023年1月發布的AI風險管理框架,協助組織識別生成式AI(Generative AI, GAI)可能引發的風險,並提出風險管理行動。GAI特有或加劇的12項主要風險包括: 1.化學、生物、放射性物質或核武器(chemical, biological, radiological and nuclear materials and agents, CBRN)之資訊或能力:GAI可能使惡意行為者更容易取得CBRN相關資訊、知識、材料或技術,以設計、開發、生產、使用CBRN。 2.虛假內容:GAI在回應輸入內容時,常自信地呈現錯誤或虛假內容,包括在同一情境下產出自相矛盾的內容。 3.危險、暴力或仇恨內容:GAI比其他技術能更輕易產生大規模煽動性、激進或威脅性內容,或美化暴力內容。 4.資料隱私:GAI訓練時需要大量資料,包括個人資料,可能產生透明度、個人資料自主權、資料違法目的外利用等風險。 5.環境影響:訓練、維護和運行GAI系統需使用大量能源而影響碳排放。 6.偏見或同質化(homogenization):GAI可能加劇對個人、群體或社會的偏見或刻板印象,例如要求生成醫生、律師或CEO圖像時,產出女性、少數族群或身障人士的比例較低。 7.人機互動:可能涉及系統與人類互動不良的風險,包括過度依賴GAI系統,或誤認GAI內容品質比其他來源內容品質更佳。 8.資訊完整性:GAI可能無意間擴大傳播虛假、不準確或誤導性內容,從而破壞資訊完整性,降低公眾對真實或有效資訊的信任。 9.資訊安全:可能降低攻擊門檻、更輕易實現自動化攻擊,或幫助發現新的資安風險,擴大可攻擊範圍。 10.智慧財產權:若GAI訓練資料中含有受著作權保護的資料,可能導致侵權,或在未經授權的情況下使用或假冒個人身分、肖像或聲音。 11.淫穢、貶低或虐待性內容:可能導致非法或非自願性的成人私密影像或兒童性虐待素材增加,進而造成隱私、心理、情感,甚至身體上傷害。 12.價值鏈和組件整合(component integration):購買資料集、訓練模型和軟體庫等第三方零組件時,若零組件未從適當途徑取得或未經妥善審查,可能導致下游使用者資訊不透明或難以問責。 為解決前述12項風險,本報告亦從「治理、映射、量測、管理」四大面向提出約200項行動建議,期能有助組織緩解並降低GAI的潛在危害。
美國法院於 8 月 9 日判決「隱私權合理期待不及於網際網路用戶資訊」在 Freedman v. America Online 一案中,原告 Freedman 使用 AOL(ISP 業者 ) 的電子郵件帳號匿名寄送一封載有「末日近了 (The end is near) 」之郵件給另外兩個康乃迪克州之居民,該郵件之收文者將其視為對於安全威脅之信件並立即報警處理。警員 Young 和警官 Bensey 雖製作了筆錄與提出搜索令 ( 授權令 ) 之申請,然而在將該等文件送交州檢察官辦公室並經同意前, Young 即將該等文件傳真給 AOL 法務部門,一周後 AOL 即提供 Freedman 之姓名、地址、電話號碼與其他許多與原告之 AOL 電子郵件帳號有關之訊息,原告因而提起訴訟,主張提供其帳戶資料之行為侵犯其隱私權,已違反美國憲法修正條文第四條。 法院認為在美國憲法修正條文第四條之意旨下,網路使用者不能合理期待其用戶資訊為其隱私權所及範圍,主要理由為當網路使用者申請使用服務前,用戶本身已在其本身知悉之情況下將其資訊提供給 ISP 業者,使該 ISP 業者得以提供相關服務,且 AOL 已在其使用合約中註明,倘於其用戶或他人受有人身威脅 (physical threat) 之個別案例之情況下 ( 如同本案例事實 ) , AOL 將提供用戶資訊,而「電子通訊隱私權法案 (The Electronic Communications Privacy Act) 」第 2510 條以下條文亦規定,於有人身損害之虞 (the risk of physical injury) 之情況下,用戶資料之揭露即具正當性。