根據Ponemon Institute的調查,2011年至2012年中,英國企業資料侵害事故平均成本增加了15%。賽門鐵克指出,若企業備有正式的事故應變計畫,每件資料侵害事故的平均成本會降低至13英磅左右。除此之外,雇用外部顧問來協助應變,每件資料侵害事故的平均成本也會節省4英磅。
依據新的資料保護法律架構,歐盟委員會日前已開始擬訂新的資料侵害事故通知制度。同時,根據不同委員會的需求,未來將針對特定產業,制定新的網路與資訊安全管理規範。。
專家評估未來責任保險將成為確保資訊安全的新潮流。企業藉由事先擬定事故應變計劃來降低資料侵害的風險,同時也進行風險轉移的處置措施。各項事故應變計劃之中,保險制度是企業目前較感興趣的措施之一。保險制度除了可用於風險轉移之外,企業還可以從中取得資料侵害事故的專家網絡。這些專家包含事故鑑定專家、公共關係專家、風險管理專家,信用監測提供者或是資料侵害事故的事務處理公司,例如:協助發送事故通知的公司。保險業建置的專家網絡,未來將可以幫助要保人,以最快最省成本的方式處理相關事故。
日前,歐盟執委會於2008年1月23日提交了一份關於整合性發展境內替代能源之新法制架構指令建議案,並欲藉該建議案來進一步促進生質能、太陽能與風能等相關新興能源技術之開發。該建議案還提到,歐盟所屬會員國原則上須依據於2005年當時替代能源之貢獻比例為基礎,再向上調增5.5%後來作為該會員國之替代能源預定貢獻目標。不過,考量各會員國之國情並不相同,故該建議案要求歐盟對於各會員國替代能源預定貢獻目標之制定,應採「差別化」之方式,使其可先自由調整與決定究欲採取何種比重與模式來發展各類替代能源,最後,再將所決定之能源發展策略大綱置於國家行動方案書內(National action plans, 簡稱NAP),並於2010年3月31日前提交執委會進行審核。此外,執委會也設定了一系列短期性目標,以確保能漸次穩定地朝2020年之目標前進。而有關開發生質能及永續性方面,鑑於生質燃料之發展仍具相當之爭議,故於飽受各界沉重之壓力下(如:非政府民間組織以及科學聯盟團體),未來布魯塞爾方面勢要提出一更加周嚴之永續性基準,以確保在該建議案所制定之生質燃油目標下,不會進一步導致生態系統失衡、森林濫伐、人口遷徙、糧食價格上漲以及釋放更大量CO2等問題產生。
英國期望透過資料使用與近用法案修正案,強化數位證據資料之可信任性英國於2024年11月提出資料使用與近用法案(Data (Use and Access) Bill)修正案,其修正內容包含強化數位證據資料之可信任性。 根據英國數十年來的法院判決,可以觀察到英國法院信任電腦自動產出的資料,因此除非當事人提出反證,否則將推定電腦證據是可信賴的。然而,該見解導致英國爭議案件「郵局Horizon系統出錯案」的發生,亦促使資料使用與近用法案修正案的提出。 資料使用與近用法案修正案於第132條新增與數位證據相關的條款,同條第1項規定由電腦、裝置或電腦系統產生的數位證據,符合下列規定者,於訴訟程序中可以作為證據。 a、 數位證據以及產生數位證據或衍生數位證據之系統之可信任性未受質疑。 b、 法院確信無法合理地挑戰系統之可信任性。 c、 法院確信數位證據源自可信任的系統。 此外,同條第4項規定第1項第c款所指之可信任的系統,應包括適用於系統運作的任何指示或規則,以及為確保系統中保存的資料的完整性而採取的任何措施。 綜上所述,英國逐漸扭轉過去英國法院認為由電腦自動產生的資料具有可信任性之見解,並透過資料使用與近用法案修正案修正對於數位證據的認定,未來在涉及數位證據的案件中,檢辯雙方需要證明作為數位證據的資料完整性具有可信任性。 我國企業如欲強化數位資料的可信任性,可參考資訊工業策進會科技法律研究所創意智財中心所發布之重要數位資料治理暨管理制度規範(EDGS),建立並落實數位資料管理流程,除可確保數位資料的完整性及正確性具有可信任性,亦可提升法院採納數位資料作為證據之可能性。 本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。 本文同步刊登於TIPS網站(https://www.tips.org.tw) .Pindent{text-indent: 2em;} .Noindent{margin-left: 2em;} .NoPindent{text-indent: 2em; margin-left: 2em;} .No2indent{margin-left: 3em;} .No2Pindent{text-indent: 2em; margin-left: 3em} .No3indent{margin-left: 4em;} .No3Pindent{text-indent: 2em; margin-left: 4em}
澳洲於9月初生效《政府負責任地使用人工智慧的政策》(Policy for the responsible use of AI in government)2024年9月1日,澳洲生效《政府負責任地使用人工智慧的政策》(Policy for the responsible use of AI in government,下稱政策)。澳洲數位轉型局(Digital Transformation Agency,以下稱DTA)提出此政策,旨於透過提升透明度、風險評估,增進人民對政府應用AI的信任。 1. AI之定義 此政策採經濟合作暨發展組織(OECD)之定義:AI系統是一種基於機器設備,從系統接收的資訊進而產出預測、建議、決策內容。 2.適用範圍 (1)此政策適用於「所有非企業的聯邦個體(non-Corporate Commonwealth entities, NCE)」,非企業的聯邦個體指在法律、財務上為聯邦政府的一部分,且須向議會負責。此政策亦鼓勵「企業的聯邦實體」適用此政策。 (2)依據2018年國家情報辦公室法(Office of National Intelligence Act 2018)第4條所規定之國家情報體系(national intelligence community, NIC)可以排除適用此政策。 3.適用此政策之機構,須滿足下列2要件 (1)公布透明度聲明 各機構應在政策生效日起的6個月內(即2025年2月28日前)公開發布透明度聲明,概述其應用AI的方式。 (2)提交權責人員(accountable official,下稱AO)名單 各機構應在政策生效日起90天內(即2024年11月30日前)將AO名單提供給DTA。 所謂AO的職責範圍,主要分為: I.AO應制定、調整其機構採取之AI治理機制,並定期審查、控管落實情況,並向DTA回報;鼓勵為所有員工執行AI基礎知識教育訓練,並依業務範圍進行額外培訓,例如:負責採購、開發、訓練及部署AI系統的人員,使機構內的利害關係人知道政策的影響。 II.當既有AI 應用案例被機構評估為高風險AI應用案例時,通知DTA該機構所認定之高風險AI應用案例,資訊應包括:AI的類型;預期的AI應用;該機構得出「高風險」評估的原因;任何敏感性資訊(any sensitivities)。 III.擔任機構內協調AI的聯絡窗口 IV.AO應參與或指派代表參與AI議題之政策一體性會議(whole-of-government forums)。 本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。 本文同步刊登於TIPS網站(https://www.tips.org.tw)
IBM提出「人工智慧日常倫理」手冊作為研發人員指引隨著人工智慧快速發,各界開始意識到人工智慧系統應用、發展過程所涉及的倫理議題,應該建構出相應的規範。IBM於2018年9月02日提出了「人工智慧日常倫理」(Everyday Ethics for Artificial Intelligence)手冊,其以明確、具體的指引做為系統設計師以及開發人員間之共同範本。作為可明確操作的規範,該手冊提供了問責制度、價值協同、可理解性等關注點,以促進社會對人工智慧的信任。 一、問責制度(Accountability) 由於人工智慧的決策將作為人們判斷的重要依據,在看似客觀的演算系統中,編寫演算法、定義失敗或成功的程式設計人員,將影響到人工智慧的演算結果。因此,系統的設計和開發團隊,應詳細記錄系統之設計與決策流程,確保設計、開發階段的責任歸屬,以及程序的可檢驗性。 二、價值協同(Value Alignment) 人工智慧在協助人們做出判斷時,應充分考量到事件的背景因素,其中包括經驗、記憶、文化規範等廣泛知識的借鑑。因此系統設計和開發人員,應協同應用領域之價值體系與經驗,並確保演算時對於跨領域的文化規範與價值觀之敏感性。同時,設計師和開發人員應使人工智慧系統得以「了解並認知」用戶的價值觀,使演算系統與使用者之行為準則相符。 三、可理解性(Explainability) 人工智慧系統的設計,應盡可能地讓人們理解,甚至檢測、審視它決策的過程。隨著人工智慧應用範圍的擴大,其演算決策的過程必須以人們得以理解的方式解釋。此係讓用戶與人工智慧系統交互了解,並針對人工智慧結論或建議,進而有所反饋的重要關鍵;並使用戶面對高度敏感決策時,得以據之檢視系統之背景數據、演算邏輯、推理及建議等。 該手冊提醒,倫理考量應在人工智慧設計之初嵌入,以最小化演算的歧視,並使決策過程透明,使用戶始終能意識到他們正在與人工智慧進行互動。而作為人工智慧系統設計人員和開發團隊,應視為影響數百萬人甚至社會生態的核心角色,應負有義務設計以人為本,並與社會價值觀和道德觀一致的智慧系統。