新加坡金融管理局(Monetary Authority of Singapore,下文簡稱MAS)於2024年5月29日發布《資料治理與管理實務》(Data Governance and Management Practices: Observations and Supervisory Expectations From Thematic Inspections)文件。此文件係根據MAS於2022年至2023年期間針對國內系統性重要銀行(Domestic Systemically Important Banks,下文簡稱D-SIBs)進行「資料治理與管理架構」的主題式檢查結果加以研究與分析而作成,其內容包含MAS對於資料治理的期望、受檢銀行的優良實踐範例及缺失,希望未參與檢查的銀行與金融機構也能根據這份文件進行適當的改善措施。
MAS在《資料治理與管理實務》文件中提出關於五大主題的監管期待,簡要說明如下:
1.董事會和高階管理層的監督:
董事會和高階管理層應加強監督資料治理。例如,定期向董事會報告資料管理領域的重要問題;高階管理層應即時獲得準確且完整的相關資訊,並對資料風險進行分析。
2.設置資料管理單位:
銀行應建立資料管理單位,並為資料管理辦公室提供明確的任務授權,以利其監測資料的品質。
3.資料品質之管理與控制:
銀行應建立資料品質管理架構與流程,以確保資料在整個生命週期中是有品質的。例如,建立有效控制資料流的機制;建立資料品質指標或計分卡;使用終端使用者運算工具(end-user computing tools)處理資料時,應納入風險評估和控制架構來管理。
4.資料品質控制資料之問題識別與升級:
銀行應制定升級標準和行動計畫,以改善資料品質。另外MAS也建議銀行應該要有強大且完整的資料譜系(data lineage)來辨識資料問題並將之改善。
5.BCBS 239原則之擴大適用:
BCBS 239原則係巴賽爾銀行監理委員會(the Basel Committee on Banking Supervision)第239號規範:《有效風險資料聚合及風險報告原則》(Principles for effective risk data aggregation and risk reporting),適用於全球的系統性重要銀行(Global Systemically Important Banks),巴賽爾銀行監理委員會同時建議D-SIBs宜遵循此原則,因此MAS亦要求新加坡境內7家D-SIBs須遵守BCBS 239原則的相關規範。此外,MAS仍期待各銀行與金融機構可以擴大BCBS 239原則的適用範圍,例如在範圍內報告(in-scope reports,或稱主要風險報告)中納入反洗錢、稅務管理等面向。
由於金融服務是一個由資料驅動的產業,資料已然是金融業重要的戰略資產。MAS期盼這份文件能夠讓所有銀行及金融機構提升其資料治理能力,並針對內部的問題進行改善。
美國聯邦第9巡迴上訴法院日前針對一項於2005年制定之加州法律進行罕見的聽審程序,以便決定此一州法是否因違反聯邦憲法第一修正案而無效。 此一法律之內容係禁止販售或出租暴力電玩予任何未滿十八歲之人,且要求此種電玩均須加以明確標誌。而電玩廠商則宣稱此一法律已侵犯了未成年人受憲法第一修正案所保護之言論自由。而值得注意者為,除去年下級法院已對此一案件做出電玩廠商勝訴之判決外,其他的州法院也紛紛做出具有類似限制內容之法律為違憲無效之判決。 然而,儘管如此,加州檢察總長Zackery Morazzini依然表示:州政府本即有權協助家長使未成年人遠離暴力電玩的不良影響。且美國聯邦最高法院亦已肯認禁止未成年人接觸明顯「性資訊」之法律為合憲。與此相同,暴力電玩可說亦同樣具有「猥褻」之特性。 而電玩廠商於訴訟中則表示:倘若此一法律得以合憲,則勢必會產生滑坡效應,即州政府勢必將會以保護兒童為藉口,而對於其它資訊,諸如同性戀、性教育、生育控制等等之提供作出更多的限制。而此種滑坡效應,顯然亦是第9巡迴上訴法院所關切的重點之一:如Alex Kozinski及Sidney Thomas兩位法官,均在聽審程序中特別表達對於此一效應的關注。 無論如何,上訴法院亦將於未來幾個月內對於此案做出判決。然而,顯而易見的是,無論上訴法院會如何裁判,本案最終仍須經聯邦最高法院裁決後方能有最終決定。
英國發布人工智慧網路資安實務守則英國政府於2025年1月31日發布「人工智慧網路資安實務守則」(Code of Practice for the Cyber Security of AI,以下簡稱「實務守則」),目的是提供人工智慧(AI)系統的網路資安指引。該實務守則為英國參考國際上主要標準、規範後所訂定之自願性指引,以期降低人工智慧所面臨的網路資安風險,並促使人工智慧系統開發者與供應商落實基本的資安措施,以確保人工智慧系統的安性和可靠性。 由於人工智慧系統在功能與運作模式上與傳統網路架構及軟體有明顯的不同,因此產生新的資安風險,主要包含以下: 1. 資料投毒(Data Poisoning):在AI系統的訓練資料中蓄意加入有害或錯誤的資料,影響模型訓練結果,導致人工智慧系統產出錯誤推論或決策。 2. 模型混淆(Model Obfuscation):攻擊者有意識地隱藏或掩飾AI模型的內部運作特徵與行為,以增加系統漏洞、引發混亂或防礙資安管理,可能導致AI系統的安全性與穩定性受損。 3. 輸入間接指令(Indirect Prompt Injection):藉由輸入經精心設計的指令,使人工智慧系統的產出未預期、錯誤或是有害的結果。 為了提升實務守則可操作性,實務守則涵蓋了人工智慧生命週期的各階段,並針對相關角色提出指導。角色界定如下: 1. 人工智慧系統開發者(Developers):負責設計和建立人工智慧系統的個人或組織。 2. 人工智慧系統供應鏈(Supply chain):涵蓋人工智慧系統開發、部署、營運過程中的的所有相關個人和組織。 實務守則希望上述角色能夠參考以下資安原則,以確保人工智慧系統的安全性與可靠性: 1. 風險評估(Risk Assessment):識別、分析和減輕人工智慧系統安全性或功能的潛在威脅的過程。 2. 資料管理(Data management):確保AI系統整個資料生命週期中的資料安全及有效利用,並採取完善管理措施。 3. 模型安全(Model Security):在模型訓練、部署和使用階段,均應符合當時的技術安全標準。 4. 供應鏈安全(Supply chain security):確保AI系統供應鏈中所有利益相關方落實適當的安全措施。 「人工智慧網路資安實務守則」藉由清晰且全面的指導方針,期望各角色能有效落實AI系統安全管控,促進人工智慧技術在網路環境中的安全性與穩健發展。
德國立法通過反駭客法德國政府為減少官方與民間的電腦受到網路駭客的攻擊,於2007年5月正式立法通過「反駭客法(Antihacker Law)」,並藉此擴大了現行德國法律中網路犯罪的懲處範圍,從僅處罰破壞或攻擊商業或政府機關之電腦系統,擴及至破壞或攻擊個人電腦或DOS系統之犯罪。 依德國「反駭客法」之規定,凡任何個人或團體意圖非法使用而故意製造、散播或購買駭客工具(hacker tools)者,將可能被處十年以上有期徒刑。而所謂的「駭客(hacking)」在新法中則被定義為,凡是侵入電腦系統並獲取資訊者,不論是否有竊取該資訊的行為,均屬之。 上述立法結果,反對人士擔心恐將適得其反,因駭客工具的存在具有一體兩面,研發並利用駭客工具來測試電腦以及網路系統的安全性,在德國已行之有年,如果一旦加以禁止,不但無法達到預期目的,也過於輕視網路駭客者的能力;又將來持有駭客工具者,未來必須在法庭上主張係出於善意持有,亦是增加了持有者的舉證責任。該法已經於2007年8月實施。
RFID電子式護照的應用與法律爭議