由英國政府所資助成立的一項計畫,希望透過開放原始碼廠商目錄及程式碼資料庫的建立等措施,加速公家單位對開放原始碼軟體的採用。這項名為「開放原始碼學院」( Open Source Academy )的計畫,是由副首相辦公室( Office of the Deputy Prime Minister )的電子創新投資計畫所贊助,預計在本月內將正式宣佈。
參與該計畫的開放原始碼協會( Open Source Consortium )執行總監表示,英國的公家機關在開放原始碼的採用上落後於歐洲各國,而這項計畫將改變目前的現況。地方政府已經可以透過網站開始分享程式碼,例如「地方政府軟體協會」( Local Authority Software Consortium )的網站。這項計畫裡的其他專案還包括了政府機構的入口網站計畫,可藉以尋找開放原始碼供應商的資訊;以及開放原始碼顧問的專業鑑定模式。
本文為「經濟部產業技術司科技專案成果」
目前,美國證券管理委員會(U.S. Securities and Exchange Commission, SEC)對於數位貨幣的態度傾向於將代幣視為有價證券。《代幣分類法》(Token Taxonomy Act)草案則是持反對意見的聲浪¬,由美國眾議員Warren Davidson為首,並且獲得跨黨派多位眾議員的支持。《代幣分類法》主要的訴求是希望可以將數位代幣排除於證券,進而排除虛擬貨幣之稅務。重點有三: 修正《證券交易法》,將數位代幣排除於證券 將「數位代幣」(Digital Token)定義為驗證交易或遵循規則防止交易被竄改之「數位單元」(Digital Unit,以電腦可讀取的形式儲存,用於表彰經濟、財產上權利,或存取權限)。同時,在原先「證券」(Security)的定義中,排除「數位代幣」;另將證券「交易」(Exchange)交易排除數位貨幣適用。 擴張銀行之定義 修改「銀行」之定義。原先《1940年投資顧問法》和《1940年投資公司法》所指之「銀行」,包括「取得存款或執行信託權利(Fiduciary Powers)」等與准許經營銀行執行雷同事業者,是否為公司不在所問(Incorporated)。《代幣分類法》將之擴張為「取得存款、提供保管服務(Custodial Services)或執行信託權利」。 修正將虛擬貨幣視為免課稅對象 虛擬貨幣(Virtual Currency)定義為表彰數位價值之交易媒介且不是貨幣。並修正美國《1986國內所得稅法》(Internal Revenue Code of 1986),將虛擬貨幣交易視為免課稅之交易,並將總額小於600美金的虛擬貨幣買賣或交易之所得,排除於總收入(Gross Income)之外。 然而,目前美國證券管理委員會的態度仍未改變,並且於2019年4月3日發表〈數位資產「投資契約」分析之架構〉(Framework for “Investment Contract” Analysis of Digital Assets)。該分析架構說明:凡符合Howey Test之標準的「投資契約」即屬於「證券」,有《證券交易法》的適用。〈數位資產「投資契約」分析之架構〉甫發表,Warren Davidson與另外五位眾議員隨即重新提起2019年版的《代幣分類法》草案,是繼2018年9月、2018年12月第三度提起相關法案。楊安澤(Andrew Yang,美國首位角逐總統的華裔候選人)在2020年民主黨黨內總統初選政見中,亦援引《代幣分類法》草案,希望可以與連署《代幣分類法》草案的美國國會議員和懷俄明州(Wyoming)的立法者,共同擘畫有利於商業與人民的數位資產框架。
BSI公布個人資料管理系統標準之草案英國國家標準組織(British Standard Institution)於2009年1月8日公布個人資料保護管理系統標準(標準標號為DPC BS 10012)之草案,使組織在個人資料儲存管理工作上符合個人資料保護法(Data Protection Act 1998,DPA)之要求。 有鑑於利用個人資料管理系統(personal information management system,PIMS)管理業務上取得之資料之情形日益增多,而觀諸該資料之性質,通常多為DPA所規範定義的「個人資料」。因此,為使個人資料管理有其標準規範,並得以運用在任何規模之公私部門,使組織內之個人資料管理系統符合DPA之規範且具有一定程度之安全性,BSI試圖提出有關個人資料管理一致性之標準規範,以供組織在個人資料處理程序工作上之遵循。該標準規範如同BS EN ISO 9001:2000之品質管理系統(Quality Management System)及BS ISO/EC 27001:2005之資訊安全管理系統標準,以PDCA週期(Plan-Do-Check-Act)進行規劃,並透過執行所規範之流程落實個人資料之保護。 目前該草案已經公布,BSI於2009年3月31日前將接受各界對於該草案之諮詢及舉辦公聽會,以求標準規範之完善。
新加坡個人資料保護委員會發布資料保護專員之職能與培訓準則新加坡個人資料保護委員會(Personal Data Protection Commission, PDPC)於2019年7月17日發布資料保護專員之職能與培訓準則。基於新加坡個人資料保護法(Personal Data Protection Act 2012, PDPA)明文規範非公務機關必須設立至少一名資料保護長(Data Protection Officer, DPO),負責個資保護政策之制定落實、風險評鑑及個資事故處理等工作。為了使資料保護專業人員增強能力並於企業組織有效履行其職責,新加坡個人資料保護委員會就此特別發布此準則,將資料保護專員分為三種工作職能,九項專業能力,進而規劃相關培訓課程。 此準則使企業組織能就工作職能聘僱合適之資料保護專員,亦使相關專業人員能掌握清晰之職業生涯,確定自我能力與培訓課程之落差,進而調整有效實施組織之個人資料保護管理政策與流程。其分為資料保護專員、資料保護長、區域資料保護長,依據工作職能與職責區分如下: 一、 資料保護專員 需監視與評估組織之個人資料保護管理政策與程序,並確保其遵循新加坡個人資料保護法。 識別個人資料之風險,並提出風險管控之措施。 提供組織個人資料保護政策之實施與實踐證據。 定期檢視審核,分析現況並矯正改善。 識別並規劃利害關係人之需求與利益。 二、 資料保護長 制定並審查個人資料管理計劃。 根據組織職能,視需求與流程,執行個人資料保護與風險評鑑,並解決相關業務風險。 制定培訓計劃,舉辦個人資料保護政策與流程之教育訓練。 確保組織內部個人資料保護之意識。 根據業務營運與個資法遵要求之落差評估,並建立合規性流程。 透過客戶對隱私與個人資料保護之要求,做為日後促進資料創新之實施。 三、 區域資料保護長 監督資料傳輸活動,並提供個人資料保護法之領導指南。 建立區域創新之資料保護策略。 減少區域內之個資事故。 於資料創新之運用提供戰略性,為組織創造業務價值。 評估新興趨勢與科技,如隱私增強技術、雲端運算、區塊鏈、網絡安全之風險與可行性。 針對上述工作職能與職責,結合所需之專業能力,包括個人資料管理、風險評鑑管理、個資事故緊急應變、利害關係人管理、個人資料稽核認證、個人資料治理、個人資料保護之倫理、資料共享與創新思維,規劃基礎個人資料保護相關課程與進階資料創新課程,使其個人資料保護制度更專業具有規模。目前我國對於資料保護專員並無相關立法規範,若未來修法新加坡個人資料保護委員會之做法亦值參酌。
英國發布人工智慧網路資安實務守則英國政府於2025年1月31日發布「人工智慧網路資安實務守則」(Code of Practice for the Cyber Security of AI,以下簡稱「實務守則」),目的是提供人工智慧(AI)系統的網路資安指引。該實務守則為英國參考國際上主要標準、規範後所訂定之自願性指引,以期降低人工智慧所面臨的網路資安風險,並促使人工智慧系統開發者與供應商落實基本的資安措施,以確保人工智慧系統的安性和可靠性。 由於人工智慧系統在功能與運作模式上與傳統網路架構及軟體有明顯的不同,因此產生新的資安風險,主要包含以下: 1. 資料投毒(Data Poisoning):在AI系統的訓練資料中蓄意加入有害或錯誤的資料,影響模型訓練結果,導致人工智慧系統產出錯誤推論或決策。 2. 模型混淆(Model Obfuscation):攻擊者有意識地隱藏或掩飾AI模型的內部運作特徵與行為,以增加系統漏洞、引發混亂或防礙資安管理,可能導致AI系統的安全性與穩定性受損。 3. 輸入間接指令(Indirect Prompt Injection):藉由輸入經精心設計的指令,使人工智慧系統的產出未預期、錯誤或是有害的結果。 為了提升實務守則可操作性,實務守則涵蓋了人工智慧生命週期的各階段,並針對相關角色提出指導。角色界定如下: 1. 人工智慧系統開發者(Developers):負責設計和建立人工智慧系統的個人或組織。 2. 人工智慧系統供應鏈(Supply chain):涵蓋人工智慧系統開發、部署、營運過程中的的所有相關個人和組織。 實務守則希望上述角色能夠參考以下資安原則,以確保人工智慧系統的安全性與可靠性: 1. 風險評估(Risk Assessment):識別、分析和減輕人工智慧系統安全性或功能的潛在威脅的過程。 2. 資料管理(Data management):確保AI系統整個資料生命週期中的資料安全及有效利用,並採取完善管理措施。 3. 模型安全(Model Security):在模型訓練、部署和使用階段,均應符合當時的技術安全標準。 4. 供應鏈安全(Supply chain security):確保AI系統供應鏈中所有利益相關方落實適當的安全措施。 「人工智慧網路資安實務守則」藉由清晰且全面的指導方針,期望各角色能有效落實AI系統安全管控,促進人工智慧技術在網路環境中的安全性與穩健發展。