為瞭解兒童及青少年透過行動裝置接取網路不當內容(inappropriate content)之情形,以及父母或監護人如何限制孩子使用網路設備等議題,英國通訊管理局(Office of Communications, Ofcom)委託英國第二大研究機構Ipsos MORI於2009年3-4月間,與797組7-16歲的兒童及青少年進行面對面的親子訪談,並於2009年9月公布該調查之研究結果。
根據該份兒童及青少年接取網路內容訪談的研究報告(Children’s and young people’s access to online content on mobile devices, games consoles and portable media players)顯示,分別有90%及74%的兒童及青少年透過遊戲裝置及行動電話使用接取網路,利用其他多媒體影音裝置上網的則占13%。另外有三分之二透過行動電話上網的使用者,可自由瀏覽及接取網路內容,而無任何內容分級或不當內容接取上的限制。該研究報告同時亦指出,對於使用行動電話上網的兒童及青少年,僅有10%的父母及監護人「非常關心」(major concerns)其瀏覽或接取不當網頁內容的問題;而使用遊戲裝置上網的兒童及青少年中,僅有11%的父母或監護人「非常關心」其對於接取或瀏覽不當內容之問題。對於兒童及青少年利用行動電話上網的管制議題上,父母及監護人多半透過通話及簡訊的使用量來限制兒童及青少年使用行動電話,而非直接要求兒童及青少年禁止其上網瀏覽不當的內容或教導其如何安全的使用網路。此外,就兒童及青少年本身使用網路所遇到的安全性問題上,介於11-16歲的青少年有54%表示,其需要有關如何維護隱私權及個人資料的建議與協助;而28%的青少年則提及,其需要資訊安全的建議,尤其是如何強化密碼及個人識別碼(personal identification numbers, PINs);至於7-11歲的兒童則多以「不知道」來回答調查問卷上的問題。
藉由該份研究報告數據的公開,英國政府開始針對兒童及青少年透過行動裝置使用網路之安全性問題進行研議,期望透過更多的宣導與教育,使父母及監護人更為關心兒童及青少年網路內容帶來的身心健康影響,並提昇父母、監護人、兒童及青少年對於網路使用的安全意識,以建立兒童及青少年對於網路安全的正確觀念。
本文為「經濟部產業技術司科技專案成果」
英國政府於2025年1月31日發布「人工智慧網路資安實務守則」(Code of Practice for the Cyber Security of AI,以下簡稱「實務守則」),目的是提供人工智慧(AI)系統的網路資安指引。該實務守則為英國參考國際上主要標準、規範後所訂定之自願性指引,以期降低人工智慧所面臨的網路資安風險,並促使人工智慧系統開發者與供應商落實基本的資安措施,以確保人工智慧系統的安性和可靠性。 由於人工智慧系統在功能與運作模式上與傳統網路架構及軟體有明顯的不同,因此產生新的資安風險,主要包含以下: 1. 資料投毒(Data Poisoning):在AI系統的訓練資料中蓄意加入有害或錯誤的資料,影響模型訓練結果,導致人工智慧系統產出錯誤推論或決策。 2. 模型混淆(Model Obfuscation):攻擊者有意識地隱藏或掩飾AI模型的內部運作特徵與行為,以增加系統漏洞、引發混亂或防礙資安管理,可能導致AI系統的安全性與穩定性受損。 3. 輸入間接指令(Indirect Prompt Injection):藉由輸入經精心設計的指令,使人工智慧系統的產出未預期、錯誤或是有害的結果。 為了提升實務守則可操作性,實務守則涵蓋了人工智慧生命週期的各階段,並針對相關角色提出指導。角色界定如下: 1. 人工智慧系統開發者(Developers):負責設計和建立人工智慧系統的個人或組織。 2. 人工智慧系統供應鏈(Supply chain):涵蓋人工智慧系統開發、部署、營運過程中的的所有相關個人和組織。 實務守則希望上述角色能夠參考以下資安原則,以確保人工智慧系統的安全性與可靠性: 1. 風險評估(Risk Assessment):識別、分析和減輕人工智慧系統安全性或功能的潛在威脅的過程。 2. 資料管理(Data management):確保AI系統整個資料生命週期中的資料安全及有效利用,並採取完善管理措施。 3. 模型安全(Model Security):在模型訓練、部署和使用階段,均應符合當時的技術安全標準。 4. 供應鏈安全(Supply chain security):確保AI系統供應鏈中所有利益相關方落實適當的安全措施。 「人工智慧網路資安實務守則」藉由清晰且全面的指導方針,期望各角色能有效落實AI系統安全管控,促進人工智慧技術在網路環境中的安全性與穩健發展。
世界經濟論壇發布《2022年全球網路安全展望》世界經濟論壇(World Economic Forum, WEF)於2022年1月18日發布《2022年全球網路安全展望》(Global Cybersecurity Outlook 2022),以面對因COVID-19大流行所致之遠距辦公、遠距學習、遠距醫療等新形態數位生活模式快速發展,以及日漸頻繁之具破壞性網路攻擊事件。為考量國家應優先考慮擴展數位消費工具(digital consumer tools)、培育數位人才及數位創新,本報告說明今年度網路安全發展趨勢及未來所要面對之挑戰包括如下: COVID-19使得工作習慣轉變,加快數位化步伐:約有87%企業高階管理層計畫透過加強參與及管理第三方的彈性政策、流程與標準,提高其組織的網路韌性(cyber resilience)。 企業資安長(chief information security officers, CISO)及執行長(chief executive officers, CEO)之認知差異主要有三點:(1)92%的CEO認為應將網路韌性整合到企業風險管理戰略中,惟僅55%CISO同意此一作法;(2)由於領導層對網路韌性認知差異,導致安全優先等級評估與政策制定可能產生落差;(3)缺乏網路安全人才以面對網路安全事件。 企業最擔心之三種網路攻擊方式為:勒索軟體(Ransomware attacks)、社交工程(social-engineering attacks),以及惡意內部活動。惡意內部活動係指企業組織之現任或前任員工、承包商或業務合作夥伴,以對組織產生負面影響方式濫用其關鍵資產。 憂心中小企業數位化不足:本研究中有88%之受訪者表示,擔心合作之中小企業之數位化程度不足,導致供應鏈或生態系統中使其網路韌性受阻。 網路領導者認為建立明確有效的法規範,將有助於鼓勵資訊共享與促進合作。
RFID應用發展與相關法制座談會紀實 加拿大政府提交予國會《人工智慧資料法案》加拿大政府由創新、科學和工業部長(Minister of Innovation, Science and Industry)代表,於2022年6月16日提交C-27號草案,內容包括聯邦的私部門隱私權制度更新,以及新訂的《人工智慧資料法案》(Artificial Intelligence and Data Act, 下稱AIDA)。如獲通過,AIDA將是加拿大第一部規範人工智慧系統使用的法規,其內容環繞「在加拿大制定符合國家及國際標準的人工智慧設計、開發與應用要求」及「禁止某些可能對個人或其利益造成嚴重損害的人工智慧操作行為」兩大目的。雖然AIDA的一般性規則相當簡單易懂,但唯有在正式發布這部包含絕大多數應用狀況的法規後,才能實際了解其所造成的影響。 AIDA為人工智慧監管所設立的框架包含以下六項: (1)方法 以類似於歐盟《人工智慧法案》採用的方式,建立適用於人工智慧系統具「高影響力」的應用方式的規範,關注具有較高損害與偏見風險的領域。 (2)適用範圍 AIDA將適用於在國際與省際貿易及商業行動中,設計、發展或提供人工智慧系統使用管道的私部門組織。「人工智慧系統」的定義則涵蓋任何「透過基因演算法、神經網路、機器學習或其他技術,自動或半自動處理與人類活動相關的資料,以產生結果、做出決策、建議或預測」的技術性系統。 (3)一般性義務 I 評估及緩和風險的措施 負責人工智慧系統的人員應評估它是否是一個「高影響系統」(將在後續法規中詳細定義),並制定措施以辨識、評估與減輕使用該系統可能造成的傷害風險或具有偏見的結果。 II 監控 對該「高影響系統」負責的人員應建立準則,以監控風險緩解措施的遵守情況。 III 透明度 提供使用管道或管理「高影響系統」運作的人員應在公開網站上,以清晰的英語揭露 i 系統如何或打算如何使用。 ii 系統所生成果的類型及它所做出的決策、建議與預測。 iii 為辨識、評估與減輕使用該系統可能造成的傷害風險或具有偏見的結果,而制定的緩解措施。 iv 法規明定應揭露的其他訊息。 IV 記錄保存 執行受規範活動的人員應遵守紀錄保存要求。 V 通知 若使用該系統將導致或可能導致重大傷害,「高影響系統」的負責人應通知部門首長。 VI 匿名資料的使用 從事法案所規定的活動及在活動過程中使用或提供匿名資料的人員,必須依據規範制定關於(a)資料被匿名化處理的方式(b)被匿名化資料的使用與管理,兩方面的措施。 (4)部長命令 部門首長可以透過命令要求(a)製作紀錄(b)從事審計或聘請一位獨立的審計師執行(c)成立一個專責執行審計程序的組織(d)成立一個在有理由相信「高影響系統」之使用可能造成急迫重大傷害風險時負責進行終止或准許的組織。 (5)行政管理 AIDA為部門首長制定一項,可指定其所管轄部門中一名高級官員為「人工智慧與資料專員」的權利,其職責在協助部門首長管理與執行AIDA。 (6)罰則 違反AIDA規範之罰則主要為按公司、個人之收入衡量的罰款。特定嚴重狀況如以非法方式取得人工智慧訓練用資料、明知或故意欺騙大眾造成嚴重或心理傷害或財產上重大損失,亦可能判處刑事監禁。