英國金融監理機關,針對RBS集團旗下之三間銀行2012年所發生的資訊安全問題,共處以五千六百萬英鎊的罰款。 RBS、NayWest以及Ulstet的客戶於2012年6月,因為銀行執行的軟體更新發生技術上問題,在使用服務(包含線上服務)時,遇到存款結餘及付款執行的正確性問題。 針對此項資訊上的問題,英國金融行為監管局(FAC)處以四千二百萬英鎊的罰款;另一機關,英國審慎管理局(PRA)亦罕見地再以違反「金融機構應以適當風險管理系統以及合理之注意義務,有效管控其服務」規定之理由,另對該銀行處以一千四百萬的罰款。這是首次2個主管機關對於銀行未能有效辨識及管理其已暴露之資訊風險共同處罰之案例。 PRA指出,資訊風險管理系統適當的發揮功能以及控制,是一個公司健全不可或缺的部份,同時對於英國金融體系的穩定也特別重要。 FCA亦試圖開始評估銀行對於他們所曝光的資訊風險的管理程度,以及銀行的管理階層如何去掌握自己銀行,因為技術錯誤所造成的影響程度。 RBS聲明公司已經在主營運系統外建置了鏡像系統,可以繼續處理「主要客戶服務」的顧客交易;同時也可以修復主營運系統。
美國參議員提案修改股票選擇權(stock option)租稅處理優惠美國參議員Carl Levin最近提出一項名為「終止公司股票選擇權租稅優惠法」(Ending Corporate Tax Favors for Stock Options Act, S. 2116,以下簡稱:股票選擇權租稅優惠終止法)的草案,主要目的是希望改變公司對於股票選擇權費用化的租稅處理(tax treatment of corporate stock option deductions)。 就租稅意義而言,公司發給員工(包括高階經理人及一般員工)的股票選擇權為薪資的一種,而根據美國內地稅法規定,目前公司在申報股票選擇權的薪資支出(compensation expense)減項時,可以申報的費用比公司帳簿上所登載的更高。由於此一稅法上獨厚股票選擇權的處理,使得近年來許多美國企業支付給主要高階經理人的薪資,有一大部分是股票選擇權,此現象在科技產業亦甚為顯著,其結果造成公司高階經理人與一般員工的薪資差距越益擴大。 「股票選擇權租稅優惠終止法」要求公司於薪資支出項下申報的股票選擇權費用,必須與公司帳簿所記載的數目一致,同時,股票選擇權也應與其他類別的公司薪資費用一樣,同樣受到1百萬美元的費用上限之申報限制,至於股票選擇權申報費用的時點,則不須要等到選擇權行使(exercise)的年度。
澳洲網路安全專員啟動「社群媒體年齡限制專區」保障未滿16歲青少年的數位安全澳洲網路安全專員(eSafety Commissioner)於2025年10月啟動「社群媒體年齡限制專區」(Social Media Age Restrictions Hub),以落實2024年11月通過的線上安全法(Online Safety Act 2021)修正案。該次修正納入「社群媒體最低年齡」(Social Media Minimum Age, SMMA)框架之規定,以全面保障澳洲未滿16 歲的兒童及青少年。為落實SMMA,透過延緩取得帳號方式,而非全面禁止使用,以減輕青少年因登入帳號面臨的壓力及風險,從而維護其身心健康與福祉。 2025年12月10日受年齡限制的社群媒體平台必須採取合理措施,防止16歲以下的青少年建立或保留帳戶。eSafety 針對合理措施細節發布SMMA監管指引,並強調平台的合理措施不得僅依賴使用者自我申報年齡或出生日期,亦即要求業者透過嚴格的年齡驗證機制,限制特定年齡層的使用權限。eSafety調查顯示,儘管存在年齡限制,96%的10至15歲兒少使用過社群媒體,此現象凸顯強化業者責任的重要性。 為能更完整保護兒少隱私,線上安全法修正案另一重點在於授權澳洲資訊專員辦公室(Office of the Australian Information Commissioner)制定兒童線上隱私準則(Children's Online Privacy Code),確立以兒童最佳利益為核心的隱私保護標準,並規範線上服務應如何遵循澳洲隱私原則,該準則預計於2026年12月生效。此外,eSafety亦提供針對家長與青少年準備指南(Get-ready guide),協助其適應數位時代下的兒少保護新規定。
經濟合作與發展組織發布《促進AI可歸責性:在生命週期中治理與管理風險以實現可信賴的AI》經濟合作與發展組織(Organisation for Economic Co-operation and Development, OECD)於2023年2月23日發布《促進AI可歸責性:在生命週期中治理與管理風險以實現可信賴的AI》(Advancing accountability in AI: Governing and managing risks throughout the lifecycle for trustworthy AI)。本報告整合ISO 31000:2018風險管理框架(risk-management framework)、美國國家標準暨技術研究院(National Institute of Standards and Technology, NIST)人工智慧風險管理框架(Artificial Intelligence Risk Management Framework, AI RMF)與OECD負責任商業行為之盡職調查指南(OECD Due Diligence Guidance for Responsible Business Conduct)等文件,將AI風險管理分為「界定、評估、處理、治理」四個階段: 1.界定:範圍、背景、參與者和風險準則(Define: Scope, context, actors and criteria)。AI風險會因不同使用情境及環境而有差異,第一步應先界定AI系統生命週期中每個階段涉及之範圍、參與者與利害關係人,並就各角色適用適當的風險評估準則。 2.評估:識別並量測AI風險(Assess: Identify and measure AI risks)。透過識別與分析個人、整體及社會層面的問題,評估潛在風險與發生程度,並根據各項基本價值原則及評估標準進行風險量測。 3.處理:預防、減輕或停止AI風險(Treat: Prevent, mitigate, or cease AI risks)。風險處理考慮每個潛在風險的影響,並大致分為與流程相關(Process-related)及技術(Technical)之兩大處理策略。前者要求AI參與者建立系統設計開發之相關管理程序,後者則與系統技術規格相關,處理此類風險可能需重新訓練或重新評估AI模型。 4.治理:監控、紀錄、溝通、諮詢與融入(Govern: Monitor, document, communicate, consult and embed)。透過在組織中導入培養風險管理的文化,並持續監控、審查管理流程、溝通與諮詢,以及保存相關紀錄,以進行治理。治理之重要性在於能為AI風險管理流程進行外在監督,並能夠更廣泛地在不同類型的組織中建立相應機制。