澳洲證券投資委員會發布監理沙盒架構

  澳洲證券投資委員會(Australian Securities and Investments Commission, ASIC) 於2016年12月15日發布第257號法規指導(Regulatory Guide 257,RG 257)-在未持有AFS或信用執照的狀態下測試fintech產品與服務(Testing fintech products and services without holding an AFS or credit licence)。RG 257並包含澳洲的監理沙盒架構。重要內容如下:

1.有別於其他國家的監理沙盒需要申請方能適用,透過法規以及ASIC澳洲已經提供一些鬆綁機制,換句話說並不需要事先申請就可以取得監管沙盒鬆綁。例如非現金支付產品,包含儲值卡,以及某些國外交易服務。

2.ASIC的fintech 執照豁免見諸於ASIC Corporations (Concept Validation Licensing Exemption) Instrument 2016/1175 以及ASIC Credit (Concept Validation Licensing Exemption) Instrument 2016/1176。

3.ASIC也可個別提供客製化的執照豁免以促進產品或服務測試,個別豁免就比較接近其他國家的監管沙盒架構。

  因此基本上,只要符合法定以及上述兩個instruments的規定,就可以自動取得監管沙盒的鬆綁,而無需另外申請,唯需「通知」ASIC,並提供相關資料。監理沙盒的適用期間為十二個月。但是如果不符法定以及Instrument 2016/1175、Instrument 2016/1176的規定,也可以另外向ASIC申請客製化的豁免。

  目前可適用Instrument 2016/1175的金融服務包含:

•掛牌的澳洲證券;

•簡易管理的投資架構;

•存款產品;

•某些一般的保險商品;以及

•「授權存款取用機構(authorised deposit-taking institutions,ADIs)」發行的支付產品。

  唯須注意的是,Instrument 2016/1176允許有限的信用協助,但是不得提供借貸。另外,使用監理沙盒的fintech企業最多只能有100個零售客戶,以有效控制風險。

相關連結
※ 澳洲證券投資委員會發布監理沙盒架構, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=7736&no=66&tp=1 (最後瀏覽日:2026/02/22)
引註此篇文章
你可能還會想看
華碩因路由器資安漏洞遭起訴一案與美國聯邦貿易委員會達成和解

  美國聯邦貿易委員會(Federal Trade Commission, FTC)於2014年間以路由器(Router)與雲端服務的安全漏洞,導生消費者面臨資安與隱私風險之虞,而依據《聯邦貿易委員會法》第5條(Federal Trade Commission Act, 15 U.S.C. § 45(a))委員會防止不公平競爭違法手段(unfair methods of competition unlawful ; prevention by Commission)之規定,即華碩涉嫌行使不公平或詐欺的手段致影響商業活動之公平競爭為由,對我國知名全球科技公司華碩電腦股份有限公司(ASUSTeK Computer, Inc.)進行起訴 。   本案歷經FTC近二年的調查程序後,華碩公司於2016年2月23日同意FTC的和解條件,即華碩公司應針對部分存在資安疑慮的產品依計畫進行改善,並且於未來20年期間內須接受FTC的獨立稽核(independent audits)。 FTC於該案的起訴報告中指出,華碩於銷售其所生產的路由器產品時,曾對消費者強調該產品具許多資安保障措施,具有得以防止使用者不受駭客攻擊等效果;然而,該產品實際上卻具有嚴重的軟體設計漏洞,使駭客得以在使用者未知的情況下,利用華碩路由器的網頁控制面板(web-based control panel)之設計漏洞,任意改變路由器的安全設定;更有專家發現駭客於入侵華碩製造之路由器產品後,得以強佔使用者的網路頻寬。   此外,華碩允許使用者沿用路由器產品的預設帳號密碼,再加上華碩所提供的AiCloud與AiDisk雲端服務功能,讓使用者得以隨身硬碟建立其私有的雲端儲存空間,使得駭客得藉由上述華碩路由器的設計漏洞直接竊取使用者於隨身硬碟內所儲存的資料。FTC並於起訴聲明中指出,駭客利用華碩路由器產品與相關服務的漏洞,於2014年間成功入侵超過12,900多位產品使用者的雲端儲存空間。除此之外,使華碩更加備受譴責的是,當該漏洞被發現之後,其並未主動向產品的使用者強調產品存在該資安問題,更未告知使用者應下載更正該設計漏洞的軟體更新,因此FTC始決定對華碩進行起訴。

美國網路安全暨基礎設施安全局(CISA)發布《工控資安基礎:適用於擁有者與營運者的資產清冊指引》

美國網路安全暨基礎設施安全局(CISA)於2025年8月13日發布該機關與美國、澳洲、加拿大、德國、荷蘭、紐西蘭等國共計八個國安資安相關機構,合作訂定之《工控資安基礎:適用於擁有者與營運者的資產清冊指引》文件,旨在針對易受惡意網路行為攻擊且提供重要服務的能源、水務、製造業及其他領域關鍵基礎設施營運技術(Operational Technology,OT)系統,協助其資產擁有者與營運者建置與維護完整的OT資產清冊,並輔以OT分類體系(Taxonomy)。 OT資產清冊範圍涵蓋組織OT系統與相關軟、硬體,該指引主要說明OT資產擁有者與營運者建置與維護OT資產清冊的流程,包含: 1. 定義清冊範疇與目標(Define Scope and Objectives) 2. 辨識資產及蒐集屬性資料(Identify Assets and Collect Attributes) 3. 建立分類體系(Create a Taxonomy to Categorize Assets) 4. 管理與蒐集資料(Manage and Collect Data) 5. 實現資產全生命週期管理(Implement Life Cycle Management); 此外透過OT分類體系可幫助區分優先序、管理所有OT資產,有助於風險識別、漏洞管理,以及資安事件應變;有關如何建立OT分類體系,該指引亦提供流程建議如: 1. 根據功能及關鍵性執行資產分類(Classify Assets) 2. 對資產功能類型與其通訊路徑進行分類(Categorize (Organize) Assets and their Communications Pathways) 3. 建構體系架構與互動關係(Organize Structure and Relationships) 4. 驗證資產清冊資料準確度與圖像化(Validate and Visualize) 5. 定期檢查並更新(Periodically Review and Update) 該指引認為,建置OT資產清冊並輔以OT分類體系對期望建立現代化防禦架構的擁有者與營運者而言至關重要。透過上述作為,資產擁有者與營運者得以識別其環境中應加以防護及管控的關鍵資產,並據以調整防禦架構,建構相應的資安防禦措施,以降低資安事件對組織任務(Mission)與服務持續性(Service Continuity)的風險與影響。該指引亦強調關鍵基礎設施之OT與IT(資訊技術)部門間之跨部門協作,並鼓勵各產業組織參考指引步驟落實OT資產盤點與分類,以提升整體關鍵基礎設施資安韌性。

加州立法機關提出社群媒體青少年成癮法草案,促進兒童身心福祉

社群媒體是溝通資訊之重要工具。但部分社群媒體向用戶投放易使人成癮的資訊,對兒童和青少年福祉形成重大風險。據此緣由,美國加州立法機關於2024年1月29日提出社群媒體青少年成癮法草案(Social Media Youth Addiction Law),規定社群媒體除非能合理確定用戶非未成年人,或取得未成年用戶家長同意,否則不得向用戶提供易使人成癮的資訊。 該草案將網路或應用程式中,依用戶特徵或習慣,優先顯示的多片段資訊,定義為易使人成癮的資訊(addictive feed)。除非該資訊符合以下例外條件: (1) 用戶用以搜尋資訊的關鍵字不會被使用的設備記憶,且該資訊與用戶過去的社群媒體使用行為無關。 (2) 是因用戶隱私設定、設備規格、未成年人限制而呈現的資訊。 (3) 是因用戶明確要求而提供,且不易使人成癮的資訊。 (4) 是用戶間直接且非公開之通訊組成的資訊。 (5) 是同一資訊來源,且在音檔或影片形式下,不會自動連續播放的資訊。 該草案亦規定投放易使人成癮資訊的社群媒體,不得在深夜至凌晨時段、上學至放學時段,以及開學期間的週一到週五,向未成年用戶發送通知,除非已取得未成年用戶家長同意。 最後,該草案規定投放易使人成癮資訊的社群媒體每年向公眾揭露未成年用戶總數量、家長同意接收易成癮資訊的未成年用戶數量等資訊。該規定有利大眾監督社群媒體對法規之遵循情況,並促進社會對兒童、青少年身心健康的關心。

梵諦岡與IBM、微軟聯合呼籲對臉部辨識等侵入性技術進行監管

  2020年2月28日梵諦岡教宗與兩大科技巨頭IBM及微軟聯合簽署「羅馬呼籲AI倫理道德」文件,支持制定人工智慧(AI)發展倫理與道德規範,並特別呼籲應針對臉部辨識等侵入性技術進行監管。在聯合文件上特別提及臉部識別技術潛在之濫用風險,例如警察會使用臉部辨識系統調查犯罪行為、《財富》500強公司使用AI審查求職者,這兩個例子均具有潛在且高度之風險,使用不正確或是具有偏見之AI判斷均可能會造成傷害。誠如方濟各在致辭中說:「人工智慧記錄個人資料,並使用於商業或政治目的,而且通常是在個人不知情之情況下,這種不對稱,將使少數人了解我們的一切,但我們卻對他們一無所知,這將使批判性思維和對自由的自覺變得遲鈍,不平等現象急遽擴大,知識和財富在少數人手中累積,將對民主社會構成重大風險。」   此次會議希望在國家與國際層面上共同努力促進AI道德規範,並根據以下原則來發展和使用人工智慧。第一,良好的創新:人工智慧系統必須是可理解得,並且在包容性方面必須考慮到所有人的需求,以便每個人都能受益。第二,責任:設計和實施人工智慧者必須承擔責任和保持透明度。第三,公正性:避免根據偏見進行創造或採取行動,從而維護人類平等和尊嚴。第四,可靠性:人工智慧系統必須能夠可靠的運行。第五,安全和隱私:人工智慧系統必須安全運行並尊重用戶的隱私。   目前尚不清楚其他技術公司是否會簽署該文件,以及簽署人將如何實施,但教宗與兩大科技巨頭史無前例的合作,為人工智慧未來發展方向提供遠見卓識,能更加深入的去思考AI的道德意涵以及它將如何與人類更好的合作、互動,互利共生,相輔相成。

TOP