美國北卡羅萊納州將虛擬貨幣交易所納入貨幣傳輸法的適用對象

  為迎接數位貨幣此種新興產業所帶來的挑戰,在企業經營者與立法者的同意下,北卡羅萊納州於2016年6月通過H.B. 289法案,擴大該州貨幣傳輸法(Money Transmitters Act )的適用對象,將虛擬貨幣交易所納為貨幣移轉服務商,其須向主管機關申請特定執照,並繳納保證金,立法者更於2017年追加繳納保險金的規定,以避免資安危機。法案內對虛擬貨幣的定義為,一種能表彰價值的數字,可經由電子交易並具有交易媒介(medium of exchange)、計價單位(unit of account)和價值儲存(store of value)等功能,但虛擬貨幣並不是美國政府所承認的法定貨幣(legal tender status)。

  又虛擬貨幣的經營業務,範圍包含建立於區塊鏈的虛擬貨幣活動,但排除挖礦者、使用區塊鏈技術的軟體公司,像是智能合約平台(smart contract platforms)、智能資產(smart property)等適用對象。申請貨幣移轉業務執照,須繳交1500美金的費用,再加上每年至少5000美元的評估費用。此外,為保障使用者所要求的保證金部分,貨幣移轉金額若低於100萬美元者,必須提出15萬美元作為擔保,若超出100萬美元者,則須提出更高的保證金。此項法案的出爐強化了法律的明確性,為該州經營虛擬貨幣的業者,提供一項可預見的規範,該法案未來是否能成為其他州成立新法的指標,仍有待後續發展。

相關連結
你可能會想參加
※ 美國北卡羅萊納州將虛擬貨幣交易所納入貨幣傳輸法的適用對象, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=7924&no=55&tp=1 (最後瀏覽日:2026/05/04)
引註此篇文章
你可能還會想看
歐盟執委會發布指引以因應《人工智慧法》「禁止的人工智慧行為」條文實施

歐盟執委會於2025年2月4日發布「關於禁止的人工智慧行為指引」(Commission Guidelines on Prohibited Artificial Intelligence Practices)(下稱「指引」)」,以因應歐盟《人工智慧法》(AI Act,下稱AIA)第5條關於「禁止的人工智慧行為」之規定。該規定自2月2日起正式實施,惟其內容僅臚列禁止行為而未深入闡釋其內涵,執委會特別制定本指引以避免產生歧義及混淆。 第5條明文禁止使用人工智慧系統進行有害行為,包括:利用潛意識技術或利用特定個人或群體之弱點進行有害操縱或欺騙行為、實施社會評分機制、進行個人犯罪風險預測、執行無特定目標之臉部影像蒐集、進行情緒識別分析、實施生物特徵分類、以及為執法目的而部署即時遠端生物特徵識別系統等。是以,指引就各禁止事項分別闡述其立法理由、禁止行為之具體內涵、構成要件、以及得以豁免適用之特定情形,並示例說明,具體詮釋條文規定。 此外,根據AIA規定,前述禁令僅適用於已在歐盟境內「投放市場」、「投入使用」或「使用」之人工智慧系統,惟對於「使用」一詞,並未予以明確定義。指引中特別闡明「使用」之定義,將其廣義解釋為涵蓋「系統投放市場或投入使用後,在其生命週期任何時刻的使用或部署。」 指引中亦指出,高風險AI系統的特定使用情境亦可能符合第5條的禁止要件,因而構成禁止行為,反之亦然。因此,AIA第5條宜與第6條關於高風險AI系統的規定交互參照應用。 AIA自通過後,如何進行條文內容解釋以及法律遵循義務成為各界持續討論之議題,本指引可提升AIA規範之明確性,有助於該法之落實。

淺談我國能源關鍵基礎設施資通訊安全法制建構之重要性--以歐盟及德國智慧電表布建發展為例

Horizon Europe

  Horizon Europe為歐盟2021-2027年之科技研發架構計畫。科技研發架構計畫(Framework Programmes for Research and Technological Development,依不同期別縮寫為FP1-FP8)為全球最大型的多年期科研架構計畫,今期之Horizon 2020已進入尾聲,2021年起所實施的歐盟科研架構計畫──FP9正式命名為「Horizon Europe」。   為打造歐盟成為創新市場先鋒,延續Horizon 2020計畫成效,Horizon Europe重視投資研發與發展創新,包含強化歐盟的科學與技術基礎、促進歐洲創新能力,以及永續歐洲社會經濟的模式與價值。   Horizon Europe發展方向分為三大主軸,分別為: 卓越科學(Excellent Science):透過歐洲研究理事會(European Research Council, ERC)、新居禮夫人人才培育計畫(Marie Skłodowska-Curie Actions, MSCA)和研究基礎設施(Research Infrastructures)加強歐盟科學領導力。 全球挑戰與產業競爭力(Global Challenges and European Industrial Competitiveness):此主軸再分別發展6個子題,以應對歐盟和全球政策並加速產業轉型。該6個子題分別為(1)健康;(2)文化與創造力;(3)社會安全;(4)數位與太空產業;(5)氣候、能源與交通;(6)糧食、生物經濟(Bioeconomy)、自然資源、農業與永續環境。 創新歐洲(Innovative Europe):促進、培育和部署市場創新,維護友善創新環境之歐洲生態系統(European ecosystems)。   此外,Horizon Europe擬把實驗階段中具備高潛力和前瞻性的技術帶入市場,轉以任務導向協助新創產業設立,推動跨事業多方整合。

美國科羅拉多州通過《人工智慧消費者保護法》

2024年5月17日,科羅拉多州州長簽署了《人工智慧消費者保護法》(Consumer Protections for Artificial Intelligence Act,Colorado AI Act,下簡稱本法),其內容將增訂於《科羅拉多州修訂法規》(Colorado Revised Statutes,簡稱CRS)第6篇第17部分,是美國第一部廣泛對AI規範的法律,將於2026年2月1日生效。 本法旨在解決「高風險人工智慧系統」的演算法歧視(Algorithmic Discrimination)的問題 ,避免消費者權益因為演算法之偏見而受到歧視。是以,本法將高風險AI系統(High-risk Artificial Intelligence System)定義為「部署後作出關鍵決策(Consequential Decision)或在關鍵決策中起到重要作用的任何AI系統」。 而後,本法藉由要求AI系統開發者(Developers)與部署者(Deployers)遵守「透明度原則」與「禁止歧視原則」,來保護消費者免受演算法歧視。規定如下: (一)系統透明度: 1.開發者應向部署者或其他開發者提供該系統訓練所使用的資料、系統限制、預期用途、測試演算法歧視之文件以及其他風險評估文件。 2.部署者應向消費者揭露高風險人工智慧系統的預期用途,也應在高風險人工智慧系統做出決策之前向消費者提供聲明,聲明內容應該包含部署者之聯絡方式、該系統的基本介紹、部署者如何管理該系統可預見之風險等資訊。 (二)禁止歧視: 1.開發者應實施降低演算法歧視之措施,並應協助部署者理解高風險人工智慧系統。此外,開發者也應該持續測試與分析高風險人工智慧系統可能產生之演算法歧視風險。若開發者有意修改該系統,應將更新後的系統資訊更新於開發者網站,並須同步提供給部署者。 2.部署者應該實施風險管理計畫,該風險管理計畫應包含部署者用於識別、紀錄降低演算法歧視風險之措施與負責人員,且風險管理計畫應定期更新。在制定風險管理計畫時,必須參考美國商務部國家標準暨技術研究院(National Institute of Standards and Technology, NIST)的《人工智慧風險管理框架》(AI Risk Management Framework, AI RMF 2.0)與ISO/IEC 42001等風險管理文件。 美國普遍認為科羅拉多州的《人工智慧消費者保護法》為目前針對人工智慧系統最全面之監管法規,可作為其他州有關人工智慧法規的立法參考,美國各州立法情況與作法值得持續關注。

TOP