美國《代幣分類法》(Token Taxonomy Act)草案

  目前,美國證券管理委員會(U.S. Securities and Exchange Commission, SEC)對於數位貨幣的態度傾向於將代幣視為有價證券。《代幣分類法》(Token Taxonomy Act)草案則是持反對意見的聲浪¬,由美國眾議員Warren Davidson為首,並且獲得跨黨派多位眾議員的支持。《代幣分類法》主要的訴求是希望可以將數位代幣排除於證券,進而排除虛擬貨幣之稅務。重點有三:

  1. 修正《證券交易法》,將數位代幣排除於證券
    將「數位代幣」(Digital Token)定義為驗證交易或遵循規則防止交易被竄改之「數位單元」(Digital Unit,以電腦可讀取的形式儲存,用於表彰經濟、財產上權利,或存取權限)。同時,在原先「證券」(Security)的定義中,排除「數位代幣」;另將證券「交易」(Exchange)交易排除數位貨幣適用。
  2. 擴張銀行之定義
    修改「銀行」之定義。原先《1940年投資顧問法》和《1940年投資公司法》所指之「銀行」,包括「取得存款或執行信託權利(Fiduciary Powers)」等與准許經營銀行執行雷同事業者,是否為公司不在所問(Incorporated)。《代幣分類法》將之擴張為「取得存款、提供保管服務(Custodial Services)或執行信託權利」。
  3. 修正將虛擬貨幣視為免課稅對象
    虛擬貨幣(Virtual Currency)定義為表彰數位價值之交易媒介且不是貨幣。並修正美國《1986國內所得稅法》(Internal Revenue Code of 1986),將虛擬貨幣交易視為免課稅之交易,並將總額小於600美金的虛擬貨幣買賣或交易之所得,排除於總收入(Gross Income)之外。

  然而,目前美國證券管理委員會的態度仍未改變,並且於2019年4月3日發表〈數位資產「投資契約」分析之架構〉(Framework for “Investment Contract” Analysis of Digital Assets)。該分析架構說明:凡符合Howey Test之標準的「投資契約」即屬於「證券」,有《證券交易法》的適用。〈數位資產「投資契約」分析之架構〉甫發表,Warren Davidson與另外五位眾議員隨即重新提起2019年版的《代幣分類法》草案,是繼2018年9月、2018年12月第三度提起相關法案。楊安澤(Andrew Yang,美國首位角逐總統的華裔候選人)在2020年民主黨黨內總統初選政見中,亦援引《代幣分類法》草案,希望可以與連署《代幣分類法》草案的美國國會議員和懷俄明州(Wyoming)的立法者,共同擘畫有利於商業與人民的數位資產框架。

本文為「經濟部產業技術司科技專案成果」

相關連結
相關附件
※ 美國《代幣分類法》(Token Taxonomy Act)草案, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8391&no=64&tp=5 (最後瀏覽日:2026/04/13)
引註此篇文章
你可能還會想看
美國的全球食品追溯中心(GFTC)提出食品追溯的「關鍵追蹤事項」及「重點資料元素」架構

  在近來國際食安問題事件頻傳的氛圍下,如何透過食品供應鏈相關資料的紀錄、串接與分析,達到食品追溯(Food Traceability)目的已成為全球性議題。有鑑於此,美國的全球食品追溯中心(Global Food Traceability Center, GFTC)在跨種類的食品供應鏈中針對數位資料的採集和追蹤,以建立共通架構為目的,提出食品追溯的「關鍵追蹤活動」以及「重點資料元素」,作為監管機構和產業界在建立追溯系統時可依循的標準。   由於現今食品供應系統涉及範圍大部分已擴及全球,其複雜性大幅提升了各國政府對整個食品產業的監管以及促進追溯實踐的困難度。隸屬美國食品科技研究所(IFT)的GFTC於2014年8月19日發表了一篇「食品追溯最佳實踐指南」(A Guidance Document on the Best Practices in Food Traceability)報告,指出當食品相關疫情爆發時進行食品追溯即有全球性的需求;該指南主要以食品安全及追溯相關規範的立法者和食品產業界為對象,針對六大類食品產業-烘焙、奶製品、肉類及家禽、加工食品、農產品和海產類提供一個可茲遵循的追蹤架構。在一條食品供應鏈中,有許多環節是進行追蹤時必要的資訊採集重點,被視為「關鍵追蹤活動」(Critical tracking events, CTEs),而各種「關鍵追蹤活動」的紀錄項目即為「重點資料元素」(Key data elements, KDEs)。 根據該指南所定義的CTEs包含: 1.運輸活動(Transportation events)-食品的外部追蹤,包括「運送活動」(Shipping CTE)和「接收活動」(Receiving CTE),指食品在供應鏈的點跟點之間藉由空運、陸運或船運等物理性的移動。 2.轉換活動(Transformation events)-食品的內部追蹤,連結食品經過各種結合、烹煮、包裝等加工的輸入到輸出過程,包括「轉換輸入活動」(Transformation Input CTE)和「轉換輸出活動」(Transformation Output CTE)。 3.消耗活動(Depletion events)-係將食品從供應鏈上去除的活動。其中,「消費活動」(Consumption CTE),指食品呈現可供顧客消費狀態的活動,例如把新鮮農產品放在零售店供顧客選購;「最終處置活動」(Disposal CTE)指將食品毀棄、無法再作為其他食品的成分或無法再供消費的活動。   而紀錄上述CTEs的KDEs例如各項活動的擁有人、交易對象、日期時間、地點、產品、品質等,應將該指南所列出之各項KDEs理解為紀錄CTEs的最基本項目。目前最大的問題是食品監管的要求和產業界執行可行性間的差距,故如何縮小此差距仍為各國政府當前最大的挑戰。

IBM提出「人工智慧日常倫理」手冊作為研發人員指引

  隨著人工智慧快速發,各界開始意識到人工智慧系統應用、發展過程所涉及的倫理議題,應該建構出相應的規範。IBM於2018年9月02日提出了「人工智慧日常倫理」(Everyday Ethics for Artificial Intelligence)手冊,其以明確、具體的指引做為系統設計師以及開發人員間之共同範本。作為可明確操作的規範,該手冊提供了問責制度、價值協同、可理解性等關注點,以促進社會對人工智慧的信任。 一、問責制度(Accountability)   由於人工智慧的決策將作為人們判斷的重要依據,在看似客觀的演算系統中,編寫演算法、定義失敗或成功的程式設計人員,將影響到人工智慧的演算結果。因此,系統的設計和開發團隊,應詳細記錄系統之設計與決策流程,確保設計、開發階段的責任歸屬,以及程序的可檢驗性。 二、價值協同(Value Alignment)   人工智慧在協助人們做出判斷時,應充分考量到事件的背景因素,其中包括經驗、記憶、文化規範等廣泛知識的借鑑。因此系統設計和開發人員,應協同應用領域之價值體系與經驗,並確保演算時對於跨領域的文化規範與價值觀之敏感性。同時,設計師和開發人員應使人工智慧系統得以「了解並認知」用戶的價值觀,使演算系統與使用者之行為準則相符。 三、可理解性(Explainability)   人工智慧系統的設計,應盡可能地讓人們理解,甚至檢測、審視它決策的過程。隨著人工智慧應用範圍的擴大,其演算決策的過程必須以人們得以理解的方式解釋。此係讓用戶與人工智慧系統交互了解,並針對人工智慧結論或建議,進而有所反饋的重要關鍵;並使用戶面對高度敏感決策時,得以據之檢視系統之背景數據、演算邏輯、推理及建議等。   該手冊提醒,倫理考量應在人工智慧設計之初嵌入,以最小化演算的歧視,並使決策過程透明,使用戶始終能意識到他們正在與人工智慧進行互動。而作為人工智慧系統設計人員和開發團隊,應視為影響數百萬人甚至社會生態的核心角色,應負有義務設計以人為本,並與社會價值觀和道德觀一致的智慧系統。

自動駕駛車輛之分級與責任

  所謂自動駕駛(autopilot),原來是指一個用來控制載具軌道而無需人工一直干預的系統,亦即無須人類持續干預,但人類仍須於關鍵時刻介入進行決定或作為,此時機器僅作為輔助。   而自動駕駛汽車或稱全自動駕駛,則只完全無須人類干預,由機器自動感應偵測,自動做成決策控制車輛行駛。故由人類的介入程度區別究竟是駕駛輔助或自動駕駛。美國國家公路交通安全管理局(NHTSA)於2016年已提出正式的分類系統,除手動駕駛(0級)外,區分弱駕駛輔助(1級)、部分自動駕駛(2級)、有條件全自動(3級)、高度/完全自動化(4級)不同程度的自動駕駛。其他國家如德國,在聯邦政府的「自動駕駛圓桌會議」也對自動駕駛有類似的四等級區分。   德國聯邦政府也在於2017年1月25日提出規範自動駕駛之法律草案,亦即道路交通法修正法(Änderung des Straßenverkehrsgesetzes),核心在於賦予電腦與人類駕駛者法律上同等地位。亦即,駕駛人的定義未來擴張延伸到「使用不同程度自動駕駛系統者」。根據草案將來在車輛行駛中,人類可以在特定時間與特定狀況下接管整個行駛。而最重要的修正:人類始終應該負使用電腦的最終責任。   故在行駛中駕駛人將會被輔助機器替代,更要求自駕系統應該具備“隨時可以由駕駛人接手操控或停俥”的功能。 分類中,駕駛人的角色只有到全自動駕駛實現時才退場,屆時才會發生無駕駛人只有乘客的狀況。   修法也重視自駕技術失敗並導致事故所生責任分擔的問題。對於責任的調查將採用如同飛航安全中之「黑盒子」的方式,該裝置會記錄行駛中的所有基本資料。這將有助於發生事故後澄清,查明究竟是技術上原因、製造商或駕駛員的過失,以確保駕駛人無法將責任全部推給自動化系統的故障。

美國科羅拉多州通過《人工智慧消費者保護法》

2024年5月17日,科羅拉多州州長簽署了《人工智慧消費者保護法》(Consumer Protections for Artificial Intelligence Act,Colorado AI Act,下簡稱本法),其內容將增訂於《科羅拉多州修訂法規》(Colorado Revised Statutes,簡稱CRS)第6篇第17部分,是美國第一部廣泛對AI規範的法律,將於2026年2月1日生效。 本法旨在解決「高風險人工智慧系統」的演算法歧視(Algorithmic Discrimination)的問題 ,避免消費者權益因為演算法之偏見而受到歧視。是以,本法將高風險AI系統(High-risk Artificial Intelligence System)定義為「部署後作出關鍵決策(Consequential Decision)或在關鍵決策中起到重要作用的任何AI系統」。 而後,本法藉由要求AI系統開發者(Developers)與部署者(Deployers)遵守「透明度原則」與「禁止歧視原則」,來保護消費者免受演算法歧視。規定如下: (一)系統透明度: 1.開發者應向部署者或其他開發者提供該系統訓練所使用的資料、系統限制、預期用途、測試演算法歧視之文件以及其他風險評估文件。 2.部署者應向消費者揭露高風險人工智慧系統的預期用途,也應在高風險人工智慧系統做出決策之前向消費者提供聲明,聲明內容應該包含部署者之聯絡方式、該系統的基本介紹、部署者如何管理該系統可預見之風險等資訊。 (二)禁止歧視: 1.開發者應實施降低演算法歧視之措施,並應協助部署者理解高風險人工智慧系統。此外,開發者也應該持續測試與分析高風險人工智慧系統可能產生之演算法歧視風險。若開發者有意修改該系統,應將更新後的系統資訊更新於開發者網站,並須同步提供給部署者。 2.部署者應該實施風險管理計畫,該風險管理計畫應包含部署者用於識別、紀錄降低演算法歧視風險之措施與負責人員,且風險管理計畫應定期更新。在制定風險管理計畫時,必須參考美國商務部國家標準暨技術研究院(National Institute of Standards and Technology, NIST)的《人工智慧風險管理框架》(AI Risk Management Framework, AI RMF 2.0)與ISO/IEC 42001等風險管理文件。 美國普遍認為科羅拉多州的《人工智慧消費者保護法》為目前針對人工智慧系統最全面之監管法規,可作為其他州有關人工智慧法規的立法參考,美國各州立法情況與作法值得持續關注。

TOP