美國證券交易委員會成員發佈「數位資產之投資契約」指導文件

  鑒於「監管不確定性」係加密貨幣市場發展之一大阻礙,2018年間,美國證券交易委員會(United States Securities and Exchange Commission, SEC)成員威廉.希曼(William Hinman)表示,SEC打算發布指導方針,協助市場參與者確認「哪些數位資產之發售,會被認為是投資契約,進而構成證券」,須受到相關證券法規監管。據此,2019年4月3日,SEC公布指導文件:「數位資產之投資契約分析框架」(Framework for “Investment Contract” Analysis of Digital Assets)。惟須注意的是,該文件為內部成員之意見,不具正式法律效力,不得拘束SEC企業財務局或委員會本身,而僅屬一種指導。

  美國法上對於「投資契約」的認定標準,為聯邦最高法院建立的Howey Test,即基於合理的獲利預期、且該獲利來自他人的創業或經營努力、而投資金錢於一共同事業者,成立投資契約,進而構成證券。因此,為確認「哪些數位資產之發售,會被認為是投資契約,進而構成證券」,該文件特別針對「Howey Test」中的「基於合理的獲利預期」、「該獲利來自他人的創業或經營努力」,提出具體判斷標準,並輔以「其他相關考量因素」,供市場參與者作一參考:

(一)基於合理的獲利預期:例如「數位資產持有人可否分享企業收入或利潤,或從數位資產的增值獲得利潤」、「持有人現在或未來得否在次級市場交易」等具體標準;

(二)該獲利來自他人的創業或經營努力:例如「營運上是否去中心化」、「數位資產持有人,是否期待發行人執行或管理必要工作」等具體標準;

(三)其他相關考量因素:包含「數位資產之設計和執行,旨在滿足使用者需求,而非投機買賣」、「數位資產的價值,通常會保持不變或隨時間減損,理性持有人不會『以投資為目的』而長期持有」、「數位資產可作為真實貨幣之替代物」等等,文件中指出,只要這些其他相關考量因素越明顯,越不符合上開「基於合理的獲利預期且該獲利來自他人的創業或經營努力」。

  文件中亦強調,SEC將參酌個案事實,綜合上開各項標準,為客觀之認定。

相關連結
相關附件
※ 美國證券交易委員會成員發佈「數位資產之投資契約」指導文件, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8285&no=55&tp=1 (最後瀏覽日:2026/05/06)
引註此篇文章
你可能還會想看
歐盟「人工智慧法」達成政治協議,逐步建立AI準則

歐盟「人工智慧法」達成政治協議, 逐步建立AI準則 資訊工業策進會科技法律研究所 2023年12月25日 隨著AI(人工智慧)快速發展,在各領域之應用日益廣泛,已逐漸成為國際政策、規範、立法討論之重點。其中歐盟人工智慧法案(Artificial Intelligence Act, AI Act,以下簡稱AIA法案)係全球首部全面規範人工智慧之法律架構,並於2023年12月9日由歐洲議會及歐盟部長歷史會達成重要政治協議[1],尚待正式批准。 壹、發佈背景 歐洲議會及歐盟部長理事會針對AIA法案已於本年12月9日達成暫時政治協議,尚待正式批准。在法案普遍實施前之過渡期,歐盟執委會將公布人工智慧協定(AI Pact),其將號召來自歐洲及世界各地AI開發者自願承諾履行人工智慧法之關鍵義務。 歐盟人工智慧法係歐盟執委會於2021年4月提出,係全球首項關於人工智慧的全面法律架構,該項新法係歐盟打造可信賴AI之方式,將基於AI未來可證定義(future proof definition),以等同作法直接適用於所有會員國[2]。 貳、內容摘要 AIA法案旨在確保進入並於歐盟使用之AI人工智慧系統是安全及可信賴的,並尊重人類基本權利及歐盟價值觀,在創新及權利義務中取得平衡。對於人工智慧可能對社會造成之危害,遵循以風險為基礎模式(risk-based approach),即風險越高,規則越嚴格,現階段將風險分為:最小風險(Minimal risk)、高風險(High-risk)、無法接受的風險(Unacceptable risk)、特定透明度風險(Specific transparency risk)[3]。與委員會最初建議版本相比,此次臨時協定主要新增內容歸納如下: 臨時協議確立廣泛域外適用之範圍,包含但不限於在歐盟內提供或部署人工智慧系統的企業[4]。但澄清該法案不適用於專門用於軍事或國防目的之系統。同樣,該協定規定不適用於研究和創新目的之人工智慧系統,也不適用於非專業原因之個人AI使用。 臨時協議針對通用AI(General purpose AI)[5]模型,訂定相關規定以確保價值鏈之透明度;針對可能造成系統性風險之強大模型,訂定風險管理與重要事件監管、執行模型評估與對抗性測試等相關義務。這些義務將由執委會與業界、科學社群、民間及其他利害關係人共同制定行為準則(Codes of practices)。 考量到人工智慧系統可用於不同目的之情況,臨時協議針對通用AI系統整合至高風險系統,並就基礎模型部分商定具體規則,其於投放市場之前須遵守特定之透明度義務,另強調對於情緒識別系統有義務在自然人接觸到使用這種系統時通知他們。 臨時協議針對違反禁止之AI應用,罰款金額自3,500萬歐元 或全球年營業額7%(以較高者為準)。針對違反其他義務罰款1,500萬歐元或全球年營業額3%,提供不正確資訊罰 款750萬歐元或全球年營業額1.5%。針對中小及新創企業違反人工智慧法之行政罰款將設定適當之上限。 參、評估分析 在人工智慧系統之快速發展衝擊各國社會、經濟、國力等關鍵因素,如何平衡技術創新帶來之便利及保護人類基本權利係各國立法重點。此次歐盟委員會、理事會和議會共同對其2021年4月提出之AIA法案進行審議並通過臨時協議,係歐洲各國對於現下人工智慧運作之監管進行全面的討論及認可結果,對其他國家未來立法及規範有一定之指引效果。 此次臨時協議主要針對人工智慧定義及適用範圍進行確定定義,確認人工智慧系統產業鏈之提供者及部署者有其相應之權利義務,間接擴大歐盟在人工智慧領域之管轄範圍,並對於人工智慧系統的定義縮小,確保傳統計算過程及單純軟體使用不會被無意中禁止。對於通用人工智慧基礎模型之部分僅初步達成應訂定相關監管,並對基礎模型之提供者應施加更重之執行義務。然由於涉及層面過廣,仍需業界、科學社群、民間及其他利害關係人討論準則之制定。 面對AI人工智慧之快速發展,各國在人工智慧之風險分級、資安監管、法律規範、資訊安全等議題持續被廣泛討論,財團法人資訊工業策進會科技法律研究所長期致力於促進國家科技法制環境,將持續觀測各國法令動態,提出我國人工智慧規範之訂定方向及建議。 本文同步刊登於TIPS網站(https://www.tips.org.tw) [1]Artificial Intelligence Act: deal on comprehensive rules for trustworthy AI,https://www.europarl.europa.eu/news/en/press-room/20231206IPR15699/artificial-intelligence-act-deal-on-comprehensive-rules-for-trustworthy-ai (last visited December 25, 2023). [2]European Commission, Commission welcomes political agreement on Artificial Intelligence Act,https://ec.europa.eu/commission/presscorner/detail/en/ip_23_6473 (last visited December 25, 2023). [3]Artificial intelligence act,P5-7,https://superintelligenz.eu/wp-content/uploads/2023/07/EPRS_BRI2021698792_EN.pdf(last visited December 25, 2023). [4]GIBSON DUNN, The EU Agrees on a Path Forward for the AI Act,https://www.gibsondunn.com/eu-agrees-on-a-path-forward-for-the-ai-act/#_ftn2 (last visited December 25, 2023). [5]General purpose AI-consisting of models that “are trained on broad data at scale, are designed for generality of output, and can be adapted to a wide range of distinctive tasks”, GIBSON DUNN, The EU Agrees on a Path Forward for the AI Act,https://www.gibsondunn.com/eu-agrees-on-a-path-forward-for-the-ai-act/#_ftn2(last visited December 25, 2023).

自由軟體運動燒向BIOS

  BIOS是「基本輸出/輸入系統」(Basic input/output systems)的簡稱,這種在所有應用底層的軟體,過去以來PC廠商一向自我保護相當嚴密,而且還需要用到專門設計BIOS的公司。而現在,一些批評開始希望逼迫業界放棄其機密,這些批評宣稱,客戶應該可以自由發開自己的選擇方案,確保可以控制自己的裝置──也就是說,可以讓他們自由取得BIOS資訊。   「我們需要自由的BIOS,因為如果我們無法控制BIOS,就無法控制電腦。」自由軟體基金會(Free Software Foundation)總裁Richard Stallman表示。BIOS自由軟體計畫開始於BIOS史上的第一波改革──當時軟體程式碼希望轉向新的「可延伸式韌體界面」(Extensible Firmware Interface,或簡稱EFI)。另一方面,PC硬體安全功能的一些計畫也讓Stallman等一類團體批評指出,消費者對於自己的裝置缺乏主控權,希望能夠公開BIOS撰寫規格,可讓消費者能夠自行安裝、修改,及再發佈BIOS軟體──雖然不見得會是免費的。更重要的是,將可讓使用者避開未來一些可能的安全強化功能,例如廠商用控制文件使用方式的數位版權管理功能。   已有許多廠商宣稱,BIOS的自由軟體純粹只是為了自由而自由,對於電腦使用者沒什麼意義。BIOS廠商的高層及晶片巨子英特爾都表示,由於目前業界對BIOS的控管嚴密,也才能夠保有PC的安全和穩定,同時可藉由對一些廠商IP(智慧財產權)的保護以促進市場競爭。有些人則認為,對於BIOS的嚴密保護,有助於防止駭客攻擊。   英特爾則已經提出了折衷的方案──名為Tiano的開放原始碼技術。Tiano是為了取代BIOS的一種框架工作,希望透過EFI,讓PC零件以自己的驅動程式來啟動零件。英特爾的這項計畫為BIOS的汰換工作建立了一個框架,因此可能成為BIOS自由軟體的基礎。但是它把PC零件初始化用的程式碼撰寫工作留給了軟體的下載者。但Stallman依然宣稱英特爾做得不夠,且BIOS廠商其實是多餘的,他希望看到資訊釋出。

德國禁種MON810爭議,行政法院裁定有理由,支持主管機關禁種決定

  跨國農業生技公司Monsanto研發的MON810品系抗蟲基因改造玉米,於今(2009)年4月中旬遭到德國農業生技的主管機關-聯邦營養、農業與消費者保護局(Bundesministerium für Ernährung, Landwirtschaft und Verbraucherschutz, BMELV)援引歐盟基因改造生物環境釋出指令(EU-Freisetzungsrichtlinie)中的防衛條款,加以禁種。   雖然Monsanto隨即對BMELV此項決定提出行政訴訟,但Braunschweig行政法院在5月初作出的暫時性裁定,支持了BMELV此項決定。法院基於兩大理由,裁定BMELV之禁種決定並非無據:(1)只要有新的或進一步的資訊出現,支持基因改造作物可能會對人體或動物健康造成損害,即可支持主管機關作出禁止種植已經取得歐盟上市許可的基因改造作物之決定之論據,不需要存在有必然會有風險的科學知識。(2)據此論據進行風險調查及風險評估,乃主管機關之執掌,主管機關對此有裁量權(Beurteilungsspielraum),從而,法院介入審查該行政決定的重點,在於主管機關是否已為充分的風險調查、有無恣意論斷風險。本案目前尚非終局之決定,Monsanto仍可對於此項裁定提出抗告。   在歐盟,基因改造生物的上市需透過歐盟程序為之,一旦歐盟執委會允許某一基因改造生物的上市,該基因改造生物原則上即可在全體歐盟會員國推廣銷售,包括種植。唯歐盟環境釋出指令例外容許會員國得於一定條件下,援引防衛條款主張已通過歐盟審查的基因改造生物,對於其境內環境或人體與動植物健康有負面影響,從而禁止特定已取得歐盟上市許可的基因改造生物於其境內流通。防衛條款的動用屬例外情形,且須定期接受歐盟層級的審查。

美國參議院於2022年4月提出《演算法問責法案》對演算法治理再次進行立法嘗試

  《演算法問責法案》(Algorithmic Accountability Act)於2022年4月由美國參議院提出,此法案係以2019年版本為基礎,對演算法(algorithm)之專業性與細節性事項建立更完善之規範。法案以提升自動化決策系統(automated decision systems, ADS)之透明度與公平性為目的,授權聯邦貿易委員會(Federal Trade Commission, FTC)制定法規,並要求其管轄範圍內之公司,須就對消費者生活產生重大影響之自動化決策系統進行影響評估,公司亦須將評估結果做成摘要報告。   《演算法問責法案》之規範主體包括:(1)公司連續三年平均營業額達5000萬美元,或股權價值超過2.5億美元者,並處理或控制之個人資料超過100萬人次;以及(2)公司過去三年內,財務規模至少為前者之十分之一,且部署演算法開發以供前者實施或使用者。ADS影響評估應檢視之內容包括:   1.對決策過程進行描述,比較分析其利益、需求與預期用途;   2.識別並描述與利害關係人之協商及其建議;   3.對隱私風險和加強措施,進行持續性測試與評估;   4.記錄方法、指標、合適資料集以及成功執行之條件;   5.對執行測試和部署條件,進行持續性測試與評估(含不同群體);   6.對代理商提供風險和實踐方式之支援與培訓;   7.評估限制使用自動化決策系統之必要性,並納入產品或其使用條款;   8.維護用於開發、測試、維護自動化決策系統之資料集和其他資訊之紀錄;   9.自透明度的角度評估消費者之權利;   10.以結構化方式識別可能的不利影響,並評估緩解策略;   11.描述開發、測試和部署過程之紀錄;   12.確定得以改進自動化決策系統之能力、工具、標準、資料集,或其他必要或有益的資源;   13.無法遵守上述任一項要求者,應附理由說明之;   14.執行並記錄其他FTC 認為合適的研究和評估。   當公司違反《演算法問責法案》及其相關法規有不正當或欺騙性行為或做法時,將被視為違反《聯邦貿易委員會法》(Federal Trade Commission Act)規定之不公平或欺騙性行為,FTC應依《聯邦貿易委員會法》之規定予以處罰。此法案就使用ADS之企業應進行之影響評估訂有基礎框架,或可作為我國演算法治理與人工智慧應用相關法制或政策措施之參酌對象,值得持續追蹤。

TOP