鑒於「監管不確定性」係加密貨幣市場發展之一大阻礙,2018年間,美國證券交易委員會(United States Securities and Exchange Commission, SEC)成員威廉.希曼(William Hinman)表示,SEC打算發布指導方針,協助市場參與者確認「哪些數位資產之發售,會被認為是投資契約,進而構成證券」,須受到相關證券法規監管。據此,2019年4月3日,SEC公布指導文件:「數位資產之投資契約分析框架」(Framework for “Investment Contract” Analysis of Digital Assets)。惟須注意的是,該文件為內部成員之意見,不具正式法律效力,不得拘束SEC企業財務局或委員會本身,而僅屬一種指導。
美國法上對於「投資契約」的認定標準,為聯邦最高法院建立的Howey Test,即基於合理的獲利預期、且該獲利來自他人的創業或經營努力、而投資金錢於一共同事業者,成立投資契約,進而構成證券。因此,為確認「哪些數位資產之發售,會被認為是投資契約,進而構成證券」,該文件特別針對「Howey Test」中的「基於合理的獲利預期」、「該獲利來自他人的創業或經營努力」,提出具體判斷標準,並輔以「其他相關考量因素」,供市場參與者作一參考:
(一)基於合理的獲利預期:例如「數位資產持有人可否分享企業收入或利潤,或從數位資產的增值獲得利潤」、「持有人現在或未來得否在次級市場交易」等具體標準;
(二)該獲利來自他人的創業或經營努力:例如「營運上是否去中心化」、「數位資產持有人,是否期待發行人執行或管理必要工作」等具體標準;
(三)其他相關考量因素:包含「數位資產之設計和執行,旨在滿足使用者需求,而非投機買賣」、「數位資產的價值,通常會保持不變或隨時間減損,理性持有人不會『以投資為目的』而長期持有」、「數位資產可作為真實貨幣之替代物」等等,文件中指出,只要這些其他相關考量因素越明顯,越不符合上開「基於合理的獲利預期且該獲利來自他人的創業或經營努力」。
文件中亦強調,SEC將參酌個案事實,綜合上開各項標準,為客觀之認定。
歐盟能源使用產品環保設計指令(Directive 2005/32/EC establishing a framework for the setting of ecodesign requirements for energy-using products)自2005年施行4年後,從上(11)月20日起,已通過新的能源相關產品環保設計指令(Directive 2009/125/EC establishing a framework for the setting of ecodesign requirements for energy-related products),更新取代舊有指令。本新指令最主要特色,在於將環保設計適用範圍從「能源使用產品」擴大延伸至「能源相關產品」。 繼去(2008)年10月歐盟執委會才公告指示清單,篩選出10種在2009-2011年優先執行環保設計措施之能源使用產品類別後,其包括:空調和換氣系統、電子和燃油的加熱設備、食品備製設備、工業和實驗室鍋爐、機床、網路連結、資料處理和資料儲存設備、冷藏和冷凍設備、聲音和影像設備、變壓器及用水設備等,依歐盟新指令規定,未來不只是使用到能源的產品,其他所有能有助節約能源之產品,以及對末端使用者而言為獨立部分且其環保績效可獨立評估之服務,皆屬新指令之適用範圍。例如,蓮蓬頭與其他衛浴設備、隔離材料與雙層玻璃等。 新指令依規定將於2011年10月21日全面實施,執委會應於3年內公告優先執行之產品種類,而各會員國應於2010年11月20日前訂定國內法規。 歐盟新指令主要影響,將使更多元產品之生產者擔負起製作生態特性說明(ecological profile)之責任,且需於符合指令要求後始得於產品標示CE標示。
美國科羅拉多州通過《人工智慧消費者保護法》2024年5月17日,科羅拉多州州長簽署了《人工智慧消費者保護法》(Consumer Protections for Artificial Intelligence Act,Colorado AI Act,下簡稱本法),其內容將增訂於《科羅拉多州修訂法規》(Colorado Revised Statutes,簡稱CRS)第6篇第17部分,是美國第一部廣泛對AI規範的法律,將於2026年2月1日生效。 本法旨在解決「高風險人工智慧系統」的演算法歧視(Algorithmic Discrimination)的問題 ,避免消費者權益因為演算法之偏見而受到歧視。是以,本法將高風險AI系統(High-risk Artificial Intelligence System)定義為「部署後作出關鍵決策(Consequential Decision)或在關鍵決策中起到重要作用的任何AI系統」。 而後,本法藉由要求AI系統開發者(Developers)與部署者(Deployers)遵守「透明度原則」與「禁止歧視原則」,來保護消費者免受演算法歧視。規定如下: (一)系統透明度: 1.開發者應向部署者或其他開發者提供該系統訓練所使用的資料、系統限制、預期用途、測試演算法歧視之文件以及其他風險評估文件。 2.部署者應向消費者揭露高風險人工智慧系統的預期用途,也應在高風險人工智慧系統做出決策之前向消費者提供聲明,聲明內容應該包含部署者之聯絡方式、該系統的基本介紹、部署者如何管理該系統可預見之風險等資訊。 (二)禁止歧視: 1.開發者應實施降低演算法歧視之措施,並應協助部署者理解高風險人工智慧系統。此外,開發者也應該持續測試與分析高風險人工智慧系統可能產生之演算法歧視風險。若開發者有意修改該系統,應將更新後的系統資訊更新於開發者網站,並須同步提供給部署者。 2.部署者應該實施風險管理計畫,該風險管理計畫應包含部署者用於識別、紀錄降低演算法歧視風險之措施與負責人員,且風險管理計畫應定期更新。在制定風險管理計畫時,必須參考美國商務部國家標準暨技術研究院(National Institute of Standards and Technology, NIST)的《人工智慧風險管理框架》(AI Risk Management Framework, AI RMF 2.0)與ISO/IEC 42001等風險管理文件。 美國普遍認為科羅拉多州的《人工智慧消費者保護法》為目前針對人工智慧系統最全面之監管法規,可作為其他州有關人工智慧法規的立法參考,美國各州立法情況與作法值得持續關注。
韓國公共行政安全部制定《公部門AI倫理原則》草案,以提升民眾對公部門應用AI之信任2025年11月,韓國公共行政安全部(Ministry of the Interior and Safety,下稱MOIS)於新聞稿宣布制定《公部門AI倫理原則》草案,追求公益、公平無歧視、透明、問責明確、安全性及隱私保護等六大核心價值,旨於促進創新、提升民眾對公部門應用AI之信任。 一、適用範圍 《公部門AI倫理原則》草案適用對象為公部門,包含中央、地方政府機關等,其性質為不具強制力的指引。 二、檢核表分三階段漸進式管理 《公部門AI倫理原則》草案依AI 應用的複雜程度分為三階段漸進式管理,設計最高達90個細項的檢核表(Checklist),惟目前尚未公開詳細內容: (一)第一階段:基礎導入(AI基礎應用) 針對技術引進的初步活用階段,共包含31個檢核項目,旨在建立基礎的倫理合規防線。 (二)第二階段:進階應用(AI決策支援) 適用於AI提供資料分析與建議以輔助人員進行行政決策的情境。隨著影響力提升,檢核項目擴增至74個,強化透明性與責任性的審查。 (三)第三階段:深度融合(AI自主決策) 針對AI具備高度自主決策權的高風險情境(如自主化服務或複雜判斷),執行最嚴密的倫理檢查,共達90個檢核項目。 建議公部門依檢核表自行檢查,並依結果建立「調整與回饋」的循環機制,以因應不斷變化的技術環境。 MOIS部長指出,未來將進一步蒐集學界意見以完備倫理原則,並開發一套AI倫理原則之培訓課程,確保一線能落實執行這90個檢核項目,保障人權與基本權利。 由於目前未見90個檢核項目內容,值得持續追蹤後續進展。 本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。 本文同步刊登於TIPS網站(https://www.tips.org.tw)
英國因應自動駕駛車輛上路,提出新保險責任制度英國政府為達成於2021年使完全無須人為操控的自動駕駛車輛可在英國公路上行駛之目標,提出新保險責任制度。透過自動駕駛和電動車輛法案的提出,將為自動駕駛車輛可合法上路行駛鋪路,從而帶動自動駕駛車輛產業發展。整體而言,一旦此立法正式通過,除了代表英國政府正式樹立自動駕駛車輛的保險框架里程碑外,也象徵英國朝向2021年的目標又更邁進一步。