美國眾議院議員Mark Takano於2019年10月2日提出「刑事鑑識演算法草案」 (Justice in Forensic Algorithms Act),以建立美國鑑識演算法標準。依據該法第2條,美國國家標準與技術研究所(National Institute of Standard)必須建立電算鑑識軟體之發展與使用標準,且該標準應包含以下內容:
一、以種族、社會經濟地位、兩性與其他人口特徵為基礎之評估標準,以因應使用或發展電算鑑識軟體,所造成區別待遇產生之潛在衝擊。
二、該標準應解決:(1)電算鑑識軟體所依據之科學原則與應用之方法論,且於具備特定方法之案例上,是否有足夠之研究基礎支持該方法之有效性,以及團隊進行哪些研究以驗證該方法;(2)要求對軟體之測試,包含軟體之測試環境、測試方法、測試資料與測試統計結果,例如正確性、精確性、可重複性、敏感性與健全性。
三、電算鑑識軟體開發者對於該軟體之對外公開說明文件,內容包含軟體功能、研發過程、訓練資料來源、內部測試方法與結果。
四、要求使用電算鑑識軟體之實驗室或其他機構應對其進行驗證,包含具體顯示於哪個實驗室與哪種狀況下進行驗證。此外,亦應要求列於公開報告內之相關資訊,且於軟體更新後亦應持續進行驗證。
五、要求執法機關於起訴書或相關起訴文件上應詳列使用電算鑑識軟體之相關結果。
本文為「經濟部產業技術司科技專案成果」
世界衛生組織(World Health Organization, WHO)於2023年10月19日發布「人工智慧於健康領域之監管考量因素」(Regulatory considerations on artificial intelligence for health)文件,旨在協助各國有效監管健康領域之人工智慧,發揮其潛力同時最大限度地降低風險。本文件以下列六個領域概述健康人工智慧之監管考量因素: (1)文件化與透明度(Documentation and transparency) 開發者應預先規範(pre-specifying)以及明確記錄人工智慧系統(以下簡稱AI系統)之預期醫療目的與開發過程,如AI系統所欲解決之問題,以及資料集之選擇與利用、參考標準、參數、指標、於各開發階段與原始計畫之偏離及更新等事項,並建議以基於風險之方法(Risk-based approach),根據重要性之比例決定文件化之程度、以及AI系統之開發與確效紀錄之保持。 (2)風險管理與AI系統開發生命週期方法(Risk management and AI systems development lifecycle approaches) 開發者應在AI系統生命之所有階段,考慮整體產品生命週期方法(total product lifecycle approach),包括上市前開發管理、上市後監督與變更管理。此外,須考慮採用風險管理方法(risk management approach)來解決與AI系統相關之風險,如網路安全威脅與漏洞(vulnerabilities)、擬合不足(underfitting)、演算法偏差等。 (3)預期用途、分析及臨床確效(Intended use, and analytical and clinical validation) 開發者應考慮提供AI系統預期用途之透明化紀錄,將用於建構AI系統之訓練資料集組成(training dataset composition)之詳細資訊(包括大小、設定與族群、輸入與輸出資料及人口組成等)提供給使用者。此外,可考慮透過一獨立資料集(independent dataset)之外部分析確效(external analytical validation),展示訓練與測試資料以外之效能,並考慮將風險作為臨床確效之分級要求。最後,於AI系統之上市後監督與市場監督階段,可考慮進行一段期間密集之部署後監督(post-deployment monitoring)。 (4)資料品質(Data quality) 開發者應確認可用資料(available data)之品質,是否已足以支援AI系統之開發,且開發者應對AI系統進行嚴格之預發布評估(pre-release evaluations),以確保其不會放大訓練資料、演算法或系統設計其他元素中之偏差與錯誤等問題,且利害關係人還應考慮減輕與健康照護資料有關之品質問題與風險,並繼續努力創建資料生態系統,以促進優質資料來源之共享。 (5)隱私與資料保護(Privacy and data protection) 開發者於AI系統之設計與部署過程中,應考慮隱私與資料保護問題,並留意不同法規之適用範圍及差異,且於開發過程之早期,開發者即應充分瞭解適用之資料保護法規與隱私法規,並應確保開發過程符合或超過相關法規要求。 (6)參與及協作(Engagement and collaboration) 開發者於制定人工智慧創新與部署路線圖之期間,需考慮開發可近用且具有充足資訊之平台,以於適合與適當情況下促進利害關係人間之參與及協作;為加速人工智慧領域實務作法之進化,透過參與及協作來簡化人工智慧監管之監督流程即有必要。
淺談美國建築能源科技法制政策發展近況 美國證券交易委員會對虛擬貨幣交易平台提起訴訟美國證券交易委員會(The Securities and Exchange Commission,以下簡稱SEC)於2018年11月8日發出聲明,依據1934年的證券交易法(下稱證交法)第21C條對EtherDelta 創辦人Zachary Coburn 提起訴訟,並做出要求其停止交易之禁止令。 EtherDelta 乃為一線上交易平台,允許買家和賣家在其平台上交易「以太幣」和其他虛擬貨幣。其平台特徵有: 提供平台,促成虛擬貨幣交換 EtherDelta之網站提供一線上平台予買賣雙方,對經過平台認證的虛擬貨幣進行交易,促成虛擬貨幣交換。於網站成立之一年半中,其促成了360萬筆訂單。 以智慧合約自動驗證進行交易 EtherDelta以智慧合約(smart contract)維持網站運作,其智慧合約檢查用戶發出之訊息是否有效,於確認買賣雙方帳戶都有足夠資金後,自動進行交易。 提供資訊且對用戶資格未設限 EtherDelta於網站上提供虛擬貨幣之資訊,以及個別虛擬貨幣之每日交易量,同時於網站上顯示前500筆買方和賣方之交易資訊,以價格和顏色進行分類。而其對於成為網站用戶之資格並無限制。 SEC於本案中認為,EtherDelta並未註冊成為證券交易所,卻執行與證券交易相關之業務,已違反證交法,其論述理由為: EtherDelta平台上之虛擬貨幣屬於證券性質 本案SEC使用Howey Test—美國聯邦最高法院於1946年在SEC v. W. J. Howey Co. 一案中所確立之測試要件,來判斷是否符合證券。由於用戶以金錢購買虛擬貨幣,該金錢投資行為建立共同事業,且具有藉由他人努力而獲利之期待,故屬於證券性質之虛擬貨幣。 EtherDelta性質上為交易所,但未為註冊 EtherDelta 作為平台聚集大量投資人,並以智慧合約促成買賣雙方進行虛擬貨幣交換,已屬於實現證券交易之行為,具有證交所功能,故於不具有豁免情形下,其未註冊已違反證交法第5條規定。 本案就SEC之主張,EtherDelta並未為否認或承認之表示,但同意該禁止交易之命令,並同意支付SEC行使歸入權之30萬美元及其他判決前利息和罰款。 觀察目前美國對於虛擬貨幣買賣行為之監管,並無立專法規範,僅以證交法為準則,就個別虛擬貨幣之性質以Howey Test為檢驗,個案認定是否屬於證券。倘若屬於證券,則對於進行交易之平台課予證券交易所之責任,而對於虛擬貨幣而言,被認定為證券勢必被課予義務俾利增加投資人之保障,可能增加公開度及透明度,然其快速籌資之功能亦可能有所減損,SEC對於虛擬貨幣之監管影響與成效均值得繼續觀察之。另外,SEC曾於2017年7月25日針對The DAO做出一調查報告,其於報告中認為證券型之虛擬貨幣需要受到監管,從而本案作為DAO報告之後被裁罰之虛擬貨幣交易平台首例,有其作為里程碑之重要意義。首先其確立了SEC自DAO報告之後對於證券性質虛擬貨幣需監管之見解,再者表達SEC認為就算採用去中心化、分散式節點之方式進行證券交易,同樣屬於證交法所稱之「證交所」,不因此而豁免監管。