美國科羅拉多州通過《人工智慧消費者保護法》

2024年5月17日,科羅拉多州州長簽署了《人工智慧消費者保護法》(Consumer Protections for Artificial Intelligence Act,Colorado AI Act,下簡稱本法),其內容將增訂於《科羅拉多州修訂法規》(Colorado Revised Statutes,簡稱CRS)第6篇第17部分,是美國第一部廣泛對AI規範的法律,將於2026年2月1日生效。

本法旨在解決「高風險人工智慧系統」的演算法歧視(Algorithmic Discrimination)的問題 ,避免消費者權益因為演算法之偏見而受到歧視。是以,本法將高風險AI系統(High-risk Artificial Intelligence System)定義為「部署後作出關鍵決策(Consequential Decision)或在關鍵決策中起到重要作用的任何AI系統」。

而後,本法藉由要求AI系統開發者(Developers)與部署者(Deployers)遵守「透明度原則」與「禁止歧視原則」,來保護消費者免受演算法歧視。規定如下:

(一)系統透明度:

1.開發者應向部署者或其他開發者提供該系統訓練所使用的資料、系統限制、預期用途、測試演算法歧視之文件以及其他風險評估文件。

2.部署者應向消費者揭露高風險人工智慧系統的預期用途,也應在高風險人工智慧系統做出決策之前向消費者提供聲明,聲明內容應該包含部署者之聯絡方式、該系統的基本介紹、部署者如何管理該系統可預見之風險等資訊。

(二)禁止歧視:

1.開發者應實施降低演算法歧視之措施,並應協助部署者理解高風險人工智慧系統。此外,開發者也應該持續測試與分析高風險人工智慧系統可能產生之演算法歧視風險。若開發者有意修改該系統,應將更新後的系統資訊更新於開發者網站,並須同步提供給部署者。

2.部署者應該實施風險管理計畫,該風險管理計畫應包含部署者用於識別、紀錄降低演算法歧視風險之措施與負責人員,且風險管理計畫應定期更新。在制定風險管理計畫時,必須參考美國商務部國家標準暨技術研究院(National Institute of Standards and Technology, NIST)的《人工智慧風險管理框架》(AI Risk Management Framework, AI RMF 2.0)與ISO/IEC 42001等風險管理文件。

美國普遍認為科羅拉多州的《人工智慧消費者保護法》為目前針對人工智慧系統最全面之監管法規,可作為其他州有關人工智慧法規的立法參考,美國各州立法情況與作法值得持續關注。

相關連結
※ 美國科羅拉多州通過《人工智慧消費者保護法》, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=9217&no=67&tp=1 (最後瀏覽日:2026/02/16)
引註此篇文章
你可能還會想看
澳洲證券投資委員會與美國商品期貨交易委員會簽訂雙邊合作協議

  2018年10月4日,澳洲證券投資委員會(Australian Securities and Investments Commission,簡稱:ASIC)與美國商品期貨交易委員會(US Commodity Futures Trading Commission,簡稱:CFTC)簽訂「金融技術創新合作雙邊協議」(Cooperation Arrangement on Financial Technology Innovation’ bilateral agreement,簡稱:協議),該協議內容主要針對未來金融科技(fintech)以及監理科技(regtech)之合作以及相關資訊作交換。   協議內容主要為加強雙方瞭解、識別市場發展趨勢,進而促進金融科技創新,對於運用監理科技之金融產業採取鼓勵的態度。   具體協議內容及相關合作計畫為以下條款: 1. 建立正式合作途徑,其中包含資訊分享,ASIC創新中心與LabCFTC之間的溝通; 2. 協助轉介有興趣於另一管轄權,設立企業之金融科技公司; 3. 促進監管機構定期舉行相關監管會議,討論目前時下發展趨勢,藉以相互學習; 4. 針對非公開資訊及機密資訊,給予監管機構以共享方式流通資訊。   儘管,澳洲與美國已簽訂此協議,惟須注意的地方在於,此協議本質上不具備法律約束力,對監管機構也未加註責任,並強加特定義務,以及未取代任何國內法的法律義務。   雖然,此協議不具任何法律約束力,但美國以及澳洲之金融科技創新產業間已形成一定之默契,以及交叉合作。此種互利合作,使兩國金融創新企業在雙方管轄權下,並且降低跨境成本及加深跨境無障礙性,為兩國監管機構提供最佳執行方式,以及進一步資料之蒐集。

解析生技製藥研發成果涉及智慧財產保護之新課題

美國白宮呼籲採取行動,打擊利用AI生成影像進行之性虐待行為

美國白宮於2024年5月23日公開呼籲採取行動以打擊利用AI生成性影像,及未經當事人同意傳播真實影像的性虐待行為。此次呼籲源自白宮「解決線上騷擾與虐待問題工作小組」(Task Force to Address Online Harassment and Abuse)相關行動、總統第14110號行政命令-「安全、可靠且可信任之AI開發及利用」(Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence),以及尖端AI公司自願管理AI風險之承諾(Voluntary AI Commitments)。 白宮指出,迄今為止生成式AI已淪為性虐待的主要工具,同時,涉及未經同意散布或威脅散布私人性影像,亦將對受害者造成嚴重的心理傷害。白宮呼籲相關利害關係人透過自願性承諾,預防與減輕性虐待影像之影響,如: (1)阻止性虐待影像獲利: 對於從事性虐待影像業務的網站或應用程式,支付平臺與金融機構可限制或拒絕對其提供支付服務。 (2)停止創建深偽性虐待影像 : 對於可透過AI生成性影像之網路服務或應用程式,雲端服務供應商與應用程式商店得減少此類網路服務或應用程式運作。此外,應用程式商店可要求應用程式開發人員採取措施,防止使用者製作非經當事人同意的AI生成性影像。 (3)防止散播性虐待影像: 應用程式與作業系統開發人員可啟用技術保護措施,以保護數位裝置上儲存之內容,防止未經當事人同意分享其影像。 (4)支援並參與為受害者提供有效補救措施之服務: 平臺與利害關係人可選擇與相關組織合作,使性虐待影像受害者可輕鬆且安全地從線上平臺中刪除未經同意之內容。此外,白宮亦呼籲國會修訂於2022年重新授權之「婦女暴力防制法」(Violence Against Women Act Reauthorization),延續並加強原有法律保護效力,同時為AI生成之性虐待影像的受害者提供關鍵援助資源。

美國FDA公布醫療器材上市前審查指令510(k)

  美國食品藥物管理局(The Food and Drug Administration,簡稱FDA)於今年(2014)7月更新並公布了醫療器材上市前審查(premarket notification)的指令(guidance)(該指令名稱為510(k) Program: Evaluating Substantial Equivalence in Premarket Notification,以下簡稱510(k)),針對醫療器材業者將其生產製造的醫療儀器申請上市的過程做了新的調整及規範。此指令主要是讓業界及FDA人員了解FDA在評估醫療器材申請過程中所評估的因素及要點,並藉由FDA在審查醫療器材的實務規範及審查標準來當作標準並訂定510(k)修正,以提高510(k)評估的可預測性、一致性及透明度,讓業界有一定的遵循標準。雖然FDA的指令文件並不受法律強制規範,但可供醫材藥廠清楚FDA所重視的審查程序及內容。   510(k)審查的內容主要規範於美國藥物食品化妝品管理法第513(i)條,其重點規範包括定義FDA評估實質上相同的標準:實質上相同指新醫材在技術上特點(technological characteristics)與比對性醫材相同;若該新醫材的技術特點在材料設計等和比對性醫材不盡相同,其需證明該儀器的資訊包括臨床試驗或是實驗數據等,與比對性醫材的安全及有效性性質並無歧異。以下為FDA在進行510(k)審查過程中,主要的評估內容: 1.說明欲申請上市新醫材在技術上的特點。 2.比較新醫材及比對性醫材在器材技術上特點的異同。欲申請510(k)的製造商需比較新醫材及已上市的醫材在功能上的異同。 3.決定技術特點的差異是否會影響新醫材的安全及有效性。

TOP