英國發布《AI保證介紹》指引,藉由落實AI保證以降低AI系統使用風險

英國發布《AI保證介紹》指引,藉由落實AI保證以降低AI系統使用風險

資訊工業策進會科技法律研究所
2024年03月11日

人工智慧(AI)被稱作是第四次工業革命的核心,對於人們的生活形式和產業發展影響甚鉅。各國近年將AI列為重點發展的項目,陸續推動相關發展政策與規範,如歐盟《人工智慧法》(Artificial Intelligence Act, AI Act)、美國拜登總統簽署的第14110號行政命令「安全可靠且值得信賴的人工智慧開發暨使用」(Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence)、英國「支持創新的人工智慧監管政策白皮書」(A Pro-innovation Approach to AI Regulation)(下稱AI政策白皮書)等,各國期望發展新興技術的同時,亦能確保AI使用的安全性與公平性。

壹、事件摘要

英國科學、創新與技術部(Department for Science, Innovation and Technology,DSIT)於2024年2月12日發布《AI保證介紹》(Introduction to AI assurance)指引(下稱AI保證指引),AI保證係用於評測AI系統風險與可信度的措施,於該指引說明實施AI保證之範圍、原則與步驟,目的係為讓主管機關藉由落實AI保證,以降低AI系統使用之風險,並期望提高公眾對AI的信任。

AI保證指引係基於英國政府2023年3月發布之AI政策白皮書提出的五項跨部會AI原則所制定,五項原則分別為:安全、資安與穩健性(Safety, Security and Robustness)、適當的透明性與可解釋性(Appropriate Transparency and Explainability)、公平性(Fairness)、問責與治理(Accountability and Governance)以及可挑戰性 與補救措施(Contestability and Redress)。

貳、重點說明

AI保證指引內容包含:AI保證之適用範圍、AI保證的三大原則、執行AI保證的六項措施、評測標準以及建構AI保證的五個步驟,以下將重點介紹上開所列之規範內容:

一、AI保證之適用範圍

(一)、訓練資料(Training data):係指研發階段用於訓練AI的資料。

(二)、AI模型(AI models):係指模型會透過輸入的資料來學習某些指令與功能,以幫助建構模模型分析、解釋、預測或制定決策的能力,例如GPT-4。,如GPT-4。

(三)、AI系統(AI systems):係利用AI模型幫助、解決問題的產品、工具、應用程式或設備的系統,可包含單一模型或多個模型於一個系統中。例如ChatGPT為一個AI系統,其使用的AI模型為GPT-4。

(四)、廣泛的AI使用(Broader operational context):係指AI系統於更為廣泛的領域或主管機關中部署、使用的情形。

二、AI保證的三大原則:鑒於AI系統的複雜性,須建立AI保證措施的原則與方法,以使其有效執行。

(一)、衡量(Measure):收集AI系統運行的相關統計資料,包含AI系統於不同環境中的性能、功能及潛在風險影響的資訊;以及存取與AI系統設計、管理的相關文件,以確保AI保證的有效執行。

(二)、評測(Evaluate):根據監管指引或國際標準,評測AI系統的風險與影響,找出AI系統的問題與漏洞。

(三)、溝通(Communicate):建立溝通機制,以確保主管機關間之交流,包含調查報告、AI系統的相關資料,以及與公眾的意見徵集,並將上開資訊作為主管機關監理決策之參考依據。

三、AI保證的六項措施:主管機關可依循以下措施評測、衡量AI系統的性能與安全性,以及其是否符合法律規範。

(一)、風險評估(Risk assessment):評測AI系統於研發與部署時的風險,包含偏見、資料保護和隱私風險、使用AI技術的風險,以及是否影響主管機關聲譽等問題。

(二)、演算法-影響評估(Algorithmic-impact assessment):用於預測AI系統、產品對於環境、人權、資料保護或其他結果更廣泛的影響。

(三)、偏差審計(Bias audit):用於評估演算法系統的輸入和輸出,以評估輸入的資料、決策系統、指令或產出結果是否具有不公平偏差。

(四)、合規性審計(Compliance audit):用於審查政策、法律及相關規定之遵循情形。

(五)、合規性評估(Conformity assessment):用於評估AI系統或產品上市前的性能、安全性與風險。

(六)、型式驗證(Formal verification):係指使用數學方法驗證AI系統是否滿足技術標準。

四、評測標準:以國際標準為基礎,建立、制定AI保證的共識與評測標準,評測標準應包含以下事項:

(一)、基本原則與術語(Foundational and terminological):提供共享的詞彙、術語、描述與定義,以建立各界對AI之共識。

(二)、介面與架構(Interface and architecture):定義系統之通用協調標準、格式,如互通性、基礎架構、資料管理之標準等。

(三)、衡量與測試方式(Measurement and test methods):提供評測AI系統的方法與標準,如資安標準、安全性。

(四)、流程、管理與治理(Process, management, and governance):制定明確之流程、規章與管理辦法等。

(五)、產品及性能要求(Product and performance requirements):設定具體的技術標準,確保AI產品與服務係符合規範,並透過設立安全與性能標準,以達到保護消費者與使用者之目標。

五、建構AI保證的步驟(Steps to build AI assurance)

(一)、考量現有的法律規範(Consider existing regulations):英國目前雖尚未針對AI制定的法律,但於AI研發、部署時仍會涉及相關法律,如英國《2018年資料保護法》(Data Protection Act 2018)等,故執行AI保證時應遵循、考量現有之法律規範。

(二)、提升主管機關的知識技能(Upskill within your organisation):主管機關應積極了解AI系統的相關知識,並預測該機關未來業務的需求。

(三)、檢視內部風險管理問題(Review internal governance and risk management):須適時的檢視主管機關內部的管理制度,機關於執行AI保證應以內部管理制度為基礎。

(四)、尋求新的監管指引(Look out for new regulatory guidance):未來主管機關將制定具體的行業指引,並規範各領域實踐AI的原則與監管措施。

(五)、考量並參與AI標準化(Consider involvement in AI standardisation):私人企業或主管機關應一同參與AI標準化的制定與協議,尤其中小企業,可與國際標準機構合作,並參訪AI標準中心(AI Standards Hubs),以取得、實施AI標準化的相關資訊與支援。

參、事件評析

AI保證指引係基於英國於2023年發布AI政策白皮書的五項跨部會原則所制定,冀望於主管機關落實AI保證,以降低AI系統使用之風險。AI保證係透過蒐集AI系統運行的相關資料,並根據國際標準與監管指引所制定之標準,以評測AI系統的安全性與其使用之相關影響風險。

隨著AI的快速進步及應用範疇持續擴大,於各領域皆日益重要,未來各國的不同領域之主管機關亦會持續制定、推出負責領域之AI相關政策框架與指引,引導各領域AI的開發、使用與佈署者能安全的使用AI。此外,應持續關注國際間推出的政策、指引或指引等,研析國際組織與各國的標準規範,借鏡國際間之推動作法,逐步建立我國的AI相關制度與規範,帶動我國智慧科技產業的穩定發展外,同時孕育AI新興產應用的發展並打造可信賴、安全的AI使用環境。

本文為「經濟部產業技術司科技專案成果」

※ 英國發布《AI保證介紹》指引,藉由落實AI保證以降低AI系統使用風險, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=9187&no=66&tp=1 (最後瀏覽日:2026/03/10)
引註此篇文章
你可能還會想看
美國零售商Kroger聲稱零售商Lidl註冊之新商標有混淆Kroger的知名商標之虞

  Kroger成立於1883年,在美國擁有近3000家分店,為美國最大食品雜貨零售店,其註冊商標“Private Selection”相當知名,被廣泛使用在超市、便利商店及其他各種零售商店約20多年。然而在全球擁有超過10000家分店的歐洲零售店巨頭Lidl,亦於2016年9月19日於美國註冊與“Private Selection”近似的商標“Preferred Selection”。   對此,Kroger於Lidl在美國開立新門市不久之後,即於今(2017)年6月30日對Lidl起訴,主張Lidl的“Preferred Selection”與Kroger的“Private Selection”品牌商標太相似,Lidl於德國是以低價折扣作定位之連鎖超市,且產品曾被認定為劣質。Lidl的行為意圖混淆“Preferred Selection”與“Private Selection”,將稀釋Kroger的品牌知名度,不僅侵害商標亦將損及商譽,甚至從中牟取不當利益,導致不公平競爭。故Kroger據以向美國維吉尼亞州地方法院請求禁止Lidl販售使用“Preferred Selection”商標的產品。   Lidl反駁認為其商標註冊已有一段時間,Kroger卻故意選其展店亮相後才大肆攻擊Lidl的新品牌,嚴重干擾Lidl的宣傳效益,更何況兩者商標名稱不同,標誌圖形的設計也不同。今年7月25日,美國維吉尼亞州地方法院法官表示,儘管品牌標誌看起來相似,但兩者並無相同或相似的含意,拒絕授予Kroger聲請之禁令。惟兩造於今年9月達成協議,請求法院駁回訴訟,而Lidl最終於今年9月12日放棄“Preferred Selection”商標權。

紐西蘭個人資料隱私主管機關提供事業選擇雲端運算廠商之檢視工具

  雲端運算具有降低資訊營運成本、資料集中化管理等正面效益,因此,許多事業紛紛選擇將資料轉而儲存至雲端運算設備。   事業會評估多項因素做為選擇雲端運算廠商之依據,這些因素包含資料隱私防護程度、權限控管功能等。為提供事業更有效率及精準地選擇雲端運算廠商,紐西蘭個人資料隱私主管機關(Privacy Commissioner)特別諮詢及訪談了當地使用雲端運算的企業及政府單位,彙整其所提供之經驗與意見後,撰寫檢視雲端運算廠商之指導原則。該原則不僅著重於協助中小企業如何有效管理上傳及儲存於雲端運算或其他委外設備儀器資料之隱私及安全性,另還發展出10項檢視要點,提供企業做為選擇評估之自我檢視工具。   10項檢視要點分別為:(1)評估事業所能承受之風險等級與擁有之資源,選擇相對應的雲端運算供應商與類型;(2)確認所上傳至雲端運算之資料對於當事人隱私之重要程度;(3)確認事業所需承擔之所有責任;(4)資料傳輸過程與儲存位址之安全維護措施;(5)確認雲端運算供應商條件是否符合資格;(6)確認與雲端運算供應商所簽合約之涵蓋範圍及條件保障;(7)對資料提供者踐行告知義務並建立完善之回應機制;(8)了解資料儲存城市或地點,並確認該地區所提供之隱私保護制度與侵害申訴管道;(9)資料使用及接觸之人員權限管理;(10)雲端運算供應商服務契約終止後資料之處理及提供方式。   紐西蘭個人資料隱私主管機關相信,事業必須確保傳輸至雲端運算資料之隱私及安全能受到一定程度之保護,才能避免其商譽及信譽受到損害。

OECD 發布2015年科學、科技與產業計分板,建議各國政府應增加對於創新研發之投資

  於2015年10月19日,經濟合作與發展組織(OECD)發布最新2015年OECD科學、科技與產業計分板(OECD Science, Technology and Industry Scoreboard 2015),此份報告指出,各國政府應增加對於創新研發的投資,以發展工業、醫療、資通訊產業的新領域科技,也將為氣候變化等全球性挑戰提供急需的解決措施。該報告數據顯示,美國、日本和韓國在新一代突破性科技方面具領先地位,即智慧製造材料、健康、資通訊技術這些有潛力改變現有進程的領域,尤其是韓國,最近在這些領域獲得了重大進展。自2000年以來,韓國的公共研發支出增加二倍之多,2014年GDP佔比達1.2%。反觀,許多發達經濟體的公共研發支出卻停滯不前,2014年OECD經濟體公共研發GDP佔比平均水平低於0.7%。   於2010-12年間,在智慧製造材料、健康和新一代資通訊技術領域,在歐洲和美國申請專利家族(patent families)中,美國、日本和韓國共佔到65%以上,接著是德國、法國與中國。2005-07年,韓國在這三個領域的專利家族申請數表現出最為強勁。在資通訊技術領域,韓國正致力於推動智慧聯網技術,歐盟是量子計算,中國則是巨量資料。於2013年OECD國家總研發支出實際增長了2.7%,達1.1萬億美元,但其GDP佔比與2012年相同,為2.4%。這一增長主要來自企業研發投入,而政府研發投入受到了預算合併等措施的影響。創新不止依靠研發上的投入,也依靠互補性資產,如軟體、設計和人力資本,即知識資本(knowledge-based capital, KBC)。知識資本投入已證實可抵抗經濟危機的衝擊,且2013年的數據表明各個經濟行業都增加了對知識資本的投入。但自2010年以來,許多發達國家政府資助或實施的研發減少或停滯不前。OECD警示,研發支出的減少對許多發達經濟體科技研發系統的穩定產生了威脅。鑑於OECD國家70%的研發來自企業部門,也傾向於關注特定應用程序的開發,從而改進先前的OECD計分版本,此份報告強調政府有必要保持對更具開放性的“基礎研究”的投入,始能激發與一些潛在用戶相關的新發現與新發明。

伊利諾伊州通過人權法修正案,致力解決人工智慧可能造成之就業歧視風險

.Pindent{text-indent: 2em;} .Noindent{margin-left: 22px;} .NoPindent{text-indent: 2em; margin-left: 38px;} .No2indent{margin-left: 54px;} .No2Pindent{text-indent: 2em; margin-left: 54px} .No3indent{margin-left: 4em;} .No3Pindent{text-indent: 2em; margin-left: 4em} 伊利諾伊州通過人權法修正案,致力解決人工智慧可能造成之就業歧視風險 資訊工業策進會科技法律研究所 2024年12月09日 伊利諾伊州人權法修正案(Amendment to the Illinois Human Rights Act)於2024年8月由伊利諾伊州州長簽署並通過,成為繼科羅拉多州人工智慧消費者保護法(Consumer Protections for Artificial Intelligence Act)之後美國第二部監管私部門使用人工智慧的法律。 本法規範重點在於解決人工智慧導入就業市場而衍生之就業歧視議題,伊利諾伊州透過修訂伊利諾伊州人權法,增加人工智慧(Artificial Intelligence)與生成式人工智慧(Generative Artificial Intelligence)之法律定義[1],以及增加伊利諾伊州的雇主使用人工智慧的相關義務,使員工在就業法律方面獲得更完善之保障。 壹、事件摘要 近年來人工智慧大量被使用在就業市場,例如:雇主使用人工智慧自動篩選履歷、績效管理等等。[2]人工智慧所伴隨的就業歧視議題,遂成為美國聯邦政府與各州政府近年來之人工智慧法制重點。 2023年2月,伊利諾伊州眾議員Jaime M. Andrade, Jr.將伊利諾伊州人權法修正案提交給議會書記官(Clerk)[3],伊利諾伊州人權法修正案在一系列的審議之後,終於在2024年5月通過參眾議院同意,並於2024年8月9日由伊利諾伊州州長簽署,使伊利諾伊州人權法案成為美國第二部監管私部門使用人工智慧的法律[4],修正部分將於2026年1月1日生效。[5] 貳、重點說明 伊利諾伊州人權法(Illinois Human Rights Act,775 ILCS 5)由伊利諾伊州人權部(The Illinois Department of Human Rights,IDHR)負責執行。其宗旨為確保伊利諾伊州內之所有人免受歧視,並就主要領域訂定規範,包含「公平住宅」、「金融」、「公共場所」、「教育領域之性騷擾」以及「就業」[6],其中有關就業歧視之議題為第5節所規範。 伊利諾伊州人權法修正案之目的為解決雇主使用人工智慧工具導致的就業歧視問題,因此主要修訂伊利諾伊州人權法案第5節有關「就業」之規定[7]。而有關本修正法案之執行細節,如通知方式、期限,由伊利諾伊州人權法授權伊利諾伊州人權部訂定並執行。[8] 一、法案修正內容 (一)增訂人工智慧與生成式人工智慧之定義 伊利諾伊州人權法修正案所修訂之範圍涵蓋人工智慧與生成式人工智慧之定義與使用,將新增於伊利諾伊州人權法第5節第2-101小節M款與N款: 1. 人工智慧(Artificial Intelligence)定義 伊利諾伊州人權法修正案將人工智慧定義為一種機器系統,該系統根據其接收之輸入資訊,為目標(不論明確或模糊)推論輸出結果,例如預測、內容、推薦或決策,這些輸出結果能夠影響真實與虛擬環境。[9]須注意此處所指人工智慧包含生成式人工智慧。[10] 2. 生成式人工智慧(Generative Artificial Intelligence)定義 新增之第5節第2-101小節N款將生成式人工智慧定義為一種自動化計算系統,當接受人類的提示、描述或問題,能生成模擬人類所創作之內容加以輸出,其生成內容包含且不限於文字、圖像、多媒體等。[11] (二)雇主不得因使用人工智慧導致員工權利受侵害 所謂「雇主」(Employer),根據伊利諾伊州人權法第5節第2-101小節B項之規定,係指在伊利諾伊州內雇用員工(Employee)者,其員工數目只要達一名即符合雇主之定義。[12]而依據伊利諾伊州人權法修正案之修訂內容,雇主所使用之人工智慧不得導致員工在招聘、僱用、晉升、續聘、培訓、解僱、紀律處分、任期或雇用條件等方面受到歧視。[13] 例如根據1964年《民權法》(Civil Rights Act of 1964)第七章,雇主在僱用、解雇、晉升等方面,不得因種族、膚色、國籍、性別或宗教信仰表現出就業歧視行為。[14]而民權法第七章所認定之歧視範圍包含了歧視性編碼(discriminatory coding),例如郵遞區號(Zip Codes),因為有許多少數族群會居住在特定區域。[15] 有鑑於此,伊利諾伊州人權法修正案也規範雇主於使用人工智慧時,不得使用郵遞區號作為本條款的替代指標[16],避免因郵遞區號造成就業歧視。 (三)雇主負有主動通知員工使用人工智慧工具情形之義務 伊利諾伊州人權法修正案新增雇主之通知義務,凡有使用人工智慧從事招聘、僱用、晉升、續聘、培訓、解僱、紀律處分、任期或雇用條件者,不得於未通知員工的情況下使用人工智慧為上述目的。[17]意即雇主應該主動應告知其員工有使用人工智慧進行前述行為之情事,至於通知的方式與時限則有待伊利諾伊州人權部訂定。 二、違法效力與救濟方式 (一)雇主可能需要負擔損害賠償費用與民事罰款 違反伊利諾伊州人權法修正案有關就業歧視禁止規範者,等同違反伊利諾伊州人權法。根據伊利諾伊州人權法第8-108條與第8-109條,違反者需要負擔相應的損害賠償,包含財產與非財產上的損害賠償費用[18],以及復職等補救措施。[19]除此之外,違反之雇主也可能面臨民事處罰。[20] (二)權利受侵害者得向伊利諾伊州人權部提起申訴或向法院提起訴訟 伊利諾伊州人權法案賦予民眾得以尋求救濟之權利,其方式大致有二,一為向伊利諾伊州人權部提出申訴,二則是直接向法院提起訴訟。 向伊利諾伊州人權部申訴者,將由人權部進行調查與調解[21]。調查後,伊利諾伊州人權部將提供申訴人調查報告[22],該調查報告將就申訴人遭受違法權利侵害之實質證據提出建議。[23]在伊利諾伊州人權部完成調查後,申訴人仍可至法院提起訴訟。[24] 參、事件評析 一、人工智慧就業歧視為美國當前優先處理之法制議題,雇主應加強法遵意識 演算法偏見所導致的歧視問題,正是美國各州政府所欲立法解決之議題。雖然尚未出現聯邦層級之法律,但各州卻於今年陸續通過相關法案。例如科羅拉多州州長於今年5月17日所簽署之《科羅拉多州人工智慧消費者保護法》(Consumer Protections for Artificial Intelligence Act,Colorado AI Act)[25]、猶他州以及本文介紹之伊利諾伊州人權法修正案,皆已針對人工智慧就業歧視訂定相應規範。 在人工智慧的監管趨勢中,雇主應善加注意人工智慧之應用是否符合當地法規範,以避免遭受處罰。 二、立法方式採修訂既有法律,執行細節另行訂定 伊利諾伊州人權法修正案將有關使用人工智慧之規定增訂於《伊利諾伊州人權法》,其執行細節則授權伊利諾伊州人權部訂定,尤其伊利諾伊州人權法修正案之部分條文僅說明雇主使用的人工智慧不得導致員工在招聘、聘用、晉升、解僱、紀律或僱用條款、特權或條件等方面受到基於受保護類別的歧視,並未詳細規定雇主應以何方式避免之,因此仍有持續關注之必要。 三、本法賦予當事人申訴管道,較完整保障就業權利 伊利諾伊州人權法可以作為民眾權利之請求基礎,向伊利諾伊州人權部提出申訴或至法院訴訟。因此當伊利諾伊州雇主違反伊利諾伊州人權法時,其員工得依法主張權利,可以請求復職或損害賠償,而非只是由主管機關對雇主裁罰。故對於當事人之就業權利,有相對完整之保障。 [1]Illinois Human Rights Act, 775 ILCS §5/2-101 (2024). [2]Illinois Enacts New Law Regulating Employer Use of Artificial Intelligence, Lexology, https://www.lexology.com/library/detail.aspx?g=dfebd021-1398-41eb-92ee-9631183fa8ce (last visited Sep. 9, 2024). [3]IL HB3773 | 2023-2024 | 103rd General Assembly, Legiscan, https://legiscan.com/IL/bill/HB3773/2023 (last visited Sep.9, 2024). [4]IL HB3773 | 2023-2024 | 103rd General Assembly, Legiscan, https://legiscan.com/IL/bill/HB3773/2023 (last visited Sep.9, 2024). [5]IL HB3773 | 2023-2024 | 103rd General Assembly, Legiscan, https://legiscan.com/IL/bill/HB3773/2023 (last visited Sep.9, 2024). [6]Illinois Human Rights Act, 775 ILCS §§1-5(2024). [7]Illinois Human Rights Act, 775 ILCS §5 (2024). [8]Illinois Human Rights Act, 775 ILCS §5/2-102 (2024). The Department shall adopt any rules necessary for the implementation and enforcement of this subdivision, including, but not limited to, rules on the circumstances and conditions that require notice, the time period for providing notice, and the means for providing notice. [9]Illinois Human Rights Act, 775 ILCS §5/2-101 (2024). "Artificial intelligence" means a machine-based system that, for explicit or implicit objectives, infers, from the input it receives, how to generate outputs such as predictions, content, recommendations, or decisions that can influence physical or virtual environments. [10]Illinois Human Rights Act, 775 ILCS §5/2-101 (2024). "Artificial intelligence" includes generative artificial intelligence. [11]Illinois Human Rights Act, 775 ILCS §5/2-101 (2024). "Generative artificial intelligence" means an automated computing system that, when prompted with human prompts, descriptions, or queries, can produce outputs that simulate human-produced content, including, but not limited to, the following: (1) textual outputs, such as short answers, essays, poetry , or longer compositions or answers; (2) image outputs, such as fine art, photographs, conceptual art, diagrams, and other images; (3) multimedia outputs, such as audio or video in the form of compositions, songs, or short-form or long-form audio or video; and (4) other content that would be otherwise produced by human means. [12]Illinois Human Rights Act, 775 ILCS §5/2-101 (2024). "Employer" includes: (a) any person employing one or more employees within Illinois during 20 or more calendar weeks within the calendar year of or preceding the alleged violation. [13]Illinois Human Rights Act, 775 ILCS §5/2-102 (2024). [14]Civil Rights Act of 1964, title VII, 29 CFR Part 1601. [15]Civil Rights Act of 1964, title VII, 29 CFR Part 1601. [16]Illinois Human Rights Act, 775 ILCS §5/2-102 (2024). [17]Illinois Human Rights Act, 775 ILCS §5/2-102 (2024). [18]Illinois Human Rights Act, 775 ILCS §5/8-108 (2024). [19]Illinois Human Rights Act, 775 ILCS §5/8-109 (2024). [20]Illinois Human Rights Act, 775 ILCS §5/8A-104 (2024). [21]Illinois Department of Human Right, Procedures for Non-Housing Charges, https://dhr.illinois.gov/filing-a-charge/path-of-a-charge/procedures-for-non-housing-charges.html (last visited Oct. 22, 2024). [22]Illinois Department of Human Right, Procedures for Non-Housing Charges, https://dhr.illinois.gov/filing-a-charge/path-of-a-charge/procedures-for-non-housing-charges.html (last visited Oct. 22, 2024). [23]Illinois Department of Human Right, Charge Process, https://dhr.illinois.gov/filing-a-charge/legal-review.html (last visited Oct. 22, 2024). [24]Illinois Department of Human Right, Procedures for Non-Housing Charges, https://dhr.illinois.gov/filing-a-charge/path-of-a-charge/procedures-for-non-housing-charges.html (last visited Oct. 22, 2024). [25]Consumer Protections for Artificial Intelligence, Colorado General Assembly, https://leg.colorado.gov/bills/sb24-205 (last visited Oct. 22, 2024).

TOP