2024年5月17日,科羅拉多州州長簽署了《人工智慧消費者保護法》(Consumer Protections for Artificial Intelligence Act,Colorado AI Act,下簡稱本法),其內容將增訂於《科羅拉多州修訂法規》(Colorado Revised Statutes,簡稱CRS)第6篇第17部分,是美國第一部廣泛對AI規範的法律,將於2026年2月1日生效。
本法旨在解決「高風險人工智慧系統」的演算法歧視(Algorithmic Discrimination)的問題 ,避免消費者權益因為演算法之偏見而受到歧視。是以,本法將高風險AI系統(High-risk Artificial Intelligence System)定義為「部署後作出關鍵決策(Consequential Decision)或在關鍵決策中起到重要作用的任何AI系統」。
而後,本法藉由要求AI系統開發者(Developers)與部署者(Deployers)遵守「透明度原則」與「禁止歧視原則」,來保護消費者免受演算法歧視。規定如下:
(一)系統透明度:
1.開發者應向部署者或其他開發者提供該系統訓練所使用的資料、系統限制、預期用途、測試演算法歧視之文件以及其他風險評估文件。
2.部署者應向消費者揭露高風險人工智慧系統的預期用途,也應在高風險人工智慧系統做出決策之前向消費者提供聲明,聲明內容應該包含部署者之聯絡方式、該系統的基本介紹、部署者如何管理該系統可預見之風險等資訊。
(二)禁止歧視:
1.開發者應實施降低演算法歧視之措施,並應協助部署者理解高風險人工智慧系統。此外,開發者也應該持續測試與分析高風險人工智慧系統可能產生之演算法歧視風險。若開發者有意修改該系統,應將更新後的系統資訊更新於開發者網站,並須同步提供給部署者。
2.部署者應該實施風險管理計畫,該風險管理計畫應包含部署者用於識別、紀錄降低演算法歧視風險之措施與負責人員,且風險管理計畫應定期更新。在制定風險管理計畫時,必須參考美國商務部國家標準暨技術研究院(National Institute of Standards and Technology, NIST)的《人工智慧風險管理框架》(AI Risk Management Framework, AI RMF 2.0)與ISO/IEC 42001等風險管理文件。
美國普遍認為科羅拉多州的《人工智慧消費者保護法》為目前針對人工智慧系統最全面之監管法規,可作為其他州有關人工智慧法規的立法參考,美國各州立法情況與作法值得持續關注。
.Pindent{text-indent: 2em;} .Noindent{margin-left: 2em;} .NoPindent{text-indent: 2em; margin-left: 2em;} .No2indent{margin-left: 3em;} .No2Pindent{text-indent: 2em; margin-left: 3em} .No3indent{margin-left: 4em;} .No3Pindent{text-indent: 2em; margin-left: 4em} 歐盟人工智慧辦公室(European AI Office)於2024 年 11 月 14 日發布「通用人工智慧實踐守則」(General-Purpose AI Code of Practice)草案,針對《人工智慧法》(Artificial Intelligence Act, AIA)當中有關通用人工智慧(General Purpose Artificial Intelligence, GPAI)之部分,更進一步闡釋相關規範。 本實踐守則草案主要分為4大部分,分別簡介如下: (1)緒論:描述本守則之4個基本目標,包含協助GPAI模型提供者履行義務、促進理解人工智慧價值鏈(value chain)、妥適保障智慧財產權、有效評估且緩解系統性風險(systemic risks)。 (2)GPAI模型提供者:有鑒於GPAI模型對於下游系統而言相當重要,此部分針對模型提供者訂定具體責任。不僅要求其提供訓練資料、模型架構、測試程序等說明文件,亦要求制定政策以規範模型用途防止濫用。另於智慧財產權方面,則要求GPAI模型提供者遵守「歐盟數位單一市場著作權指令」(Directive 2019/790/EC)之規定。 (3)系統性風險分類法(taxonomy):此部分定義GPAI模型之多種風險類別,諸如可能造成攻擊之資訊安全風險、影響民主之虛假資訊、特定族群之歧視、超出預期應用範圍之失控情形。 (4)高風險GPAI模型提供者:為防範系統性風險之危害,針對高風險GPAI模型提供者,本守則對其設立更高標準之義務。例如要求其於GPAI模型完整生命週期內持續評估風險並設計緩解措施。 本守則發布之次週,近千名利害關係人、歐盟成員國代表、國際觀察員即展開討論,透過參考此等回饋意見,預計將於2025年5月確定最終版本。
國內藥廠發起外銷策略聯盟經濟部工業局將協助國內製藥業成立「藥廠外銷策略聯盟」,集合藥界力量共同打開外銷市場,希望至少推動十幾個學名藥外銷,而明年外銷產值可達 20 億元,每年成長 20 %,五年後外銷產值可到 100 億元;主要鎖定美、日、歐為主的 PIC/S (國際藥品稽查協合會)市場,由熟悉市場的專家來協助製藥界一起拓展海外市場,目前已有近十家業者有意加入此聯盟。 由於過去國內藥廠都主攻健保市場,不過未來成長有限,國內藥廠必須積極拓展海外市場,才可以保持競爭力。今年 4 月,日本實施新藥事法後,採取產銷分離,國內製藥業者有機會爭取到代工的機會,工業局將協助國內業者爭取日本代工注射劑、口服液等機會,以及在台採購原料藥和其他藥劑。以歐盟為主的 PIC/S 市場,近年會員增多,美國 FDA 也有意加入,國內藥廠如能爭取成為會員,可以降低藥廠重複檢驗的成本,有利拓銷海外市場。 國內藥廠拓銷海外市場已漸有成績,如優良藥廠和永光化學合作避孕藥 GyMiso ,與歐洲 HRA 藥廠合作進軍歐盟市場,並順利通過 PIC/S 查核,取得產品製造許可。生達製藥和永信製藥都在美國設廠,努力耕耘美國市場十年後,已開始賺錢,不過仍希望和國內業者合作。南光則已有和日本代工非 PVC 材質注射劑的經驗。
資訊社會法制架構初探-以2003年聯合國資訊社會高峰會之決議為借鏡 歐盟執委會啟動《關於標示與標籤AI生成內容之行為準則》之相關工作,以協助生成式AI之提供者與部署者履行其透明度義務2025年11月5日,歐盟執委會啟動《標示與標籤人工智慧生成內容之行為準則》(a code of practice on marking and labelling AI-generated content,下稱行為準則)之相關工作,預計將於2026年5月至6月間發布行為準則。此行為準則與《歐盟人工智慧法案》(EU AI Act)之透明度義務規定相關。這些規定旨於透過促進對資訊生態系的信任,降低虛假訊息、詐欺等風險。 《歐盟人工智慧法案》第50條第2項及第4項之透明度義務,分別規定 1. 「『提供』生成音檔、圖像、影片或文本內容的AI系統(包括通用AI系統)」的提供者(Providers),應確保其輸出係以機器可讀的形式標示(marked),且可被識別屬於AI所生成或竄改(manipulated)的內容。 2. 「『使用』AI系統生成或竄改以構成深度偽造之影像、音訊或影片內容」的部署者(Deployers),應揭露該內容係AI所生成或竄改。 前述透明度義務預計於2026年8月生效。 後續由歐盟AI辦公室之獨立專家透過公眾資訊與徵選利害關係人意見等方式,推動起草行為準則。此行為準則不具強制性,旨於協助AI系統提供者更有效地履行其透明度義務,且可協助使用深偽技術或AI生成內容的使用者清楚地揭露其內容涉及AI參與,尤其是當向公眾通報公共利益相關事項時。 AI應用蓬勃發展,同時AI也可能生成錯誤、虛構的內容,實務上難以憑藉個人的學識經驗區分AI幻覺。前文提及透過標示AI生成的內容,以避免假訊息孳生。倘企業在資料源頭以標示等手段控管其所使用之AI的訓練資料,確保資料來源真實可信,將有助於AI句句有理、正向影響企業決策。企業可以參考資策會科法所創意智財中心發布之《重要數位資料治理暨管理制度規範(EDGS)》,從資料源頭強化數位資料生命週期之管理。 本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。 本文同步刊登於TIPS網站(https://www.tips.org.tw)