英國內閣辦公室於2015年7月13日宣布開啟「2015年開放政府夥伴英國國家行動計畫」,認為身處於轉型於科學與技術、面臨了資訊革命的世界,資訊開放可以促使英國政府現代化作業,這也是讓英國邁向較佳未來的最好方式。現在英國社會已然是此一趨勢,而英國政府的任務就是讓其更佳發展,「開放政府夥伴國家行動計畫」(Open Government Partnership National Action Plan)就是英國政府規劃發展的藍圖,承諾將提供給民眾一更加開放及有責的政府。
而英國政府目前已就部分政策(資訊公開、反貪腐、財政透明以及公開政策形成過程)有相關發展,分述於下列七點摘要說明:
亞馬遜公司所開發的“Rekognition”軟體可以進行照片中的人臉辨識識別,單張圖片中可辨識高達一百人,同時可以圖片進行分析及比對資料庫中的人臉長相。目前亞馬遜公司積極向政府機關推銷這套軟體。可能造成的風險是,公權力機構可透過使用“Rekognition”軟體來辨識或追蹤任何個人,警察機關可以隨時監控人民的行為,各城市的政府機關也可能在無合理理由的狀況下隨時查看人口居住狀況,尤有甚者,美國移民及海關執法局(Immigration and Customs Enforcement, ICE)可以使用該軟體來監控移民的狀況,即使是無任何犯罪疑慮的狀況下亦可進行,將政府打造成巨大的監控系統,有造成隱私權嚴重侵害的疑慮。因此無論亞馬遜公司內外都有反對將“Rekognition”軟體推銷給政府機構的聲浪,尤其美國公民自由聯盟(American Civil Liberties Union, ACLU)更是發起多項連署抗議。 支持政府使用“Rekognition”軟體的意見則認為,使用“Rekognition”軟體將可以更有效率地辨識人臉,在尋找失蹤兒童或在公共中辨識出恐怖份子可以發揮更大的作用,不啻是保護公眾法益的進步。 佛羅里達的奧蘭多市警察機構曾經使用“Rekognition”軟體後因契約到期而一度停止使用,於7月9日與亞馬遜公司續約繼續測試使用該軟體,奧蘭多市警察機構宣稱以目前測試階段將不會使用一般民眾的照片進行測試,將不會造成人民的隱私權侵害。
德國放寬胚胎幹細胞之研究限制,允許進口2007年5月以前所製造的胚胎幹細胞進行研究在德國,由於納粹的醫學實驗歷史,人類胚胎研究一向是極為敏感的議題,並且為了研究用途摧毀胚胎也有極大的倫理爭議。德國下議院於2001年立法禁止從胚胎中粹取幹細胞後,在現行法規下幹細胞研究者只可以進口2002年1月1日以前製造的胚胎幹細胞供使用。不過在科學家一再表達只有極少量的細胞株可有效提供研究的關切下,德國下議院日前以346票對228票通過幹細胞法之修正,將截止日期(cut-off date)之規定由2002年1月1日,修正為2007年5月1日,藉此放寬對人類胚胎幹細胞研究的限制。 不過此次國會的修法仍引起支持與反對胚胎幹細胞研究人士的激烈爭論,支持一方表示現行截止日期的規定強烈影響德國幹細胞的研究,德國研究基金會(German Research Foundation)即強調目前全球有超過500個細胞株,但德國研究人員卻只被允許使用21個老舊且部分遭到污染的細胞株。另一方面,在德國主教的集會上,佛萊堡(Freiburg)大主教鄒立區(Robert Zollitsch)則對放寬現行限制提出警告,他表示「研究的自由不該與對生命的基本保障等量齊觀」。 修法後,德國研究人員將可透過國際合作進口使用2007年5月1日以前所製造的胚胎幹細胞。這是正反雙方妥協下的結果,但是德國對於限制胚胎幹細胞研究的基本立場是否會由此開始鬆動,則仍待後續觀察。
何謂「介入權」?美國拜杜法雖下放政府補助研發成果給予執行單位,但基於針對受補助者行使研發成果時若未能妥適授權運用,政府得行使「介入權」(march-in rights)。所謂的介入權,是指補助機關事後可以因為執行單位授權或運用不當,而選擇強制介入調整其授權內容。但補助機關採用介入權是有前提要件的,35 U.S.C. § 203規定:「受補助者在適當的合理期間內,未能採取有效的措施以達到該創新的實際應用或使用…」或者強制授權是「其他聯邦法律規定的保護公共健康、安全需要或公共使用」所必要者。相對我國則有經濟部於「經濟部科學技術研究發展成果歸屬及運用辦法」第21條規定政府介入權發動之要件,其與美國法制有異曲同工之妙。
美國科羅拉多州通過《人工智慧消費者保護法》2024年5月17日,科羅拉多州州長簽署了《人工智慧消費者保護法》(Consumer Protections for Artificial Intelligence Act,Colorado AI Act,下簡稱本法),其內容將增訂於《科羅拉多州修訂法規》(Colorado Revised Statutes,簡稱CRS)第6篇第17部分,是美國第一部廣泛對AI規範的法律,將於2026年2月1日生效。 本法旨在解決「高風險人工智慧系統」的演算法歧視(Algorithmic Discrimination)的問題 ,避免消費者權益因為演算法之偏見而受到歧視。是以,本法將高風險AI系統(High-risk Artificial Intelligence System)定義為「部署後作出關鍵決策(Consequential Decision)或在關鍵決策中起到重要作用的任何AI系統」。 而後,本法藉由要求AI系統開發者(Developers)與部署者(Deployers)遵守「透明度原則」與「禁止歧視原則」,來保護消費者免受演算法歧視。規定如下: (一)系統透明度: 1.開發者應向部署者或其他開發者提供該系統訓練所使用的資料、系統限制、預期用途、測試演算法歧視之文件以及其他風險評估文件。 2.部署者應向消費者揭露高風險人工智慧系統的預期用途,也應在高風險人工智慧系統做出決策之前向消費者提供聲明,聲明內容應該包含部署者之聯絡方式、該系統的基本介紹、部署者如何管理該系統可預見之風險等資訊。 (二)禁止歧視: 1.開發者應實施降低演算法歧視之措施,並應協助部署者理解高風險人工智慧系統。此外,開發者也應該持續測試與分析高風險人工智慧系統可能產生之演算法歧視風險。若開發者有意修改該系統,應將更新後的系統資訊更新於開發者網站,並須同步提供給部署者。 2.部署者應該實施風險管理計畫,該風險管理計畫應包含部署者用於識別、紀錄降低演算法歧視風險之措施與負責人員,且風險管理計畫應定期更新。在制定風險管理計畫時,必須參考美國商務部國家標準暨技術研究院(National Institute of Standards and Technology, NIST)的《人工智慧風險管理框架》(AI Risk Management Framework, AI RMF 2.0)與ISO/IEC 42001等風險管理文件。 美國普遍認為科羅拉多州的《人工智慧消費者保護法》為目前針對人工智慧系統最全面之監管法規,可作為其他州有關人工智慧法規的立法參考,美國各州立法情況與作法值得持續關注。