Google為了提供客製化的廣告服務,利用搜尋引擎、Youtube、Gmail及其他服務,在事前未告知並取得使用者同意的情況下,蒐集人們的資料(包括搜尋紀錄、電子郵件、第三方網站軌跡資料、位置資訊及影片觀看紀錄等)。歐洲各國隱私監管機構對此表示憂心,認為Google恐將以前所未有的規模,掌握使用者的一舉一動,紛紛投入調查工作,並相繼認為Google確實已經違反其內國法。
荷蘭資料保護局(Data Protection Authority, DPA)主席Jacob Kohnstamm於2014年12月15日表示,使用者有權知悉他們在某一平台輸入的資料,其他平台也可以利用它們,並要求Google在合併不同服務所取得的個人資料前,應以跳出不同視窗等方式供使用者點選,俾以取得其明示同意(unambiguous consent),僅只透過一般隱私條款,並不足以提供當事人清楚且一致的資訊(clear and consistent imformation)。
DPA希望Google不要再考驗他們的耐心,並揚言對Google處以1500萬歐元罰鍰,除非它在2015年2月底前完成改善。但面對DPA的最後通牒,Google僅回應,他們已經大幅修正了隱私權政策,很遺憾DPA仍作出這樣的決定,但他們將儘快與歐洲各國隱私監管機構就後續修訂方案進行討論。
英國政府由數位文化媒體與體育大臣(Secretary of State for Digital, Culture, Media and Sport)與商業能源與工業策略大臣(Secretary of State for Business, Energy and Industrial Strategy)代表,於2022年7月18日提交予國會一份「人工智慧監管規範政策報告」(AI Regulation Policy Paper)。內容除定義「人工智慧」(Artificial Intelligence)外,並說明未來政府建立監管框架的方針與內涵。 在定義方面,英國政府認為人工智慧依據具體領域、部門之技術跟案例有不同特徵。但在監管層面上,人工智慧產物則主要包含以下兩大「關鍵特徵」,造成現有法規可能不完全適用情形: (1)具有「適應性」,擅於以人類難以辨識的意圖或邏輯學習並歸納反饋,因此應對其學習方式與內容進行剖析,避免安全與隱私問題。 (2)具有「自主性」,擅於自動化複雜的認知任務,在動態的狀況下持續判斷並決策,因此應對其決策的原理原則進行剖析,避免風險控制與責任分配問題。 在新監管框架的方針方面,英國政府期望所提出的監管框架依循下列方針: (1)針對技術應用的具體情況設計,允許監管機構根據其特定領域或部門制定和發展更詳細的人工智慧定義,藉以在維持監管目標確定與規範連貫性的同時,仍然能實現靈活性。 (2)主要針對具有真實、可識別與不可接受的風險水準的人工智慧應用進行規範,以避免範圍過大扼殺創新。 (3)制定具有連貫性的跨領域、跨部門原則,確保人工智慧生態系統簡單、清晰、可預測且穩定。 (4)要求監管機構考量更寬鬆的選擇,以指導和產業自願性措施為主。 在跨領域、跨部門原則方面,英國政府則建議所有針對人工智慧的監管遵循六個總體性原則,以保障規範連貫性與精簡程度。這六個原則是基於經濟合作暨發展組織(OECD)的相關原則,並證明了英國對此些原則的承諾: 1.確保人工智慧技術是以安全的方式使用 2.確保人工智慧是技術上安全的並按設計運行 3.確保人工智慧具有適當的透明性與可解釋性 4.闡述何謂公平及其實施內涵並將對公平的考量寫入人工智慧系統 5.規範人工智慧治理中法律主體的責任 6.釋明救濟途徑 除了「人工智慧監管政策說明」外,英國政府也發布了「人工智慧行動計畫」(AI Action Plan)文件,彙整了為推動英國「國家人工智慧策略」(National AI Strategy)而施行的相關行動。前述計畫中亦指出,今年底英國政府將發布人工智慧治理白皮書並辦理相關公聽會。
美國國會議員提出「網路盾」草案美國民主黨議員Ed Markey於2019年10月22日提出2019年「網路盾」草案(Cyber Shield Act of 2019),將設立委員會以建立美國物聯網網路安全標準。 雖由參議員MarkWarner所提出之2019年物聯網網路安全促進法(Internet of Things Cybersecurity Improvement Act of 2019)已通過並施行,惟該法僅適用於聯邦政府機構之設備採購。而「網路盾」草案之目的則係設立委員會並建立美國物聯網設備認證標章。依據該草案第3條,於該法通過並經總統簽署後90天內,美國國務卿必須建立網路盾諮詢委員會,該委員會之任務為擬定並建立美國網路盾標章。 另依據該草案第4條,物聯網產品之自願性認證程序與認證標章,內容必須符合特定產業之網路安全與資料保護標準。該標章應為數位標章,並標示於產品之上,且可劃分數個等級,以表彰其符合產業所需求之網路安全與資料安全等級。而針對標章之內容,該法要求美國國務卿於法律通過90天內應建立諮詢相關利益團體之程序,以確保其充分符合產業需求與利益。美國國務卿與各聯邦主管機關亦須合作以持續維護網路安全與資料安全標章之運作,且確保獲得該標章之產品,其資安與資料保護品質均優於未受認證之產品。
奈及利亞申請加入CBPR(跨境隱私規則體系),加強跨境傳輸及資料保護實力2025年4月30日,奈及利亞個資保護委員會(NDPC, Nigeria Data Protection Commission)的國家委員兼首席執行官Vincent Olatunji博士,在非洲資料保護機構網路(The Network of African Data Protection Authorities, NADPA)年會前的媒體發布會上宣布,奈及利亞已申請成為全球跨境隱私保護規則(Global CBPR, Global Cross-Border Privacy Rules)論壇的準會員(associate member),若申請通過,奈及利亞將成為非洲第二個加入全球CBPR論壇( Global CBPR Forum )的國家。 Olatunji博士提及:奈及利亞資料保護法已在奈及利亞的資料保護及隱私領域開闢了10億美元的商機,顯著提高該國的國內生產總值(Gross Domestic Product, GDP)因此,申請加入CBPR論壇將會成為達成Tinubu總統欲將奈國發展為3兆美元的數位經濟體的願景的重要一步。 Olatunji博士進一步指出:成為CBPR論壇會員將會促進跨境的資料流動,並且可以同時保障公民隱私權及國家的資料主權,而奈及利亞資料保護法為此類國際合作提供了堅實的法源基礎。加入CBPR論壇為奈國國內的組織在跨境資料傳輸方面提供更多的選擇,同時也確保奈及利亞資料保護法規範底下,可以更完善地落實個人資料的保護措施。 美國駐奈及利亞大使館代理副大使Christine Harbaugh稱讚奈及利亞申請成為CBPR準會員是重要里程碑,展現了該國在全球數位經濟的領導地位,並且高度肯定奈及利亞在數位成長及轉型方面的進步。 申請加入CBPR論壇,展現奈及利亞對於資料保護政策與國際接軌的決心,有望提高未來奈國在非洲資料保護及隱私領域的話語權。
美國科羅拉多州通過《人工智慧消費者保護法》2024年5月17日,科羅拉多州州長簽署了《人工智慧消費者保護法》(Consumer Protections for Artificial Intelligence Act,Colorado AI Act,下簡稱本法),其內容將增訂於《科羅拉多州修訂法規》(Colorado Revised Statutes,簡稱CRS)第6篇第17部分,是美國第一部廣泛對AI規範的法律,將於2026年2月1日生效。 本法旨在解決「高風險人工智慧系統」的演算法歧視(Algorithmic Discrimination)的問題 ,避免消費者權益因為演算法之偏見而受到歧視。是以,本法將高風險AI系統(High-risk Artificial Intelligence System)定義為「部署後作出關鍵決策(Consequential Decision)或在關鍵決策中起到重要作用的任何AI系統」。 而後,本法藉由要求AI系統開發者(Developers)與部署者(Deployers)遵守「透明度原則」與「禁止歧視原則」,來保護消費者免受演算法歧視。規定如下: (一)系統透明度: 1.開發者應向部署者或其他開發者提供該系統訓練所使用的資料、系統限制、預期用途、測試演算法歧視之文件以及其他風險評估文件。 2.部署者應向消費者揭露高風險人工智慧系統的預期用途,也應在高風險人工智慧系統做出決策之前向消費者提供聲明,聲明內容應該包含部署者之聯絡方式、該系統的基本介紹、部署者如何管理該系統可預見之風險等資訊。 (二)禁止歧視: 1.開發者應實施降低演算法歧視之措施,並應協助部署者理解高風險人工智慧系統。此外,開發者也應該持續測試與分析高風險人工智慧系統可能產生之演算法歧視風險。若開發者有意修改該系統,應將更新後的系統資訊更新於開發者網站,並須同步提供給部署者。 2.部署者應該實施風險管理計畫,該風險管理計畫應包含部署者用於識別、紀錄降低演算法歧視風險之措施與負責人員,且風險管理計畫應定期更新。在制定風險管理計畫時,必須參考美國商務部國家標準暨技術研究院(National Institute of Standards and Technology, NIST)的《人工智慧風險管理框架》(AI Risk Management Framework, AI RMF 2.0)與ISO/IEC 42001等風險管理文件。 美國普遍認為科羅拉多州的《人工智慧消費者保護法》為目前針對人工智慧系統最全面之監管法規,可作為其他州有關人工智慧法規的立法參考,美國各州立法情況與作法值得持續關注。