紐約州州長於2024年12月21日簽署《政府自動化決策監督法》(Legislative Oversight of Automated Decision-making in Government Act, LOADinG Act),用以規範紐約州政府使用人工智慧自動決策系統的方式以及相關義務,成為美國第一個通過這類法律的州。
該法所定義之「自動化決策系統」係指任何使用演算法、計算模型或人工智慧技術,或其組合的軟體,用於自動化、支援或取代人類決策;這類系統亦包括應用預定義規則或機器學習演算法進行資料分析,並在自動產生結論、建議、結果、假設、預測。
針對政府使用自動化決策系統之情形,《政府自動化決策監督法》有三大重點:人類監督、影響評估以及資訊揭露。
一、人類監督
州政府在提供社會福利資源或其他可能實質影響人民權益與法定權利的業務時,除非是在「有意義的人工審查」下進行操作,否則不得使用自動化決策系統。同時,此法也強調,州政府亦應確保其員工現有權利不會受到自動化決策系統的影響,例如不得因此受到解雇、調職或減薪等。
前述有意義的人工審查,係指對自動化決策流程進行審查、監督及控制的工作人員,必須是受過訓練、對該系統有一定之了解且擁有權力干預、變更系統最終決策的人。
二、影響評估
州政府如欲使用自動化決策系統,應進行影響評估且每兩年應至少重新評估一次;系統在進行重大更新前,也應重新進行影響評估。若評估發現系統產生歧視性或有偏見的結果,機關必須停止使用該系統及其生成的資訊。
影響評估的項目除了性能、演算法及訓練資料外,亦應進行準確性、公平性、偏差歧視、以及個人資料安全等相關測試。
三、資訊揭露
影響評估需在系統實施前至少30天提交給州長與州議會,並在相關機關的網站上公布;僅機關在特殊情況下(例如涉及公共安全考量),州政府可針對報告揭露之資訊進行必要的刪改,但必須說明做出此決定的原因。此外,州政府亦需於本法通過後向州議會提交報告,說明包括系統描述、供應商資訊、使用開始日期、用途、人類決策的支持或取代情況、已進行的影響評估摘要等。
本法強調對人工智慧技術的審慎應用,特別關注其對勞工權益的影響。該法明確規定,禁止在無人類監督的情況下,使用自動化系統進行失業救濟或育兒補助等福利的審核決策,並保障州政府員工不因人工智慧的實施而減少工作時間或職責。此類規定在現行立法中較為罕見,顯示出立法者對勞工權益的高度重視。該法的實施效果及影響,值得未來持續保持關注。
日本智慧財產戰略本部之「次世代智財系統檢討委員會」於2016年4月18日公布的報告書針對「AI創作物」有諸多討論,截取部份內容如述。 以現行著作權法來看,自然人創作產生的創作物,受到著作權保護並無疑問。倘若係自然人利用AI做為道具產出的創作物,若具備(1)創作意圖;(2)創作貢獻,兩種要件,亦得取得權利。然而,若該創作物僅透過人類指示,過程係由AI自主生成,此時該創作物即屬於AI創作物,目前非屬著作權法保護之範圍。惟上述三種情況在外觀辨識上極為困難。換言之,人類創作物與AI創作物之界線已愈趨模糊。 AI創作物可能具備多種態樣,包括:音樂、小說等,甚至包括新技術及服務的生成。以音樂、小說為例,由於日本著作權法係以「創作保護主義」為前提,只要該創作物完成時具有原創性,即受著作權保護,AI的特性可能會造成該當著作權保護之著作物數量遽增;若AI產生的成果屬於技術或服務,以專利審查需具備新穎性、進步性等要件而言,得獲取專利權難度相對比較高。 而日本政府在討論AI創作物是否具有「保護必要性」,主要係以智財權「激勵理論」出發,該理論核心在於保護人類的投資行為應獲得合理報酬,才有續行創作的動機。
美國法院否決Google與作家、出版商達成的和解協議美國紐約南區地方法院於今年3月22日裁定否決Google 與美國作家協會(Authors Guild)及出版商間所達成的和解協議。此和解案起於Google 於2004年提出的Google Books 計畫,規劃與各大學圖書館合作進行將其館藏圖書數位化。美國作家協會於是於2005提起集體訴訟,在經過兩年談判後與Google 於2008年達成和解協議。如此協議被法院認可,Google 將可掃描及販售成千上萬之書籍,其中包含已絕版之書籍,且即使這些書籍並非屬於公共財或未取得出版商之許可置於Google Books上。 美國地方法院法官Denny Chin表示雖然將書籍數位化且建制完整的數位圖書館(universal digital library)將會造福很多人,但認為和解協議的內容不具公平、適當及合理性。因相較於其競爭對手,此和解協議將給予Google享有顯著的優勢,讓其進行大規模的複製未經授權的著作。 Google 律師表示此裁定令人失望,但將檢視法院之判決並思考後續之選擇,並說明不論結果如何,Google 將持續致力於將全世界的書籍藉由線上Google Books 及Google eBooks 的方式被發現。
自日本產業競爭力強化法暨特區立法談監理沙盒立法之推動與課題 英國資訊委員辦公室提出人工智慧(AI)稽核框架人工智慧(Artificial Intelligence, AI)的應用,已逐漸滲透到日常生活各領域中。為提升AI運用之效益,減少AI對個人與社會帶來之負面衝擊,英國資訊委員辦公室(Information Commissioner’s Office, ICO)於2019年3月提出「AI稽核框架」(Auditing Framework for Artificial Intelligence),作為確保AI應用合乎規範要求的方法論,並藉機引導公務機關和企業組織,評估與管理AI應用對資料保護之風險,進而建構一個可信賴的AI應用環境。 AI稽核框架主要由二大面向所構成—「治理與可歸責性」(governance and accountability)以及「AI特定風險領域」(AI-specific risk areas)。「治理與可歸責性」面向,係就公務機關和企業組織,應採取措施以遵循資料保護規範要求的角度切入,提出八項稽核重點,包括:風險偏好(risk appetite)、設計階段納入資料保護及透過預設保護資料(data protection by design and by default)、領導管理與監督(leadership management and oversight)、政策與程序(policies and procedures)、管理與通報架構(management and reporting structures)、文書作業與稽核紀錄(documentation and audit trails)、遵循與確保能力(compliance and assurance capabilities)、教育訓練與意識(training and awareness)。 「AI特定風險領域」面向,則是ICO特別針對AI,盤點下列八項潛在的資料保護風險,作為風險管理之關注重點: 一、 資料側寫之公平性與透明性(fairness and transparency in profiling); 二、 準確性(accuracy):包含AI開發過程中資料使用之準確性,以及應用AI所衍生資料之準確性; 三、 完全自動化決策模型(fully automated decision making models):涉及人類介入AI決策之程度,歐盟一般資料保護規則(General Data Protection Regulation, GDPR)原則上禁止無人為介入的單純自動化決策; 四、 安全性與網路(security and cyber):包括AI測試、委外處理資料、資料重新識別等風險; 五、 權衡(trade-offs):不同規範原則之間的取捨,如隱私保護與資料準確性; 六、 資料最少化與目的限制(data minimization and purpose limitation); 七、 資料當事人之權利行使(exercise of rights); 八、 對廣泛公共利益和權利之衝擊(impact on broader public interests and rights)。 ICO將持續就前述AI特定風險領域,進行更深入的分析,並開放公眾討論,未來亦將提供相關技術和組織上之控制措施,供公務機關及企業組織進行稽核實務時之參考。