人權組織向法國最高行政法院提交申訴,要求政府停止使用歧視性演算法

國際特赦組織(Amnesty International)與法國數位隱私權倡議團體La Quadrature du Net(LQDN)等組織於2024年10月15日向法國最高行政法院提交申訴,要求停止法國國家家庭津貼基金機構(Caisse nationale des allocations familiales,CNAF)所使用的歧視性風險評分演算法系統。

CNAF自2010年起即慣於使用此系統識別可能進行福利金詐欺的對象,該系統演算法對獲取家庭與住房補助的對象進行0至1之間的風險評分,分數越接近1即越可能被列入清單並受調查,政府當局並宣稱此系統將有助於提升辨識詐欺與錯誤的效率。

LQDN取得該系統的原始碼,並揭露其帶有歧視性質。該等組織說明,CNAF所使用的評分演算法自始即對社會邊緣群體如身心障礙者、單親家長,與低收入、失業、居住於弱勢地區等貧困者表現出懷疑態度,且可能蒐集與系統原先目的不相稱的資訊量,這樣的方向直接違背了人權標準,侵犯平等、非歧視與隱私等權利。

依據歐盟《人工智慧法》(Artificial Intelligence Act,下稱AIA),有兩部分規定:

1. 用於公機關評估自然人是否有資格獲得基本社會福利或服務,以及是否授予、減少、撤銷或收回此類服務的人工智慧系統;以及用於評估自然人信用或建立信用評分的人工智慧系統,應被視為高風險系統。

2. 由公機關或私人對自然人進行社會評分之人工智慧系統可能導致歧視性結果並排除特定群體,從此類人工智慧總結的社會分數可能導致自然人或其群體遭受不當連結或程度不相稱的不利待遇。因此應禁止涉及此類不可接受的評分方式,並可能導致不當結果的人工智慧系統。

然而,AIA並未針對「社會評分系統」明確定義其內涵、組成,因此人權組織同時呼籲,歐盟立法者應針對相關禁令提供具體解釋,惟無論CNAF所使用的系統為何種類型,因其所具有的歧視性,公機關皆應立即停止使用並審視其具有偏見的實務做法。

相關連結
你可能會想參加
※ 人權組織向法國最高行政法院提交申訴,要求政府停止使用歧視性演算法, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=9291&no=55&tp=1 (最後瀏覽日:2026/04/09)
引註此篇文章
你可能還會想看
歐盟發佈關於監督金融業之數據保護準則

  歐洲數據保護監督組織(European Data Protection Supervipsor,EDPS)發表「關於在歐盟監督金融業之數據保護準則」(Guidelines on Data Protection for Financial Services Regulation),以作為確保歐盟的數據保護規範,將被整合進正在發展中的金融政策與相關規定之實用工具。該準則為金融市場監督機制的一部分,在金融業對個人資料的處理上,特別是透過監控、記錄保留、回報、以及資訊交換這些存有侵犯個人資料和隱私權風險的措施予以規範。   該準則包含10項步驟與建議,旨在協助歐盟後續金融監督政策的制定,其中一些重要的建議如下: (1)應評估資訊之處理是否可能妨礙隱私權。 (2)應為數據的處理建立法律基礎。 (3)評估適當的資訊保留期限並給予正當化依據。 (4)建立個人資料傳輸至歐盟外的正當法律依據。 (5)提供個人資料保護權利的適當保障。 (6)衡量適當的數據安全保護措施。 (7)應為數據處理的監督提供特定之程序。   有鑒於2008年金融危機的影響,該準則透過提供一個能確保個人資料被妥善保護的有效方法,期以重建金融市場的信心。Giovani Buttarelli,作為新任歐洲數據保護監督委員,在一份伴隨準則釋出的聲明稿當中表示:「個人資料的價值已經隨著數位經濟的成長不斷增加,確保各行業的個人資料得以受到保護也益顯重要。歐洲數據保護監督組織(EDPS)計畫對不同行業制定相關保護規範,此準則是第一個發佈的。」

歐盟個人資料保護小組提出智慧電錶隱私指導原則

  由於近年來運算技術的成熟,使得許多仰賴高運算技術的產業有重新發展的契機,智慧電網正是其中一例;而智慧電網所涉及的資訊繁多,例如個人資產的位址資訊可能會被納入電網中作定位與分析,因此其所衍伸的個人資料與隱私保護議題,近來備受重視。   歐盟個人資料保護小組(Article 29 Data Protection Working Party)於今年四月針對智慧電錶的隱私議題,提出指導建議(Opinion 12/2011 on Smart Metering),並明確指出,電網中的電錶會有一組獨特的識別碼(Meter Identification Number),此可連結至特定用戶,因此由電錶蒐集到的資訊,大部分都符合歐盟個人資料保護指令(Directive 95/46/EC)中的「個人資料」(Personal Data)。   倘若要對透過電錶所蒐集的資料進行處理,必須要基於充分告知(Fully-informed),取得用戶同意;也應該讓用戶依照意願自主行使同意或撤銷該同意,此會涉及電錶設計的方式,該小組建議可在用戶端電錶的控制鑲板上設置「按鈕」(Push Button),讓用戶得隨時選擇同意與否。另外,智慧電錶亦具有設定資料傳輸頻率的功能,此攸關資料被蒐集之範圍是否妥適,舉例言之,倘若用戶與電網服務提供者之契約,是全天以同一個費率計算電價,則其電錶會把整日用電量讀成一筆資料,反之倘若用戶是採用一天分不同時段不同費率的方式,則該電錶會每日分成數個時段讀取用電量;惟在供應端可遠端遙控這些電錶讀取頻率的情況下,應確保這些資料僅於系統運行所需,方傳輸至供應端供讀取。   其他的電表資訊處理細節,事實上類似於電信事業處理交通資訊或位址資訊的作法,例如不再用到的電錶資訊,應盡速刪除之;供應端也必須訂定書面的資料保存政策、評估所需電錶資訊之目的、並在該目的範圍內以最小限度原則保存之。

ITU研議修改國際電信規則

  ITU國際電信聯盟秘書長Dr. Hanmasoun I Toure於2012年5月一場在加拿大舉行的無線通訊座談會中,針對之前國際上傳言聯合國與ITU將嘗試介入管理網際網路之說法進行澄清,並主張自1988年修改沿用至今的國際電信規則(ITRs)已不能應付目前新興之電信商業模式。   新型態的電信商業模式引發網路中立爭議的戰火,已延燒多時。從前的網際網路服務供應業者(ISP),主要遵守網際網路協定,扮演好笨水管(Dum Pipe)的角色。但隨著網際網路內容與各類應用服務的急速成長,各類封包的傳輸加重了原有管道的乘載負擔,再加上網際網路管理技術的演進,業者可透過網管技術對資訊封包的傳輸做更細緻的調節,逐漸形成內容傳輸優先次序差異化的新興商業模式,並且持續發展中。   依目前的技術能力,網際網路中任何內容傳輸的速度,皆能透過寬頻管理機制(QoS)進行調節。過去,QoS在國際通訊上,於各國的終端網路中進行調節工作。但現有的封包式的網路傳輸架構(packet-base networks)動搖了原有的秩序,不僅質量參數(quality parameters)大部分未受明確定義,QoS的角色也逐漸模糊。導致各系統本身無法完全控制跨網資訊傳輸的品質,影響各類服務在使用者的終端設備上所呈現的服務品質。對於需與固網或各類終端設備連結的行動通訊業者而言,如何解決這類問題儼然已成了燃眉之急。   目前ITU剛結束於日內瓦的年會,從會中委員會對其文件是否具備國際效力之議題討論,不難看出ITU對於網際網路管理態度已由被動態度轉為積極。未來ITU更期望,藉由年底舉行2012年國際電信世界大會(WCIT-12),重新修訂舊有國際電信規則(ITRs),引領網際網路的新秩序。

美國OMB發布人工智慧應用監管指南備忘錄草案

  美國行政管理預算局(United States Office of Management and Budget, OMB)於2020年1月發布「人工智慧應用監管指南(Guidance for Regulation of Artificial Intelligence Applications)」備忘錄草案。該備忘錄草案係基於維護美國人工智慧(AI)領導地位之目的,而依據美國總統川普(Donald John Trump)於2019年2月簽署之「維持美國人工智慧領導地位(Maintaining American Leadership in Artificial Intelligence)─行政命令13859號」,並在啟動美國人工智慧計畫後180天內,經OMB偕同科技政策辦公室(Office of Science and Technology Policy, OSTP)、美國國內政策委員會(United States Domestic Policy Council)與美國國家經濟委員會(National Economic Council)與其他相關機構進行協商,最後再由OMB發布人工智慧應用監管指南備忘錄草案,以徵詢公眾意見。   該備忘錄草案不僅是為了規範新型態AI應用技術,更希望相關的聯邦機構,在制定AI應用產業授權技術、監管與非監管方法上,能採取彈性的制定方向,以避免過度嚴苛的規定,反而阻礙AI應用的創新與科技發展,繼而保護公民自由、隱私權、基本權與自治權等價值。同時,為兼顧AI創新與政策之平衡,應以十大管理原則為規範制定之依據,十大管理原則分別為: 培養AI公眾信任(Public Trust in AI); 公眾參與(Public Participation); 科學研究倫理與資訊品質(Scientific Integrity and Information Quality); AI風險評估與管理(Risk Assessment and Management); 獲益與成本原則(Benefits and Costs); 彈性原則(Flexibility); 公平與反歧視(Fairness and Non-Discrimination); AI應用之揭露與透明化(Disclosure and Transparency); AI系統防護與措施安全性(Safety and Security); 機構間之相互協調(Interagency Coordination)。   此外,為減少AI應用之阻礙,機構制定AI規則時,應採取降低AI技術障礙的方法,例如透過聯邦資料與模型方法來發展AI研發(Federal Data and Models for AI R&D)、公眾溝通(Communication to the Public)、自發性共識標準(Voluntary Consensus Standards)之制定及符合性評鑑(Conformity Assessment)活動,或國際監管合作(International Regulatory Cooperation)等,以創造一個接納並利於AI運作的環境。

TOP