人權組織向法國最高行政法院提交申訴,要求政府停止使用歧視性演算法

國際特赦組織(Amnesty International)與法國數位隱私權倡議團體La Quadrature du Net(LQDN)等組織於2024年10月15日向法國最高行政法院提交申訴,要求停止法國國家家庭津貼基金機構(Caisse nationale des allocations familiales,CNAF)所使用的歧視性風險評分演算法系統。

CNAF自2010年起即慣於使用此系統識別可能進行福利金詐欺的對象,該系統演算法對獲取家庭與住房補助的對象進行0至1之間的風險評分,分數越接近1即越可能被列入清單並受調查,政府當局並宣稱此系統將有助於提升辨識詐欺與錯誤的效率。

LQDN取得該系統的原始碼,並揭露其帶有歧視性質。該等組織說明,CNAF所使用的評分演算法自始即對社會邊緣群體如身心障礙者、單親家長,與低收入、失業、居住於弱勢地區等貧困者表現出懷疑態度,且可能蒐集與系統原先目的不相稱的資訊量,這樣的方向直接違背了人權標準,侵犯平等、非歧視與隱私等權利。

依據歐盟《人工智慧法》(Artificial Intelligence Act,下稱AIA),有兩部分規定:

1. 用於公機關評估自然人是否有資格獲得基本社會福利或服務,以及是否授予、減少、撤銷或收回此類服務的人工智慧系統;以及用於評估自然人信用或建立信用評分的人工智慧系統,應被視為高風險系統。

2. 由公機關或私人對自然人進行社會評分之人工智慧系統可能導致歧視性結果並排除特定群體,從此類人工智慧總結的社會分數可能導致自然人或其群體遭受不當連結或程度不相稱的不利待遇。因此應禁止涉及此類不可接受的評分方式,並可能導致不當結果的人工智慧系統。

然而,AIA並未針對「社會評分系統」明確定義其內涵、組成,因此人權組織同時呼籲,歐盟立法者應針對相關禁令提供具體解釋,惟無論CNAF所使用的系統為何種類型,因其所具有的歧視性,公機關皆應立即停止使用並審視其具有偏見的實務做法。

相關連結
你可能會想參加
※ 人權組織向法國最高行政法院提交申訴,要求政府停止使用歧視性演算法, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=9291&no=86&tp=1 (最後瀏覽日:2025/10/16)
引註此篇文章
你可能還會想看
眾議員提出新法以因應數位科技轉換產生的權利保護問題

為避免數位科技轉換所可能發生的權利保護缺口,美國眾議院司法委員會主席 James Sensenbrenner Jr. 與議員 John Conyers 於本月 16 日共同提出了「 Digital Transition Content Security Act 」( DTCSA , H.R.4569 ),要求業者應在次世代的數位影像製品中加入反盜版技術。該草案的提出,無疑地為飽受盜版所苦的好萊塢注入一劑強心針。   原本可受到著作權法保護的數位內容,一旦由數位轉換為類比( analog )形式,再由類比轉換回數位後,其品質上雖稍受影響,但此一新的數位內容即不再受著作權法的保障,眾議員 John Conyers 將之稱為「類比漏洞」( analog hole ), DTCSA 的提出即在於因應此一棘手問題。未來草案若能順利通過,除非業者能提出有效阻斷違法複製的策略,否則在一年緩衝期過後,業者凡有製造或販售可將類比影像訊號轉換為數位訊號之設備,均將被宣布為違法。可能因此受到影響者,包括了電腦調頻器( PC-based tuner )與數位錄影機( digital video recorder )等。   全美電影協會( MPAA )對此新法大表歡迎,主席 Dan Glickman 認為 DTCSA 的提出,不僅保護了權利人,同時也將提供消費者更多的選擇。但另一方面,在 DTCSA 賦予商業部( Commerce Department )更大的權力以監視家電製造業者之下,草案無可避免地將遭致來自業者一方強大的反彈力量。

歐盟著作權指令實行至今未達促進網路服務成長之目的

  歐洲委員會委託荷蘭「阿姆斯特丹大學資訊法律學院」及倫敦「皇后瑪莉智慧財產中心」,就歐盟2001年通過之著作權指令於各會員國實行之情況與對市場之影響進行評估,並於2007年2月完成評估報告。該份報告指出,歐盟著作權指令就推動線上內容服務成長之目的僅達成少部分目標,若歐盟未來可能成為網路服務之單一市場,則本指令必須加以修改。   報告指出,部分指令內容的欠缺明確,留給各會員國極大的裁量空間於內國法排除規範之訂定與限制規範之研擬,此一情況實為該指令功能未能彰顯之重要因素。且因各會員國幾乎可完全自由決定欲採用之制度,將嚴重影響跨疆界網路內容服務的建構,尤其調和規範之欠缺,直接影響關於市場玩家提供跨疆界網路服務相關法律的明確性。而由於規範的不確定性,則迫使使用者於面臨跨疆界著作之使用時,需與每位權利人就使用受保障著作的範圍進行協商,導致交易成本之增加。另外,該指令之規範亦轉變了科技法律之態樣,推翻舊有權利平衡,而創造出偏向權利人、遠離著作使用者的規範模式,擴張的重製權賦予權利人幾乎完全的控制權力,而此一權利實非於實體世界權利人所能專享。   此份報告建議,為達成會員國規範具某程度的一致性,未來宜就該指令可附加之限制,明列簡短的必要禁止規範,各國亦可依據自身需求附加進一步的排除條款。同時建議歐洲各國可參考德國強制將數位權力管理資訊、著作使用範圍與特性於產品上附加說明之模式,作為未來規範訂定之參考。

歐盟提出人工智慧法律框架草案

  歐盟執委會於2020年2月公布《人工智慧白皮書》(AI White Paper)後,持續蒐集各方意見並提出新的人工智慧規範與行動。2021年4月針對人工智慧法律框架提出規範草案(Proposal for a Regulation on a European approach for Artificial Intelligence),透過規範確保人民與企業運用人工智慧時之安全及基本權利,藉以強化歐盟對人工智慧之應用、投資與創新。   新的人工智慧法律框架未來預計將統一適用於歐盟各成員國,而基於風險規範方法將人工智慧系統主要分為「不可接受之風險」、「高風險」、「有限風險」及「最小風險」四個等級。「不可接受之風險」因為對人類安全、生活及基本權利構成明顯威脅,故將被禁止使用,例如:政府進行大規模的公民評分系統;「高風險」則是透過正面例舉方式提出,包括:可能使公民生命或健康處於危險之中的關鍵基礎設施、教育或職業培訓、產品安全、勞工與就業、基本之私人或公共服務、可能會干擾基本權之司法應用、移民與庇護等面向,而高風險之人工智慧在進入市場之前須要先行遵守嚴格之義務,並進行適當風險評估及緩解措施等。「有限風險」則是指部分人工智慧應有透明度之義務,例如當用戶在與該人工智慧系統交流時,需要告知並使用戶意識到其正與人工智慧系統交流。最後則是「最小風險」,大部分人工智慧應屬此類型,因對公民造成很小或零風險,各草案並未規範此類人工智慧。   未來在人工智慧之治理方面,歐盟執委會建議各國現有管理市場之主管機關督導新規範之執行,且將成立歐洲人工智慧委員會(European Artificial Intelligence Board),推動人工智慧相關規範、標準及準則之發展,也將提出法規沙盒以促進可信賴及負責任之人工智慧。

固網業者路權取得相關問題之研究

TOP