人權組織向法國最高行政法院提交申訴,要求政府停止使用歧視性演算法

國際特赦組織(Amnesty International)與法國數位隱私權倡議團體La Quadrature du Net(LQDN)等組織於2024年10月15日向法國最高行政法院提交申訴,要求停止法國國家家庭津貼基金機構(Caisse nationale des allocations familiales,CNAF)所使用的歧視性風險評分演算法系統。

CNAF自2010年起即慣於使用此系統識別可能進行福利金詐欺的對象,該系統演算法對獲取家庭與住房補助的對象進行0至1之間的風險評分,分數越接近1即越可能被列入清單並受調查,政府當局並宣稱此系統將有助於提升辨識詐欺與錯誤的效率。

LQDN取得該系統的原始碼,並揭露其帶有歧視性質。該等組織說明,CNAF所使用的評分演算法自始即對社會邊緣群體如身心障礙者、單親家長,與低收入、失業、居住於弱勢地區等貧困者表現出懷疑態度,且可能蒐集與系統原先目的不相稱的資訊量,這樣的方向直接違背了人權標準,侵犯平等、非歧視與隱私等權利。

依據歐盟《人工智慧法》(Artificial Intelligence Act,下稱AIA),有兩部分規定:

1. 用於公機關評估自然人是否有資格獲得基本社會福利或服務,以及是否授予、減少、撤銷或收回此類服務的人工智慧系統;以及用於評估自然人信用或建立信用評分的人工智慧系統,應被視為高風險系統。

2. 由公機關或私人對自然人進行社會評分之人工智慧系統可能導致歧視性結果並排除特定群體,從此類人工智慧總結的社會分數可能導致自然人或其群體遭受不當連結或程度不相稱的不利待遇。因此應禁止涉及此類不可接受的評分方式,並可能導致不當結果的人工智慧系統。

然而,AIA並未針對「社會評分系統」明確定義其內涵、組成,因此人權組織同時呼籲,歐盟立法者應針對相關禁令提供具體解釋,惟無論CNAF所使用的系統為何種類型,因其所具有的歧視性,公機關皆應立即停止使用並審視其具有偏見的實務做法。

相關連結
你可能會想參加
※ 人權組織向法國最高行政法院提交申訴,要求政府停止使用歧視性演算法, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=9291&no=64&tp=1 (最後瀏覽日:2026/02/09)
引註此篇文章
你可能還會想看
美國能源部展開離岸風力能源計畫

  由於能源價格、供給不穩定、以及環境考量等因素,使美國思考潔淨及再生能源的開發。美國能源部在2008年公布了一份報告「20% Wind Energy by 2030: Increasing Wind Energy’s Contribution to U.S. Electricity Supply」,檢視風能利用的可行性,希望在2030年達到風能發電占全國20%的需求。   美國在2010年因為金融海嘯後期的影響,對於能源的需求及價格降低,導致風能的發展減緩。而面臨一些新興的市場,例如拉丁美洲、非洲、亞洲陸續加入風能的開發領域,尤其中國大陸,自2005年後,幾乎每年呈倍數成長,2010年所累積的風能更超越美國,美國再度投入相關的計畫研發,在今年(2012)美國能源部宣布展開一項投入1.8億、長達六年的離岸風力能源計畫。   此計畫的第一步將於今年投入二千萬於全美四處離岸地區導入風力能源,這些風力能源計畫將能加速風力科技的重大發展,並能協助美國能源的多樣性規劃、提升經濟發展。離岸風力是美國相當具有潛力的能源,估計可以提供超過4000GW的能量,可以緩和美國的能源危機及經濟和環境的挑戰,而且能夠提供大部分人民居住的沿海城市的能源和電力。   此一計畫之申請者,希望是能在能源開發、設備提供、研究機構、海洋裝置專家等領域組成世界級的團隊。其目的是為了促進美國離岸風力的發展,並協助下一代風力能源科技的設計與示範。這個試驗計畫能協助瞭解導入離岸渦輪機、連接渦輪機與電網的主要挑戰。投入這個新興的產業,政府的補助可協助降低成本並加速美國沿海風力能源科技的發展,而且在實際的沿海環境測試能提供有價值的資訊。   在積極發展風能的同時,美國參議院於2012年3月,否決了風能業者延長租稅優惠的提案,此租稅優惠方案將於年底屆至。此優惠是針對風能發電製造成本的補貼,相關業者紛紛表示,終止此補貼將會影響美國風能的發展,因此他們將會繼續爭取。

蘋果與亞馬遜商標侵權談判破裂

  亞馬遜公司(Amazon)將其Android Apps商店命名為「Appstore」後,遭蘋果公司(Apple Inc.)以「Appstore」為其所擁有的商標,控告亞馬遜公司(Amazon)侵害其商標權並違反不公平競爭法。而亞馬遜公司(Amazon)則以「Appstore」為一個「通用名稱」加以反駁。亞馬遜公司(Amazon)認為,「Appstore」這個詞已經成為一個「通用名稱」,它代表著一個應用程式的資料庫之意,而沒有專門代表著蘋果公司(Apple Inc.)的意義。雙方歷經兩年訴訟後,根據加州聯邦法院資料,兩家公司的代表,於今年(2013)5月初與6月中曾兩度進行和解談判,但截至目前為止,雙方並未達成和解協議。   根據美國專利商標局(USPTO)商標申請紀錄,蘋果公司(Apple Inc.)以「Appstore」於2008年3月6日向美國專利商標局(USPTO)提出在第35類(提供通過電腦軟體為特色的零售店鋪服務、在移動數位電子設備及其他消費類電子產品上使用的電腦軟體為特色之零售商店服務等)、第38類(全球電腦網路、無線網路和電子通信網路及資訊傳輸、維護等)、第42類(提供臨時使用非可下載電腦軟體進行計畫,組織和訪問視訊,多媒體內容的電腦軟體程式等服務等)的商標申請案,其中並提出已於2008年7月10日使用之相關主張,惟本件商標申請案尚未獲得最終核准。而包括微軟等其他公司,都向美國專利商標局(USPTO)提出駁回該商標之請求,以阻止蘋果公司(Apple Inc.)的申請,以確保不會因為蘋果公司(Apple Inc.)之商標註冊而影響自身使用該名稱之權利。   但因本件經過兩輪談判,蘋果公司(Apple Inc.)與亞馬遜公司(Amazon)仍未就侵權爭議達成和解。故雙方間的商標爭議很可能最終須於法庭內解決。目前審判時間已被定於今年8月。「Appstore」將被認為屬於蘋果公司的專屬商標,亦或屬於公眾皆可使用的通用名稱,結果值得拭目以待。

RFID應用與相關法制問題研析-個人資料在商業應用上的界限

日本政府怎樣對公部門管制DeepSeek?

日本政府怎樣對公部門管制DeepSeek? 資訊工業策進會科技法律研究所 2025年07月07日 2025年2月3日,日本個人情報保護委員會(Personal Information Protection Commission,簡稱PPC)發布新聞稿指出[1],DeepSeek所蒐集的資料,將會儲存在中國的伺服器裡,且為中國《國家情報法》的適用對象[2]。這可能將導致個人資料遭到中國政府調用或未經授權的存取。作為中國開發的生成式AI,DeepSeek雖以優異的文本能力迅速崛起,卻也引發資安疑慮。 身處地緣政治敏感區的日本對此高度警覺,成為率先提出警告的國家之一。台灣與日本面臨相似風險,因此日本的應對措施值得借鏡。本文將從PPC新聞稿出發,探討日本如何規範公部門使用DeepSeek。 壹、事件摘要 DeepSeek作為中國快速崛起之生成式AI服務,其使用範圍已快速在全球蔓延。然而,日本PPC發現該公司所公布之隱私政策,內容說明其所蒐集之資料將存儲於中國伺服器內,並依據中國《國家情報法》之適用範圍可能遭到中國政府調用或未經授權之存取。 日本PPC因而於2025年2月3日發布新聞稿,隨後日本數位廳於2月6日發函給各中央省廳,強調在尚未完成風險評估與資安審查之前,政府機關不應以任何形式將敏感資訊輸入DeepSeek,並建議所有業務使用應先諮詢內閣資安中心(内閣サイバーセキュリティセンター,NISC)與數位廳(デジタル庁)意見,才能判定可否導入該類工具[3]。數位大臣平將明亦在記者會中強調:「即使不是處理非機密資料,各機關也應充分考量風險,判斷是否可以使用。」(要機密情報を扱わない場合も、各省庁等でリスクを十分踏まえ、利用の可否を判断する)[4]。 本次事件成為日本對於生成式AI工具採取行政限制措施的首次案例,也引發公私部門對資料主權與跨境平台風險的新一輪討論。 貳、重點說明 一、日本對於人工智慧的治理模式 日本在人工智慧治理方面採取的是所謂的「軟法」(soft law)策略,也就是不依賴單一、強制性的法律來規範,而是以彈性、分散的方式,根據AI的實際應用場景與潛在風險,由相關機關分別負責,或透過部門之間協作因應。因此,針對DeepSeek的管理行動也不是由某一個政府部門單獨推動,而是透過跨部會協作完成的綜合性管控,例如: (一)PPC的警示性通知:PPC公開說明DeepSeek儲存架構與中國法規交錯風險,提醒政府機關與公務人員謹慎使用,避免洩漏資料。 (二)數位廳的行政指引:2025年2月6日,日本數位廳針對生成式AI的業務應用發布通知,明列三項原則:禁止涉密資料輸入、限制使用未明確審查之外部生成工具、導入前應諮詢資安機構。 (三)政策溝通與政治聲明:平將明大臣在記者會上多次強調DeepSeek雖未明列於法條中禁用,但其高風險屬性應視同「潛在危害工具」,需列入高敏感度審查項目。 二、日本的漸進式預防原則 對於DeepSeek的管制措施並未升高至法律層級,日本政府亦沒有一概禁止DeepSeek的使用,而是交由各機關獨自判斷[5]。這反映出了日本在AI治理上的「漸進式預防原則」:先以行政指引建構紅線,再視實際風險與民間回饋考慮是否立法禁用。這樣的作法既保留彈性,又讓官僚系統有所依循,避免「先開放、後收緊」所帶來的信任危機。 三、日本跟循國際趨勢 隨著生成式AI技術迅速普及,其影響已不再侷限於產業應用與商業創新,而是逐漸牽動國家資安、個資保護以及國際政治秩序。特別是生成式AI在資料存取、模型訓練來源及跨境資料流通上的高度不透明,使其成為國家安全與數位主權的新興挑戰。在這樣的背景下,各國對生成式AI工具的風險管理,也從原先聚焦於產業自律與技術規範,提升至涉及國安與外交戰略層面。 日本所採取的標準與國際趨勢相仿。例如韓國行政安全部與教育部也在同時宣布限制DeepSeek使用,歐盟、美國、澳洲等國亦有不同程度的封鎖、審查或政策勸導。日本雖然和美國皆採取「軟法」(soft law)的治理策略,然而,相較於美國以技術封鎖為主,日本因其地緣政治的考量,對於中國的生成式AI採取明確防範的態度,這一點與韓國近期禁止政府機構與學校使用中國AI工具、澳洲政府全面禁止政府設備安裝特定中國應用程式類似。 參、事件評析 這次日本政府對於DeepSeek的應對措施,反映出科技治理中的「資料主權問題」(data sovereignty):即一個國家是否有能力控制、保存與使用其管轄範圍內所生產的資料。尤其在跨境資料傳輸的背景下,一個國家是否能保障其資料不被外國企業或政府擅自使用、存取或監控,是資料主權的核心問題。 生成式AI不同於傳統AI,其運作依賴大規模訓練資料與即時伺服器連接,因此資料在輸入的瞬間可能已被收錄、轉存甚至交付第三方。日本因而對生成式AI建立「安全門檻」,要求跨境工具若未經審核,即不得進入政府資料處理流程。這樣的應對策略預示了未來國際數位政治的發展趨勢:生成式AI不只是科技商品,它已成為跨國治理與地緣競爭的核心工具。 中國通過的《國家情報法》賦予政府調閱私人企業資料的權力,使得中國境內所開發的生成式AI,儼然成為一種資訊戰略利器。若中國政府藉由DeepSeek滲透他國公部門,這將對國家安全構成潛在威脅。在此背景下,日本對公部門使用DeepSeek的管制,可被解讀為一種「數位防衛行為」,象徵著日本在數位主權議題上的前哨部署。 值得注意的是,日本在處理DeepSeek事件時,採取了「不立法限制、但公開警示」的方式來應對科技風險。此舉既避免激烈封鎖引發爭議,又對於資料的運用設下邊界。由於法令規範之制定曠日費時,為避免立法前可能產生之風險,日本先以軟性之限制與推廣手段以防止危害擴大。 台灣雖與日本同處地緣政治的敏感地帶,資料主權議題對社會影響深遠,為使我國可在尚未有立法規範之狀態下,參考日本所採之行政命令內控與公開說明外宣雙向並行之策略,對台灣或許是一種可行的借鏡模式。 本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。 本文同步刊登於TIPS網站(https://www.tips.org.tw) [1]個人情報保護委員会,DeepSeekに関する情報提供,https://www.ppc.go.jp/news/careful_information/250203_alert_deepseek/ (最後瀏覽日:2025/05/06)。 [2]《中华人民共和国国家情报法》第7条第1项:「任何组织和公民都应当依法支持、协助和配合国家情报工作,保守所知悉的国家情报工作秘密。」 [3]デジタル社会推進会議幹事会事務局,DeepSeek等の生成AIの業務利用に関する注意喚起(事務連絡),https://www.digital.go.jp/assets/contents/node/basic_page/field_ref_resources/d2a5bbd2-ae8f-450c-adaa-33979181d26a/e7bfeba7/20250206_councils_social-promotion-executive_outline_01.pdf (最後瀏覽日:2025/05/06)。 [4]デジタル庁,平大臣記者会見(令和7年2月7日),https://www.digital.go.jp/speech/minister-250207-01 (最後瀏覽日:2025/05/06)。 [5]Plus Web3 media,日本政府、ディープシークを一律禁止せず 「各機関が可否を判断する」,https://plus-web3.com/media/500ds/?utm_source=chatgpt.com (最後瀏覽日:2025/05/06)。

TOP