紐約通過法案,將禁止企業使用未能通過偏見審計的自動化招募系統

  紐約市議會於2021年11月10日通過紐約市行政法規的修正法案,未來將禁止雇主使用未通過偏見審計(bias audit)的「自動化聘僱決策工具(Automated Employment Decision Tools)」,避免因為自動化工具導致的偏見與歧視,不當反映於雇主的最終聘僱決策。

  於該法所定義之「自動化聘僱決策工具」,係指透過機器學習、統計模型、數據分析或人工智慧之運算,以實質性協助或取代決策過程,影響最終聘僱決定。而聘僱決定包含篩選應徵者以及對員工作成是否晉升之結果。偏見審計由獨立審計員針對自動化聘僱決策工具進行測試,藉以評估該自動化聘僱決策工具對於雇主依法應申報資訊的影響,例如是否影響及如何影響員工性別、族裔、職位、職務等特徵分布情形。該法並規定雇主或職業介紹機構只有在滿足以下條件的前提下,始得使用自動化聘僱決策工具,包括:

一、通過審計義務:自動化聘僱決策工具須於1年之內通過偏見審計(bias audit)。在使用該工具前,應將該最新審計結果摘要及該工具發行日公告於雇主或職業介紹機構的網站上。除非另有規定,如未有公告,應徵者或員工得提出書面要求雇主於30日內提供自動化聘僱決策工具所收集的數據類型、來源及雇主或職業介紹機構之數據保留政策之相關資訊。

二、通知義務:如欲使用自動化聘僱決策工具對居住在紐約市的員工或應徵者進行評估時,雇主應於使用前的10個工作日內通知該員工或應徵者,且應通知用於評估時所使用之工作資格或特質等參數,並允許應徵者或員工申請以替代方式進行評估。

  如雇主或職業介紹機構違反上開規定,第一次違反者將承擔500美元的民事懲罰(civil penalty),如連續違反者,對於之後的違反將承擔500至1500美元不等。目前該法案仍待市長簽署,該法案如經市長簽署通過,將於2023年1月1日生效。

相關連結
※ 紐約通過法案,將禁止企業使用未能通過偏見審計的自動化招募系統, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8764&no=64&tp=1 (最後瀏覽日:2026/01/28)
引註此篇文章
你可能還會想看
新加坡採取「雲端友善」政策方針,發布個人資料保護指引

  新加坡個人資料保護委員會(PDPC)為讓企業能妥適的遵循2012年發布的個人資料保護法(Personal Data Protection Act/PDPA),於2013年9月發布個人資料保護法(PDPA)的執行指引文件:「PDPA關鍵概念指導方針(Advisory Guidelines on Key Concepts in the PDPA)」,針對各項如何蒐集、處理及利用個人資料的要求與義務,提供細節性說明及應用範例。執行指引文件的發布,是源自於公眾在實際操作法遵要求時,所發生的執行困難、疑義和衍生的建議和意見,彙整後進行法規釋疑和舉例。此份文件的要求係立基於實用主義及「企業友善(business-friendly)」的理念,幫助機構調整業務運作流程以及妥善的遵守法律的規定。   執行指引文件提供關鍵名詞的詮釋,例如「個人資料」在PDPA裡的定義為:任何可以識別個人、不拘形式及真實性的資訊;針對「謝絕來電條款(Do not call)」的遵循方式亦有細緻化的說明;就各項不同的具體子議題,清楚的提供常識性的措施(Common-Sense Approach)供機構採用,讓法規要求合乎常理,使個人資料保護與企業因需求而對個人資料進行蒐集、利用和揭露之行為間取得衡平。   新加坡個人資料保護法(PDPA)兩大立法目的:強化個人對自己個人資料的資訊控制權;使新加坡因提供充分的安全維護機制而受企業信任,強化新加坡的經濟競爭力與地位。另外,相較於其他國家在國際傳輸上有較嚴格的限制(必須有相同等級的個人資料保護立法為傳輸前提),新加坡的法制理念是僅讓企業遵守最低限度的安全維護要求後,便能將個人資料進行國際傳輸,這樣較彈性的法制設計讓新加坡有望成為亞太地區的資料與研究中心樞紐。

美國確立2305-2360MHz區間行動寬頻服務發展規範

  自2001年以來,美國長期無法解決2305-2360MHz頻段上,相鄰之衛星數位音訊廣播服務(Satellite Digital Audio Radio Service, SDARS)業者與無線通訊服務(Wireless Communications Service,WCS)業者雙方相互干擾之疑慮。此一爭議在2012年10月17日美國聯邦通訊委員會(FCC)發布FCC 12-130再審查命令(Order on Reconsideration FCC 12-130,下稱12-130命令)後獲得解決。   使用頻段位於2305-2320MHz與2345-2360MHz之無線通訊服務(WCS)與位於2320-2345MHz頻段的衛星數位音訊廣播服務(SDARS)由於個別之訊號傳輸技術差異大,並且長久以來無法在干擾處理的議題上達成共識,而抑制了無線通訊服務(WCS)於該頻譜上之發展。為實現WCS業者得於該頻段發展行動寬頻業務之承諾,並確保美國大眾能繼續享有高品質的衛星廣播服務,FCC本次針對2010年所頒布之命令(FCC10-82)進行再次修訂與檢討 ,以確立位於2.3GHz頻帶WCS所屬之頻段得發展新興寬頻服務,並促進SDARS地面中繼起器(terrestrial repeaters)之佈署及運作更加彈性化。   12-130命令之頒布,可視為WCS頻帶發展的重要里程碑。該命令除了確保相鄰頻帶之衛星廣播服務(satellite radio)、航空行動遙測技術(aeronautical mobile telemetry)以及位於美國加州所佈署之深空網路(deep space network)地面站其訊號不受干擾以外,FCC更透過制訂各項參數與管理規則,一方面降低WCS營運時對於SDARS接收者可能產生的潛在干擾,另一方面則幫助位於2.3GHz的WCS業者有能力提供固定或行動寬頻服務,以促進WCS業者與SDARS業者和諧共存。   對於FCC最後決定採用修改管制規範方式釋出該頻段以發展行動寬頻服務之舉,FCC主席Genachowski表示,除有助於鞏固美國身為全球發展LTE技術領導者之地位外,更認為命令中的管制障礙排除模式可幫助未來其他頻段的清理或移頻,增加頻譜使用彈性,並有助於達成國家寬頻計畫(National Broadband Plan’s)所設定之「2015年釋出300MHz總頻寬」、「2020年釋出500MHz總頻寬」目標。

美國最高法院認定警方向通信業者取得嫌犯之通信之基地台位址資訊須持有搜索票

  繼2012年最高法院認為警方在無搜索令的情況下,以GPS追蹤裝置查探犯罪嫌疑人之位置資訊違反憲法第四修正案。最高法院於2017年6月5日,認為警方未持搜索票,而向電信公司取得犯罪嫌疑人過去127天共計12,898筆之行動通信基地台位置資訊(cell-site data)之行為,違反憲法第四修正案。   由於個人利用行動通訊服務時,必須透過基地台進行通訊,因而可藉由該基地台位置,得知每個人所在之區域位置,而此一通訊紀錄過去被電信公司視為一般的商業資訊,因為得知通訊基地台的位置資訊,無法直接得知個人所在的精準位置,僅能得知其概略所在地區。   因此,犯罪調查機關基於1979年 Smith v. Maryland案所建立之原則,即只要該個人資訊屬於企業的一般商業紀錄(normal business record),警方可以在無搜索令的情況下,向企業取得個人資訊, 此一原則又稱為第三方法則(third-party doctrine)。過去在地方法院或上訴法院的審理中,法院對此多持正面見解,認為只要該資料與進行中之犯罪偵查活動有實質關聯(relevant and material to an ongoing criminal investigation),警方即可向業者取得。大法官Sonia Sotomayor早在前述2012年GPS追蹤裝置案的協同意見書中表示,第三方法則不應適用在數位時代,例如用戶撥電話給客服人員,或以電子郵件回覆網路購物的賣方等,無數的日常活動已經大量的向第三方揭露許多資訊。   在數位時代,大量的個人資訊以電磁紀錄的形式掌握在第三方手中,本案最高法院的見解,將會對美國的犯罪調查機關在未持搜索令的情況下,更慎重的判斷向業者取得個人資訊做為犯罪偵查使用時,是否與憲法第四修正案有所違背。

落實完善數位資料管理機制,有助於降低AI歧視及資料外洩風險

落實完善數位資料管理機制, 有助於降低AI歧視及資料外洩風險 資訊工業策進會科技法律研究所 2023年07月07日 近年來,科技快速發展,AI(人工智慧)等技術日新月異,在公私部門的應用日益廣泛,而且根據美國資訊科技研究與顧問公司Gartner在2023年5月發布的調查指出,隨著由OpenAI開發的ChatGPT取得成功,更促使各領域對於AI應用的高度重視與投入[1],與此同時,AI歧視及資料外洩等問題,亦成為社會各界的重大關切議題。 壹、事件摘要 目前AI科技發展已牽動全球經濟發展,根據麥肯錫公司近期發布的《生成式人工智慧的經濟潛力:下一個生產力前沿(The next productivity frontier)》研究報告指出,預測生成式AI(Generative AI)有望每年為全球經濟增加2.6兆至4.4兆的經濟價值[2]。同時在美國資訊科技研究與顧問公司Gartner對於超過2500名高階主管的調查中,45%受訪者認為ChatGPT問世,增加其對於AI的投資。而且68%受訪者認為AI的好處大於風險,僅有5%受訪者認為風險大於好處[3]。然而有社會輿論認為AI的判斷依賴訓練資料,將可能複製人類偏見,造成AI歧視問題,而且若程式碼有漏洞或帳戶被盜用時,亦會造成資料外洩問題。 貳、重點說明 首先,關於AI歧視問題,以金融領域為例,近期歐盟委員會副主席Margrethe Vestager強調若AI用於可能影響他人生計的關鍵決策時,如決定是否能取得貸款,應確保申請人不受性別或膚色等歧視[4],同時亦有論者認為若用於訓練AI的歷史資料,本身存有偏見問題,則可能導致系統自動拒絕向邊緣化族群貸款,在無形之中加劇,甚至永久化對於特定種族或性別的歧視[5]。 其次,關於資料外洩問題,資安公司Group-IB指出因目前在預設情況下,ChatGPT將保存使用者查詢及AI回應的訊息紀錄,若帳戶被盜,則可能洩露機敏資訊。據統計在2022年6月至2023年5月間,在亞太地區有近41000個帳戶被盜,而在中東和非洲地區有近25000個帳戶被盜,甚至在歐洲地區也有近17000個帳戶被盜[6]。另外在2023年3月時,ChatGPT除了發生部分用戶能夠檢視他人聊天紀錄標題的問題外,甚至發生個人資料外洩問題,即用戶可能知悉他人的姓名、電子郵件,付款地址,信用卡到期日及號碼末四碼等資料[7]。 參、事件評析 對於AI歧視及資料外洩等問題,應透過落實完善數位資料治理與管理機制,以降低問題發生的風險。首先,在收集訓練資料時,為篩選適合作為模型或演算法基礎的資料,應建立資料評估或審查機制,減少或避免使用有潛在歧視問題的資料,以確保分析結果之精確性。 其次,不論對於訓練資料、分析所得資料或用戶個人資料等,均應落實嚴謹的資料保密措施,避免資料外洩,如必須對於資料進行標示或分類,並依照不同標示或分類,評估及採取適當程度的保密措施。同時應對於資料進行格式轉換,以無法直接開啟的檔案格式進行留存,縱使未來可能不慎發生資料外洩,任意第三人仍難以直接開啟或解析資料內容。甚至在傳送帳戶登入訊息時,亦應採取適當加密傳送機制,避免遭他人竊取,盜取帳戶或個人資料。 財團法人資訊工業策進會科技法律研究所長期致力於促進國家科技法制環境完善,於2021年7月發布「重要數位資料治理暨管理制度規範(Essential Data Governance and Management System,簡稱EDGS)」,完整涵蓋數位資料的生成、保護與維護,以及存證資訊的取得、維護與驗證的流程化管理機制,故對於不同公私部門的AI相關資料,均可參考EDGS,建立系統性數位資料管理機制或強化既有機制。 本文同步刊登於TIPS網站(https://www.tips.org.tw) [1]Gartner, Gartner Poll Finds 45% of Executives Say ChatGPT Has Prompted an Increase in AI Investment (May 3, 2023), https://www.gartner.com/en/newsroom/press-releases/2023-05-03-gartner-poll-finds-45-percent-of-executives-say-chatgpt-has-prompted-an-increase-in-ai-investment (last visited June 30, 2023). [2]McKinsey, The economic potential of generative AI: The next productivity frontier (June 14, 2023), https://www.mckinsey.com/capabilities/mckinsey-digital/our-insights/the-economic-potential-of-generative-AI-the-next-productivity-frontier#introduction (last visited June 30, 2023). [3]Gartner, supra note 1. [4]Zoe Kleinman, Philippa Wain & Ashleigh Swan, Using AI for loans and mortgages is big risk, warns EU boss (June 14, 2023), https://www.bbc.com/news/technology-65881389 (last visited June 30, 2023). [5]Ryan Browne & MacKenzie Sigalos, A.I. has a discrimination problem. In banking, the consequences can be severe (June 23, 2023), https://www.cnbc.com/2023/06/23/ai-has-a-discrimination-problem-in-banking-that-can-be-devastating.html (last visited June 30, 2023). [6]Group-IB, Group-IB Discovers 100K+ Compromised ChatGPT Accounts on Dark Web Marketplaces; Asia-Pacific region tops the list (June 20, 2023), https://www.group-ib.com/media-center/press-releases/stealers-chatgpt-credentials/ (last visited June 30, 2023). [7]OpenAI, March 20 ChatGPT outage: Here’s what happened (Mar. 24, 2023),https://openai.com/blog/march-20-chatgpt-outage (last visited June 30, 2023).

TOP