美國平等就業機會委員會發布「評估就業篩選程序中使用軟體、演算法及AI之不利影響」技術輔助文件

美國平等就業機會委員會(Equal Employment Opportunity Commission, EEOC)於2023年5月18日發布「根據 1964 年《民權法》第七章評估就業篩選程序中使用軟體、演算法和AI之不利影響」(Assessing Adverse Impact in Software, Algorithms, and Artificial Intelligence Used in Employment Selection Procedures Under Title VII of the Civil Rights Act of 1964)之技術輔助文件(下簡稱「技術輔助文件」),以防止雇主使用自動化系統(automated systems)對求職者及員工做出歧視決定。

該技術輔助文件為EEOC於2021年推動「AI與演算法公平倡議」(Artificial Intelligence and Algorithmic Fairness Initiative)計畫的成果之一,旨在確保招募或其他就業決策軟體符合民權法要求,並根據EEOC 1978年公布之「受僱人篩選程序統一指引」(Uniform Guidelines on Employee Selection Procedures, UGESP),說明雇主將自動化系統納入就業決策所應注意事項。

當雇主對求職者與員工做出是否僱用、晉升、終止僱傭,或採取類似行動之決定,是透過演算法決策工具(algorithmic decision-making tool),對特定種族、膚色、宗教、性別、國籍或特定特徵組合(如亞洲女性),做出篩選並產生不利影響時,除非雇主能證明該決策與職位工作內容有關並符合業務需求,且無其他替代方案,否則此決策將違反《民權法》第七章規定。

針對如何評估不利影響,雇主得依UGESP「五分之四法則」(four-fifths rule),初步判斷演算法決策工具是否對某些族群產生顯著較低的篩選率。惟EEOC提醒五分之四法則推導出之篩選率差異較高時,仍有可能導致不利影響,雇主應依個案考量,使用實務常見的「統計顯著性」(statistical significance)等方法進一步判斷。

其次,當演算法決策工具係由外部供應商所開發,或由雇主授權管理人管理時,雇主不得以信賴供應商或管理人陳述為由規避《民權法》第七章,其仍應為供應商開發與管理人管理演算法決策工具所產生之歧視結果負責。

最後,EEOC鼓勵雇主應對演算法決策工具進行持續性自我評估,若發現該工具將產生不利影響,雇主得採取措施以減少不利影響或選擇不同工具,以避免違反《民權法》第七章。

相關連結
※ 美國平等就業機會委員會發布「評估就業篩選程序中使用軟體、演算法及AI之不利影響」技術輔助文件, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=9036&no=55&tp=1 (最後瀏覽日:2025/12/08)
引註此篇文章
你可能還會想看
日本健康保險擴大遠距醫療適用對象並提高支付標準

  日本厚生勞動省對於利用電話、視訊等資通訊機器所為之遠距醫療,因應明年修正健康保險診療報酬,提高遠距醫療服務給付項目及支付標準,為了明確適用健康保險之相關要件與規定,成立研究委員會以作成相關適用指引。隨著資通訊技術發展,利用資通訊機器所為之遠距醫療漸漸普及。在擔保醫療之安全性、必要性及有效性下,為了更進一步普及並推進適當之診療,有必要整備相關法令規定。厚生勞動省於11月設置研究委員會,預定在2018年3月底前訂定「遠距醫療適用指引(情報通信機器を用いた診療に関するガイドライン)」。   日本1948年制定之醫師法第20條規定醫師非親自診療,不得為治療等行為。此一規定迄今未修正,遠距醫療並非當時所能想像與規範。目前,厚生勞動省以函釋通知方式,對於該條之適用為相關通知與事務聯絡,以擴大遠距醫療適用之可能性。厚生勞動省於1997年第一次發出之通知(平成9年12月24日健政發第1057號厚生省健康政策局長通知),對於遠距醫療與醫師法第20條的適用關係提出基本見解,認為醫師法第20條親自診療原則規定,不一定等於直接見面診療,以代替方式而對於病患身心狀況得以獲得有用資訊下,使用遠距醫療並非違反本條親自診療規定。在本號通知「留意事項」中,對於遠距醫療之適用對象地區與病患,有以下規定:1. 初診原則上必須為面對面診療;2.直接面對面診療有困難之離島及偏遠地區;3. 對於病況穩定之病患,在確保緊急對應處理及聯絡體制下,以「別表」列舉適用之慢性疾病(例如:居家氧氣治療病患)為對象。但是本來只是例式規定的「非初診」「離島及偏遠地區」、「特定慢性疾病」,卻被解釋成限定列舉規定,導致遠距醫療適用範圍非常狹窄,變成原則禁止之情形。   直至2015厚生勞動省再發出通知(平成27年8月10日厚生勞動省事務連絡),明確非初診、離島及偏遠地區、「別表」所列舉之慢性疾病等,僅是例式規定,對象地區及病患不限於此,以及就算是初診,直接為親自診療有困難時,基於病患要求下充分考量病患有利條件下,依據醫師之判斷,活用各種可能之工具,結合社交網路服務(SNS)、視訊影像以及電子郵件等方式組合而為適當之遠距醫療。於「別表」列舉遠距醫療之九種病患對象為,居家氧氣治療病患、居家罕見疾病病患、居家糖尿病患、居家氣喘病患、居家高血壓病患、居家過敏性皮膚炎病患、褥瘡居家療養病患、居家腦血管病患以及居家癌症病患等。   2015年通知使得遠距醫療之適用對象範圍大為擴大,因此日本醫療院所積極整備資通訊設備環境。同時,厚生勞動省在2017年底提出之2018年度福祉預算中,明確修正健康保險診療報酬,提高遠距醫療之醫療服務給付項目與支付標準,使得利用遠距醫療為診療服務之利益大為提高,更加速提高遠距醫療之利用可能性。惟,前述2015年通知之內容,對於適用對象與診療內容,尚有不明確之處,因此邀集醫療、法學、遠距醫療專門等12名專家成立研究委員會,以訂定明確適用規則,防止未來對於病患造成不利益之判斷。

美國公布「保護資通訊技術與服務供應鏈安全」行政命令

  美國總統川普於2019年5月依據「國際緊急經濟權力法」(International Emergency Economic Powers Act, IEEPA)之授權,訂定「保護資通訊技術與服務供應鏈安全」行政命令(Executive Order on Securing the Information and Communications Technology and Services Supply Chain)。目的係為避免因具有競爭關係之外國政府或機構,利用其設計、開發或製造之資通訊技術或相關服務之資安漏洞進行資料竊取或網路攻擊等行為。   川普總統認為,如未能對於相關之資通訊技術、產品或服務進行管制,將有提升美國資安風險之疑慮,進而對美國之國家安全、外交政策及經濟構成威脅,故應針對具有競爭關係之外國政府或機構所提供的相關資訊與通訊技術或服務,進行下列相關之措施: 禁止美國境內之相關單位(包含合夥、協會、信託等機構、合資企業、公司、集團或其他組織)取得、進口、轉讓、安裝、交易或使用具有資安風險而由競爭關係之外國政府或機構所擁有、控制、設計、開發、製造或供應的資通訊技術或服務。 授權由商務部長訂定具有競爭關係之外國政府或機構、資通訊技術或服務及上述禁止措施之相關認定標準及程序。 商務部長應與國務卿向國會提交本命令之經常性及最終報告;而國家情報總監及國土安全部,則應持續針對美國所面臨之相關風險威脅進行定期之識別與評估,並將評估內容提交予總統。

G7第四屆資料保護與隱私圓桌會議揭示隱私保護新趨勢

G7第四屆資料保護與隱私圓桌會議揭示隱私保護新趨勢 資訊工業策進會科技法律研究所 2025年03月10日 七大工業國組織(Group of Seven,下稱G7)於2024年10月10日至11日在義大利羅馬舉辦第四屆資料保護與隱私機構圓桌會議(Data Protection and Privacy Authorities Roundtable,下稱圓桌會議),並發布「G7 DPAs公報:資料時代的隱私」(G7 DPAs’ Communiqué: Privacy in the age of data,下稱公報)[1],特別聚焦於人工智慧(AI)技術對隱私與資料保護的影響。 壹、緣起 由美國、德國、英國、法國、義大利、加拿大與日本的隱私主管機關(Data Protection and Privacy Authorities, DPAs)組成本次圓桌會議,針對數位社會中資料保護與隱私相關議題進行討論,涵蓋「基於信任的資料自由流通」(Data Free Flow with Trust, DFFT)、新興技術(Emerging technologies)、跨境執法合作(Enforcement cooperation)等三大議題。 本次公報重申,在資通訊技術主導的社會發展背景下,應以高標準來審視資料隱私,從而保障個人權益。而DPAs作為AI治理領域的關鍵角色,應確保AI技術的開發和應用既有效且負責任,同時在促進大眾對於涉及隱私與資料保護的AI技術認識與理解方面發揮重要作用[2]。此外,公報亦強調DPAs與歐盟理事會(Council of Europe, CoE)、經濟合作暨發展組織(Organisation for Economic Co-operation and Development, OECD)、亞太隱私機構(Asia Pacific Privacy Authorities, APPA)、全球隱私執行網路(Global Privacy Enforcement Network, GPEN)及全球隱私大會(Global Privacy Assembly, GPA)等國際論壇合作的重要性,並期望在推動資料保護與建立可信賴的AI技術方面作出貢獻[3]。 貳、重點說明 基於上述公報意旨,本次圓桌會議上通過《關於促進可信賴AI的資料保護機構角色的聲明》(Statement on the Role of Data Protection Authorities in Fostering Trustworthy AI)[4]、《關於AI與兒童的聲明》(Statement on AI and Children)[5]、《從跨國角度觀察降低可識別性:G7司法管轄區對匿名化、假名化與去識別化的法定及政策定義》(Reducing identifiability in cross-national perspective: Statutory and policy definitions for anonymization, pseudonymization, and de-identification in G7 jurisdictions)[6],分別說明重點如下: 一、《關於促進可信賴AI的資料保護機構角色的聲明》 繼2023年第三屆圓桌會議通過《關於生成式AI聲明》(Statement on Generative AI)[7]後,本次圓桌會議再次通過《關於促進可信賴AI的資料保護機構角色的聲明》,旨在確立管理AI技術對資料保護與隱私風險的基本原則。G7 DPAs強調許多AI技術依賴個人資料的運用,這可能引發對個人偏見及歧視、不公平等問題。此外,本聲明中還表達了擔憂對這些問題可能透過深度偽造(Deepfake)技術及假訊息擴散,進一步對社會造成更廣泛的不良影響[8]。 基於上述考量,本聲明提出以下原則,納入G7 DPAs組織管理的核心方針[9]: 1. 以人為本的方法:G7 DPAs應透過資料保護來維護個人權利與自由,並在AI技術中提供以人權為核心的觀點。 2. 現有原則的適用:G7 DPAs應審視公平性、問責性、透明性和安全性等AI治理的核心原則,並確保其適用於AI相關框架。 3. AI核心要素的監督:G7 DPAs應從專業視角出發,監督AI的開發與運作,確保其符合負責任的標準,並有效保護個人資料。 4. 問題根源的因應:G7 DPAs應在AI的開發階段(上游)和應用階段(下游)找出問題,並在問題擴大影響前採取適當措施加以解決。 5. 善用經驗:G7 DPAs應充分利用其在資料領域的豐富經驗,謹慎且有效地應對AI相關挑戰。 二、《關於AI與兒童的聲明》 鑒於AI技術發展可能對於兒童和青少年產生重大影響,G7 DPAs發布本聲明表示,由於兒童和青少年的發展階段及其對於數位隱私的瞭解、生活經驗有限,DPAs應密切監控AI對兒童和青少年的資料保護、隱私權及自由可能造成的影響程度,並透過執法、制定適合年齡的設計實務守則,以及發佈面向兒童和青少年隱私權保護實務指南,以避免AI技術導致潛在侵害兒童和青少年隱私的行為[10]。 本聲明進一步闡述,當前及潛在侵害的風險包含[11]: 1. 基於AI的決策(AI-based decision making):因AI運用透明度不足,可能使兒童及其照顧者無法獲得充足資訊,以瞭解其可能造成重大影響的決策。 2. 操縱與欺騙(Manipulation and deception):AI工具可能具有操縱性、欺騙性或能夠危害使用者情緒狀態,促使個人採取可能危害自身利益的行動。例如導入AI的玩具可能使兒童難以分辨或質疑。 3. AI模型的訓練(Training of AI models):蒐集和使用兒童個人資料來訓練AI模型,包括從公開來源爬取或透過連線裝置擷取資料,可能對兒童的隱私權造成嚴重侵害。 三、《從跨國角度觀察降低可識別性:G7司法管轄區對匿名化、假名化與去識別化的法定及政策定義》 考慮到個人資料匿名化、假名化及去識別化能促進資料的創新利用,有助於最大限度地減少隱私風險,本文件旨在整合G7成員國對於匿名化、假名化與去識別化的一致理解,針對必須降低可識別性的程度、資訊可用於識別個人的程度、減少可識別性的規定流程及技術、所產生的資訊是否被視為個人資料等要件進行整理,總結如下: 1. 去識別化(De-identification):加拿大擬議《消費者隱私保護法》(Consumer Privacy Protection Act, CPPA)、英國《2018年資料保護法》(Data Protection Act 2018, DPA)及美國《健康保險可攜性及責任法》(Health Insurance Portability and Accountability Act , HIPAA)均有去識別化相關規範。關於降低可識別性的程度,加拿大CPPA、英國DPA規定去識別化資料必須達到無法直接識別特定個人的程度;美國HIPAA則規定去識別化資料須達到無法直接或間接識別特定個人的程度。再者,關於資料去識別化的定性,加拿大CPPA、英國DPA認定去識別化資料仍被視為個人資料,然而美國HIPAA則認定去識別化資料不屬於個人資料範疇。由此可見,各國對去識別化規定仍存在顯著差異[12]。 2. 假名化(Pseudonymization):歐盟《一般資料保護規則》(General Data Protection Regulation, GDPR)及英國《一般資料保護規則》(UK GDPR)、日本《個人資料保護法》(個人情報の保護に関する法律)均有假名化相關規範。關於降低可識別性的程度,均要求假名化資料在不使用額外資訊的情況下,須達到無法直接識別特定個人的程度,但額外資訊應與假名化資料分開存放,並採取相應技術與組織措施,以確保無法重新識別特定個人,因此假名化資料仍被視為個人資料。而關於假名化程序,日本個資法明定應刪除或替換個人資料中可識別描述或符號,歐盟及英國GDPR雖未明定具體程序,但通常被認為採用類似程序[13]。 3. 匿名化(Anonymization):歐盟及英國GDPR、日本個資法及加拿大CPPA均有匿名化相關規範。關於降低可識別性的程度,均要求匿名化資料無法直接或間接識別特定個人,惟可識別性的門檻存在些微差異,如歐盟及英國GDPR要求考慮控管者或其他人「合理可能用於」識別個人的所有方式;日本個資法則規定匿名化資料之處理過程必須符合法規標準且不可逆轉。再者,上述法規均將匿名化資料視為非屬於個人資料,但仍禁止用於重新識別特定個人[14]。 參、事件評析 本次圓桌會議上發布《關於促進可信賴AI的資料保護機構角色的聲明》、《關於AI與兒童的聲明》,彰顯G7 DPAs在推動AI治理原則方面的企圖,強調在AI技術蓬勃發展的背景下,隱私保護與兒童權益應成為優先關注的議題。與此同時,我國在2024年7月15日預告《人工智慧基本法》草案,展現對AI治理的高度重視,融合美國鼓勵創新、歐盟保障人權的思維,針對AI技術的應用提出永續發展、人類自主、隱私保護、資訊安全、透明可解釋、公平不歧視、問責等七項原則,為國內AI產業與應用發展奠定穩固基礎。 此外,本次圓桌會議所發布《從跨國角度觀察降低可識別性:G7司法管轄區對匿名化、假名化與去識別化的法定及政策定義》,揭示各國在降低可識別性相關用語定義及其在資料保護與隱私框架中的定位存在差異。隨著降低可識別性的方法與技術不斷創新,這一領域的監管挑戰日益突顯,也為跨境資料流動越發頻繁的國際環境提供了深化協調合作的契機。在全球日益關注資料保護與隱私的趨勢下,我國個人資料保護委員會籌備處於2024年12月20日公告《個人資料保護法》修正草案,要求民間業者設置個人資料保護長及稽核人員、強化事故通報義務,並針對高風險行業優先實施行政檢查等規定,以提升我國在數位時代的個資保護水準。 最後,本次圓桌會議尚訂定《2024/2025年行動計畫》(G7 Data Protection and Privacy Authorities’ Action Plan)[15],圍繞DFFT、新興技術與跨境執法合作三大議題,並持續推動相關工作。然而,該行動計畫更接近於一項「基於共識的宣言」,主要呼籲各國及相關機構持續努力,而非設定具有強制力或明確期限的成果目標。G7 DPAs如何應對數位社會中的資料隱私挑戰,並建立更順暢且可信的國際資料流通機制,將成為未來關注的焦點。在全球共同面臨AI快速發展所帶來的機遇與挑戰之際,我國更應持續關注國際趨勢,結合自身需求制訂相關法規以完善相關法制,並積極推動國際合作以確保國內產業發展銜接國際標準。 [1]Office of the Privacy Commissioner of Canada [OPC], G7 DPAs’ Communiqué: Privacy in the age of data (2024), https://www.priv.gc.ca/en/opc-news/news-and-announcements/2024/communique-g7_241011/ (last visited Feb 3, 2025). [2]Id. at para. 5. [3]Id. at para. 7-9. [4]Office of the Privacy Commissioner of Canada [OPC], Statement on the Role of Data Protection Authorities in Fostering Trustworthy AI (2024), https://www.priv.gc.ca/en/opc-news/speeches-and-statements/2024/s-d_g7_20241011_ai/ (last visited Feb 3, 2025). [5]Office of the Privacy Commissioner of Canada [OPC], Statement on AI and Children (2024), https://www.priv.gc.ca/en/opc-news/speeches-and-statements/2024/s-d_g7_20241011_child-ai/ (last visited Feb 3, 2025). [6]Office of the Privacy Commissioner of Canada [OPC], Reducing identifiability in cross-national perspective: Statutory and policy definitions for anonymization, pseudonymization, and de-identification in G7 jurisdictions (2024), https://www.priv.gc.ca/en/opc-news/news-and-announcements/2024/de-id_20241011/ (last visited Feb 3, 2025). [7]Office of the Privacy Commissioner of Canada [OPC], Statement on Generative AI (2023), https://www.priv.gc.ca/en/opc-news/speeches-and-statements/2023/s-d_20230621_g7/ (last visited Feb 3, 2025). [8]Supra note 4, at para. 11. [9]Supra note 4, at para. 18. [10]Supra note 5, at para. 5-6. [11]Supra note 5, at para. 7. [12]Supra note 6, at para. 11-15. [13]Supra note 6, at para. 16-19. [14]Supra note 6, at para. 20-25. [15]Office of the Privacy Commissioner of Canada [OPC], G7 Data Protection and Privacy Authorities’ Action Plan (2024), https://www.priv.gc.ca/en/opc-news/news-and-announcements/2024/ap-g7_241011/ (last visited Feb 3, 2025).

網路業者呼籲美國政府進行電子通訊隱私法之修正

  以Google及微軟為首等網路業者,及名為「資訊正當法律程序」協會的數個成員,呼籲美國聯邦政府對於儲存於雲端或第三人資料儲存系統的私人電子郵件或電子資料之取得,應進行相關法律修正。   由於1986年開始施行的「電子通訊隱私法(Electronic Communications Privacy Act, ECPA)」,係立法者基於當時資通訊技術水準所制定,然近年來諸如電子郵件、雲端運算、網路社群活動及行動通訊等科技之興起,使得該法已不足因應當今狀況,故有制定更為透明、簡單且明瞭的資料取得標準之需要。尤其是現今電子資訊儲存於第三人資訊系統內情形之普遍,更讓此等資訊取得行為是否適用該法,產生相當的模糊。   此等模糊性,讓現今的司法部門認為僅需使用傳票(subpoena)或取得法院命令(court order),便可要求第三人提供客戶的資料。但是,上述這些團體希望政府應修正既有法律以與現時社會相符,確保須透過更為嚴謹的程序,始能要求第三人提供客戶的私人資訊,例如需申請「令狀」(warrant)。蓋因資料儲存於私人電腦內,需透過令狀以命其揭露,而若儲存於第三人處,理論上亦應該透過令狀以命第三人揭露該等資訊;再者,「美國人權法案(Bill of rights )」要求政府機關除非具特定理由,否則不得對他人住宅進行無搜索令之搜索,同樣的,在電腦資訊之取得,亦不應降低保護人民之標準。 該團體揭示之四項標準為: .政府僅能在出示正當理由,並取得搜索令(search warrant)的情況下,才能對任何受ECPA規範的實體(無線或電子通訊服務的提供者,或遠端電腦服務提供者)要求揭露未能輕易由公眾取得之資訊。且不受通訊時代,儲存工具及狀態,或提供者的權限及其通常商業活動的通訊使用所影響。 .政府僅能在獲得具有正當理由之搜索令下,才得要求任何受ECPA規範的實體,提供行動通訊裝置的地點資訊。 .政府僅能在獲得司法審查,及透過法院認為其已具備第2703(d)條之情形,才能要求任何受ECPA規範的實體提供撥打電話號碼的資訊,往來電子郵件、及該實體藉由電子記錄器和追蹤設備所記錄的資訊或數據。 .政府單位經「Stored Communications Act」之授權取得傳票,其取得資訊之範圍僅得針對特定帳號或個人。其他非特定的要求,皆須司法同意後始得進行。

TOP