美國平等就業機會委員會(Equal Employment Opportunity Commission, EEOC)於2023年5月18日發布「根據 1964 年《民權法》第七章評估就業篩選程序中使用軟體、演算法和AI之不利影響」(Assessing Adverse Impact in Software, Algorithms, and Artificial Intelligence Used in Employment Selection Procedures Under Title VII of the Civil Rights Act of 1964)之技術輔助文件(下簡稱「技術輔助文件」),以防止雇主使用自動化系統(automated systems)對求職者及員工做出歧視決定。
該技術輔助文件為EEOC於2021年推動「AI與演算法公平倡議」(Artificial Intelligence and Algorithmic Fairness Initiative)計畫的成果之一,旨在確保招募或其他就業決策軟體符合民權法要求,並根據EEOC 1978年公布之「受僱人篩選程序統一指引」(Uniform Guidelines on Employee Selection Procedures, UGESP),說明雇主將自動化系統納入就業決策所應注意事項。
當雇主對求職者與員工做出是否僱用、晉升、終止僱傭,或採取類似行動之決定,是透過演算法決策工具(algorithmic decision-making tool),對特定種族、膚色、宗教、性別、國籍或特定特徵組合(如亞洲女性),做出篩選並產生不利影響時,除非雇主能證明該決策與職位工作內容有關並符合業務需求,且無其他替代方案,否則此決策將違反《民權法》第七章規定。
針對如何評估不利影響,雇主得依UGESP「五分之四法則」(four-fifths rule),初步判斷演算法決策工具是否對某些族群產生顯著較低的篩選率。惟EEOC提醒五分之四法則推導出之篩選率差異較高時,仍有可能導致不利影響,雇主應依個案考量,使用實務常見的「統計顯著性」(statistical significance)等方法進一步判斷。
其次,當演算法決策工具係由外部供應商所開發,或由雇主授權管理人管理時,雇主不得以信賴供應商或管理人陳述為由規避《民權法》第七章,其仍應為供應商開發與管理人管理演算法決策工具所產生之歧視結果負責。
最後,EEOC鼓勵雇主應對演算法決策工具進行持續性自我評估,若發現該工具將產生不利影響,雇主得採取措施以減少不利影響或選擇不同工具,以避免違反《民權法》第七章。
英國氣候過渡計畫工作小組(Transition Plan Taskforce, TPT)在2022年11月8日公布其氣候揭露報告框架草案(Disclosure Reporting Framework)、實施指南,以及技術性附錄,用以輔導英國企業擬定氣候過渡計畫,並在技術性附錄中提供與氣候揭露相關的指標與準則等詳細資訊,供企業參考。 氣候過渡計畫是英國淨零政策相當重要的一環。英國財政部長於2021年COP26大會上宣布成立工作小組,研擬氣候過渡計畫的規範,要求英國企業公布清晰且可交付的計畫,英國財政部在2022年4月宣布TPT成立,負責建立一套英國適用、並且可與其它國際準則進行轉換的氣候過渡計畫準則。TPT根據氣候相關財務揭露工作小組(Task Force on Climate-related Financial Disclosures, TFCD)、國際永續準則理事會(International Sustainability Standards Board, ISSB)、及格拉斯哥淨零金融聯盟(the Glasgow Financial Alliance for Net Zero, GFANZ)等現有成果,另增若干細節,在2022年11月提出此一框架草案及指南等文件。 TPT框架建議企業以企圖心、行動力和當責性為原則,分階段設定過渡計畫目標。而企業的氣候揭露應包括五大項目:基礎事項(如企業目標)、執行策略(如企業營運)、擴大參與策略(如與價值鏈的連結)、使用的指標與目標(如財務指標)以及治理(如董事會的監督與報告),這些在實施指南中都有詳細的說明。 TPT框架自公布起即公開徵求各界意見至2023年2月28日,並廣邀各界就其內容進行測試,提供意見反饋,這些都將供作TPT修訂框架之參考,預計2023年完成草案的最終版本。TPT的文件雖不具法律效力,但是其內容將成為英國金融行為管理局(Financial Conduct Authority, FCA)未來修訂上市公司及金融機構相關氣候過渡計畫揭露規則時的依據,其後續發展值得關注。
日本創設搭載遠距型系統自駕車基準緩和認定制度日本國土交通省於2017年2月修正《道路運輸車輛安全基準》第55條第1項、第56條第1項及第57條第1項規定之告示,放寬車輛安全基準規定,期望自動駕駛實驗能順利展開。惟在各種自動駕駛實驗中,遠距型自動駕駛系統是透過電信通訊技術,從遠距離外操作車輛行駛,儘管修法後已放寬安全基準規定,但其仍與現行以車內有駕駛為前提而訂定之《道路運輸車輛安全基準》相距甚遠,想一律判斷其符合安全基準有所困難。據此,為使遠距型自駕系統道路實驗能夠順利進行,國土交通省於2018年3月30日創設「搭載遠距型系統自駕車基準緩和認定制度」,明確規定遠距型自駕系統實施道路實驗所需各項手續。 「搭載遠距型系統自駕車基準緩和認定制度」規定項目包括︰申請放寬基準之對象、申請者、申請書及繳交文件、審查項目、條件及限制、基準放寬之認定、車體標示、行政處分等。
世界智財組織尋求保護來自傳統知識與遺傳資源的產品長久以來國際藥廠從大量販售的藥物中獲取上億元的營收,例如抗癌藥物與抗瘧藥物,均是萃取自中國的草本植物,但是這些擁有藥物傳統知識與遺傳資源的族群部落(the community),卻只得到相對微薄的報酬。為此,世界智慧財產組織(The World Intellectual Property Organization)已經在過去五年中力圖達成將利益擴及到提供傳統知識與遺傳資源的族群部落。 許多先進國家到非洲、亞洲等地方蒐尋具有療效的植物後,回實驗室進行研發萃取其物質後做成藥物,但卻從來沒有主動的揭露其來源,也不曾主動的回饋其獲利給那些藥廠從中獲得藥物植物的族群部落。開發中國家已試著要去制止這非法的竊用傳統知識的行為。 但由於傳統知識是累積的,因此傳統知識的保護也面臨到如何認定其於何時已存在的困難。因此傳統的智慧財產保護體系對於不能確認個別權利人與權利標的範圍的傳統知識無法提供保護。 不過,世界智慧財產組織表示藥廠已開始關心並參與傳統知識利用的協議,因為這些投資億元於研發而已有成功結果的藥廠,並不希望他們處於一個法律上不確定的狀態。
日本發布《首席AI長指引》與《實務手冊》,強化資料來源可溯,引導企業將AI風險納入資料治理框架2026年3月1日,日本人工智慧(AI)安全研究所(Japan AI Safety Institute, J-AISI)發布《首席AI長指引 1.00版》(Chief AI Officer Guidebook (Version 1.00),下稱指引)與《首席AI長設置與AI治理實施實務手冊 1.00版》(Practical Manual for Establishing a Chief AI Officer and Implementing AI Governance (Version 1.00),下稱實務手冊)。兩份文件旨於促進AI時代下的永續企業經營(sustainable business operations),提升產品與服務品質、建立客戶與使用者的信任。 一、指引與實務手冊概覽 指引內容包含設立「首席AI長」(Chief AI Officer, CAIO)職位之目的、職責。實務手冊內容則進一步指出一種組織模式,其中首席AI長為獨立的高階主管,直接向執行長匯報,並在首席AI長下設立AI治理辦公室,以及建議設立一個「跨部門AI指導委員會(Company-wide AI Steering Committee)」,成員包括首席AI長、首席資料長、首席資訊長、首席技術官、首席資訊安全官、法律合規部門、資料保護官、人力資源部門以及關鍵業務部門。各業務部門與系統所有者應依照既有標準運作,並向人工智慧治理辦公室和資料治理組織提供必要資訊。 二、將AI特定風險納入資料治理框架:降低幻覺與偏見之具體作法 在AI系統的生命週期中,資料品質影響決定模型效能、可解釋應與透明度。 首席AI長的職責為整合AI、資料與技術策略,於確保企業信任與風險管理之基礎下,驅動企業創新與數位轉型,並最大程度提升企業價值。因此,首席AI長應與首席資料長、法務部門協調,規範資料的生命週期、設定品質指標(Quality Metrics),並嚴格核實第三方素材授權(licenses for third-party materials)。 以下介紹文件建議之AI資料生命週期(資料蒐集)之管理作法: (一)區分資料用途:針對每個使用案例與模型,區分(1)AI模型訓練用資料;(2)AI訓練完成後,用於驗證與評測模型產出品質的評估資料(evaluation data),此類資料不參與模型的優化調整,僅客觀確認模型的準確度;(3)於AI模型運行過程中,使用者輸入的資料(data entered during inference),包含提示詞、上傳的文件及系統日誌(Logs)。 (二)資料分類:企業應依資料機敏程度進行分類,如機密、個資、內部及公開資訊等分類,以便加以定義資料之蒐集方式、儲存方式、資料遮罩要求(masking requirement,包含去識別化),以及控管資料傳輸至外部AI服務之權限。 (三)落實可追溯性與透明度文件:應透過實務手冊18.3之資料表(Datasheets)進行標準化記錄,包含 1. 基本資訊,如資料及名稱與版本;資料所有者;資料建立日期、最後更新日期等。 2. 目的與使用範圍,如資料集的用於訓練、評估、優化等;資料使用範圍限內部,或可對外提供等。 3. 組成與範圍,如記錄資料筆數與特徵概況;目標期間、區域與族群,如年齡、產業;資料格式,如文字/影像/音訊等。 4. 資料來源與蒐集方法,包含資料來源(內部系統、客戶提供的資料、公開資料、供應商提供的資料等);資料蒐集方法(日誌、調查、網路爬蟲等);是否取得資料主體同意等。 5. 資料品質與預處理(preprocessing),包含:紀錄去識別化等資料轉換流程;規範資料標記之品質管理機制。 6. 代表性與偏見,如列出AI預期使用情境與目標客群的一致性;特定性別、年齡、地區是否存在代表性不足的偏差等。 7. 隱私與法源依據,如資料是否包含個人資料或敏感資訊;資料處理之法律依據,如資料主體同意、契約等;採取之隱私保護措施,如去識別化等。 8. 授權、權利與資料反覆使用之條件:使用條件,如授權條款、是否允許商業使用等。 9. 安全性與存取控制:儲存位置,如資料中心、雲端或本地以及是否加密;資料之存取權限,如控管檢視、編輯、匯出等權限。 10. 資料保存與銷毀:記錄訓練資料、評估資料、輸入資料等不同類型資料之儲存期限,並規定如儲存期限過後,需以不可回復之方式銷毀資料,或必要時,應匿名後歸檔等規定。 三、接軌國內實務:企業可參考EDGS規範健全AI風險管理需求 面對AI資料生命週期管理,建議我國企業可參考資策會科法所創意智財中心發布之《重要數位資料治理暨管理制度規範(EDGS)》。EDGS同樣強調數位資料歷程管理,從資料生成、保護到維護的管理流程,有效強化資料的完整性。透過導入EDGS,企業不僅能提升內部創新、數位轉型,更能在面對AI糾紛時,提供歷程紀錄,從源頭端落實首席AI長所要求的循證治理目標。 本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。 本文同步刊登於TIPS網站(https://www.tips.org.tw)