美國勞工部發布「人工智慧及勞工福祉:開發人員與雇主的原則暨最佳實務」文件,要為雇主和員工創造雙贏

美國勞工部(Department of Labor)於2024年10月發布「人工智慧及勞工福祉:開發人員與雇主的原則暨最佳實務」(Artificial Intelligence and Worker Well-Being: Principles and Best Practices for Developers and Employers)參考文件(下稱本文件)。本文件係勞工部回應拜登總統2023年在其《AI安全行政命令》(Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence)中對勞工的承諾,作為行政命令中承諾的一部分,本文件為開發人員和雇主制定如何利用人工智慧技術開展業務的路線圖,同時確保勞工可從人工智慧創造的新機會中受益,並免受其潛在危害。

本文件以八項AI原則為基礎,提出最佳實踐作法,其重點如下。

1. 賦予勞工參與權(empowering workers):開發人員和雇主履行各項原則時,應該秉持「賦予勞工參與權」的精神,並且將勞工的經驗與意見納入AI系統整個生命週期各環節的活動中。

2. 以合乎倫理的方式開發AI系統:開發人員應為AI系統建立標準,以利進行AI系統影響評估與稽核,保護勞工安全及權益,確保AI系統性能符合預期。

3. 建立AI治理和人類監督:組織應有明確的治理計畫,包括對AI系統的人類監督機制與定期評估流程。

4. 確保AI使用透明:雇主應事先告知員工或求職者關於AI系統之使用、使用目的及可能影響。雇主及開發人員應共同確保以清晰易懂的方式公開說明AI系統將如何蒐集、儲存及使用勞工的個資。

5. 保護勞工和就業權利:雇主使用AI系統時,除應保障其健康與安全外,不得侵犯或損害勞工的組織權、法定工資和工時等權利。

6. 使用AI以提升勞工技能(Enable Workers):雇主應先了解AI系統如何協助勞工提高工作品質、所需技能、工作機會和風險,再決定採用AI系統。

7. 支援受AI影響的勞工:雇主應為受AI影響的勞工提供AI技能和其他職能培訓,必要時應提供組織內的其它工作機會。

8. 負責任使用勞工個資:開發人員和雇主應盡責保護和處理AI系統所蒐集、使用的勞工個資。

相關連結
※ 美國勞工部發布「人工智慧及勞工福祉:開發人員與雇主的原則暨最佳實務」文件,要為雇主和員工創造雙贏, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=9287&no=57&tp=1 (最後瀏覽日:2026/05/17)
引註此篇文章
你可能還會想看
時尚奢華品牌-Gucci與服飾品牌-Guess間之商標戰爭

  Gucci America, Inc. (Gucci) 於2009年對Guess?, Inc. (Guess)提出商標侵權訴訟,美國聯邦地方法院(United States District Court, SDNY)於2012年5月在無陪審團審判的結果下,判定Guess禁止使用「紅-綠條紋」、「G字菱形圖」、及「環環相扣的G圖」等三項商標,並須賠償Gucci 466萬美元之損害賠償。   緣,Gucci聲明Guess係惡意侵害及仿冒Gucci的商標設計,企圖造成消費者的混淆誤認,並淡化Gucci的商標權,故針對「紅-綠條紋」、「G字菱形」、「環環相扣的G圖形」、及「手寫Guess logo」等商標設計聲明其禁止銷售、販賣及使用,並主張因Guess的惡意仿冒,請求1.2億美元的損害賠償。   Guess於訴訟過程中提出抗辯,(1) Guess無理由仿冒Gucci的商標、 (2) Gucci至少超過七年以上放任Guess使用其所聲稱的Gucci商標設計且未提出訴訟;此外,(3) 消費者並不會將Guess的產品與Gucci的產品誤認,因Guess與Gucci所訴求的客戶市場並不相同。   Scheindlin法官於裁定書中敘明,Gucci無法直接證明因Guess之商標侵害造成其品牌上的極大損害,故最終損害賠償金額僅判定466萬美元 。   本案之法院結果將影響其他時尚品牌之商標或產品外觀近似的侵權案件。

虛擬人生,真實訴訟! 美商藝電EA控告社交遊戲公司Zynga侵犯著作權;Zynga控告EA不正競爭。

  美商藝電EA(Electronic Arts)於今年八月初在舊金山地方法院控告以社群遊戲著稱的Zynga於六月在Facebook所推出的遊戲《The Ville》抄襲EA於2011年八月推出的「模擬市民(The Sims Social)」,侵犯EA的著作權。EA表示,The Ville中的設計選項、動畫、畫面處理、角色的活動及動作都原封不動地抄襲自EA的「模擬市民(The Sims Social)」。EA聲稱,Zynga抄襲了「模擬市民(The Sims Social)」原始並特殊的表達要素(original and distinctive expressive elements),明顯違反美國的著作權法。EA並表示,Zynga任用了三位自EA離職的員工而獲取了「模擬市民(The Sims Social)」的商業機密。Zynga則反譏EA欠缺對於著作權原則的了解,並表示《The Ville》是Zynga小鎮遊戲(Ville-game)系列的延續,過去曾推出的系列遊戲包含《YoVille》、《CityVille》以及《Castile Ville》,EA的指控毫無根據。     雖然《The Ville》與「模擬市民(The Sims Social)」兩者在遊戲的角色設定以及角色圖樣跟背景有諸多相似,但是Zynga在細節上做了許多與EA不同的設定。本案如果有效成立,將對於遊戲產業造成顯著影響。     美國法下,遊戲產業的智慧財產權議題中,一個重要的法律關鍵在於「思想/表達二分法(idea/expression dichotomy) ,「思想(idea)」並非著作權的保護客體,僅想法的表達方式(expression)是著作權的保護客體。舉例而言,你可以再寫一本有關於魔法學校的書,但是你不可以把書中的主要角色命名為哈利波特。      1994年時,快打旋風二(Street Fighter II)的發行商嘉富康(Capcom)控告DECO(Data East Corporation)的格鬥列傳(Fighter’s History)抄襲,但是法院認為嘉富康遊戲的角色是植基於既存典型角色以及武術原則,DECO的相似性並不侵犯快打旋風的著作權。     九月中,Zynga對EA提出反訴,控訴EA採取不正競爭(anticompetitive)以及不法(unlawfully)商業行為,違反反托拉斯法(anti-trust law)。Zynga指出,EA試圖以法律訴訟以及恐嚇離職員工的方式,非法阻止Zynga雇用EA的離職員工。Zynga指稱EA威脅Zynga將提出訴訟,要求Zynga與之簽訂「不任用協議(no-hire agreement)」,依照該協議EA將不對Zynga提出關於雇用員工的告訴以做為簽約對價。但是EA在今年八月對Zynga的著作權告訴已經打破該協議。事實上依照加州法,禁止離職員工去競爭公司任職是違法的。矽谷這類因為員工到競爭對手任職而引發的法律案件還有蘋果(Apple)以及谷歌(Google)一案,這兩家公司過去曾因為簽訂不挖角協議而遭美國司法部起訴,後來與美國司法部達成和解。EA則表示離職員工抄襲其它EA設計師,Zynga此舉意圖轉移社會及法庭注意力。除了否認EA抄襲的指控,Zynga更表示,沒有任何根據可以說明EA是虛擬人生遊戲的創始者,Zynga的《YoVille》推出時間甚至早於EA的「模擬市民(The Sims Social)」三年。     本案因為矽谷遊戲產業人才的流動性而增加了案件的複雜性,跳脫一般的著作權侵權訴訟,既然離職後到競爭對手任職是可被允許的,那麼產出類似的遊戲產品就更加難以避免,不論是基於自身的創意或者模仿過去共事同仁的創意,「學習」以及「抄襲」之間的界線總是難以劃分,如果本案成立著作權侵權,矽谷遊戲人才在開發設計遊戲時必然需要更加小心謹慎。 圖片來源: Tech Crunch

德國聯邦資訊技術,電信和新媒體協會針對AI及自動決策技術利用提出建議指南

  德國聯邦資訊技術,電信和新媒體協會於2018年2月6日在更安全的網路研討會中針對利用人工智慧及自動決策技術利用提出建議指南(Empfehlungen für den verantwortlichen Einsatz von KI und automatisierten Entscheidungen),旨在提升企業數位化與社會責任,並提升消費者權益保護。 本份指南提出六項建議: 促進企業內部及外部訂定相關準則 例如規定公司在利用演算法和AI時,必須將影響評估列入開發流程,並列為公司應遵守的道德倫理守則,以確保開發的產品或服務符合公平及道德。 提升透明度 使用者如有興趣了解演算法及其含義,企業應協助調查並了解使用者想獲知的訊息,並透過相關訊息管道提升產品及服務透明度。因此,企業應努力使演算法及其操作和含義能夠被使用者理解。此亦涉及即將實施的歐盟一般資料保護規則中的透明度義務。在機器學習或深度學習情況下,可能會增加理解性和可追溯性難度,但有助於分析流程並使其更接近人類理解的方法在科學和商業實踐中,應特別關注並進一步討論。另外,透過教育及使用說明協助及控制功能,教導消費者係建立雙方信任的重要手段。企業應在第一線中說明產品或服務中使用的手段(演算法,機器學習,AI)。除了解釋使用那些技術來改進產品和服務外,應一併解釋如何從技術控制過程中獲得相關知識以及提供那些後援支持。另外,例如透過幫助頁面,儀表板或部落格,解釋發生什麼以及如何做出某些影響深遠的自動化決策,使用戶更了解有關使用自動決策相關訊息。因此建議企業採取強制有效以建立信任的措施,使用戶理解是否及如何使用相關演算法,此可能包括使用自動化決策,使用特定資料組和使用技術的目的,亦即使用戶對演算法,機器學習或AI支持的決策有基本的了解。 為全體利益使用相關技術 人工智慧等新技術之重要性不應被低估,目前在生活和工業等眾多領域皆有廣泛應用。對於個人和集體而言,將可帶來巨大的利益,因此應該充分利用。例如,人工智慧可降低語言障礙,幫助行動不便的人可更加獨立自主生活,改善醫療診斷,提升能源供應效率,甚至是交通規劃和搜索停車位,都只是人工智慧偉大且已被使用的案例。為促進技術發展,應公平地利用其優勢並預留商業應用模式的空間,同時充分解決涉及的具體風險。產業特定的解決方案十分重要,但應兼顧受影響者的利益,並與廣大公眾利益找出妥協平衡點,且應排除不適當的歧視。建議在使用決策支持技術時,應事先檢查相關後果並與其利益比較。例如,可以在資料保護影響評估的框架進行。作為道德準則的一部分,必須確保演算法盡可能量準確地預測結果。 開發安全的資料基礎 資料係人工智慧支援決策的基礎。與人為決策者相同,資料不完整或錯誤,將導致做出錯誤的決定。因此決策系統的可靠性仍取決資料的準確性。但資料質量和資料來源始終不能追溯到源頭,如果可能的話,只有匯總或非個人資料可用於分析或分類用戶群組。因此,確切細節不可被使用或揭露。因此建議企業應考慮要使用的資料、資料的類別和在使用AI系統前仔細檢查資料使用情況,特別是在自我學習系統中資料引入的標準,並根據錯誤來源進行檢查,且儘可能全面記錄,針對個人資料部分更應謹慎處理。 解決機器偏差問題 應重視並解決所謂機器偏差和演算法選擇和模型建立領域的相關問題。解釋演算法,機器學習或AI在基層資料選擇和資料庫時所產生決策偏見相當重要,在開發預期用途的演算法時必須納入考量,對員工應針對道德影響進行培訓,並使用代表性紀錄來創建可以識別和最小化偏差的方法。企業並應該提高員工的敏感度並培訓如何解決並減少機器偏見問題,並特別注意資料饋送,以及開發用於檢測模式的內、外部測試流程。 適合個別領域的具體措施和文件 在特別需要負責的決策過程,例如在車輛的自動控制或醫療診斷中,應設計成由責任主體保留最終的決策權力,直到AI的控制品質已達到或高於所有參與者水平。對類人工智慧的信任,並非透過對方法的無條件追踪來實現,而是經過仔細測試,學習和記錄來實現

歐盟設立歐洲研究院(European Research Council)對前瞻性研究提供經費補助

  歐盟最近宣布其新設立的歐洲研究院(European Research Council, ERC),自2月底開始運作。ERC是依據歐盟第七期研發綱要計畫(Seventh Framework Programme for Research and Technological Development, FP7)下之子計畫-”理念”計畫("Ideas" programme)所設立。2006年底通過的歐盟第七期研發綱要計畫,揭示歐盟在2007至2013年間的科技研發政策、研發投入的重點領域與經費挹注情形。與PF6相較,PF7經費大幅成長,每年平均成長至少達40%,單是2013年一年,經費成長更高達75%。   ERC是第一個泛歐的經費補助機構,設立目的是為了贊助前瞻科學領域的研究活動。在設立第一年,歐盟挹注於ERC的經費即高達3億歐元,在FP7計畫的七年期間,ERC總計取得7.5 billion的經費。隨著ERC的設立,歐盟首度有了專為前瞻性研究量身訂作的經費補助運作機制,亦即交由歐洲科學界菁英,也就是由22位聲譽卓著的科學界菁英所組成的科學諮詢會(Scientific Council)自主管理,官僚系統不得對之表示意見。 歐盟希望藉由ERC的設立,促使科學界得以對最具有原創性的科學想法深入研究,以突破當前之知識界線,進而協助解決歐盟在社會、環境、經濟面所面臨之挑戰。

TOP