世界經濟論壇發布《人工智慧公平性和包容性藍圖》白皮書

  世界經濟論壇(World Economic Forum, WEF)於2022年6月29日發布《人工智慧公平性和包容性藍圖》白皮書(A Blueprint for Equity and Inclusion in Artificial Intelligence),說明在AI開發生命週期和治理生態系統中,應該如何改善公平性和強化包容性。根據全球未來人類AI理事會(Global Future Council on Artificial Intelligence for Humanity)指出,目前AI生命週期應分為兩個部分,一是管理AI使用,二是設計、開發、部署AI以滿足利益相關者需求。

  包容性AI不僅是考量技術發展中之公平性與包容性,而是需整體考量並建立包容的AI生態系統,包括(1)包容性AI基礎設施(例如運算能力、資料儲存、網路),鼓勵更多技術或非技術的人員有能力參與到AI相關工作中;(2)建立AI素養、教育及意識,例如從小開始開啟AI相關課程,讓孩子從小即可以從父母的工作、家庭、學校,甚至玩具中學習AI系統對資料和隱私的影響並進行思考,盡可能讓使其互動的人都了解AI之基礎知識,並能夠認識其可能帶來的風險與機會;(3)公平的工作環境,未來各行各業需要越來越多多元化人才,企業需拓寬與AI相關之職位,例如讓非傳統背景人員接受交叉培訓、公私協力建立夥伴關係、提高員工職場歸屬感。

  在設計包容性方面,必須考慮不同利益相關者之需求,並從設計者、開發者、監督機關等不同角度觀察。本報告將包容性AI開發及治理整個生命週期分為6個不同階段,期望在生命週期中的每個階段皆考量公平性與包容性:

1.了解問題並確定AI解決方案:釐清為何需要部署AI,並設定希望改善的目標變量(target variable),並透過制定包容性社會參與框架或行為準則,盡可能實現包容性社會參與(特別是代表性不足或受保護的族群)。

2.包容性模型設計:設計時需考慮社會和受影響的利益相關者,並多方考量各種設計決策及運用在不同情況時之公平性、健全性、全面性、可解釋性、準確性及透明度等。

3.包容性資料蒐集:透過設計健全的治理及隱私,確定更具包容性的資料蒐集路徑,以確保所建立之模型能適用到整體社會。

4.公平和包容的模型開發及測試:除多元化開發團隊及資料代表性,組織也應引進不同利益相關者進行迭代開發與測試,並招募測試組進行測試與部署,以確保測試人群能夠代表整體人類。且模型可能隨著時間發展而有變化,需以多元化指標評估與調整。

5.公平地部署受信任的AI系統,並監控社會影響:部署AI系統後仍應持續監控,並持續評估可能出現新的利益相關者或使用者,以降低因環境變化而可能產生的危害。

6.不斷循環發展的生命週期:不應以傳統重複循環過程看待AI生命週期,而是以流動、展開及演變的態度,隨時評估及調整,以因應新的挑戰及需求,透過定期紀錄及審查,隨時重塑包容性AI生態系統。

  綜上,本報告以包容性AI生態系統及生命週期概念,期望透過基礎設施、教育與培訓、公平的工作環境等,以因應未來無所不在的AI社會與生活,建立公司、政府、教育機構可以遵循的方向。

相關連結
※ 世界經濟論壇發布《人工智慧公平性和包容性藍圖》白皮書, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8890&no=57&tp=1 (最後瀏覽日:2026/01/13)
引註此篇文章
科法觀點
你可能還會想看
日本特許法有關職務發明報酬規定之新近發展趨勢

  企業或機構對於所屬研發人員所為的 職務發明 , 應該給予多少的報償才算「合理」,近年來成為日本專利制度的爭議話題之一,其中 Olympus Optical Co., Ltd. v. Shumpei Tanaka 、 Yonezawa v. Hitachi Co. Ltd. 、 Nakamura v. Nichia Chemical Co Ltd 幾件訴訟案件更受到高度矚目,引發各界對於日本特許法(即專利法)中第 35 條第 3 、 4 項相關規定之檢討與議論,進而促使日本國會於 2004 年 5 月 28 日 通過特許法修正案,並自 2005 年 4 月 1 日 正式生效。   修正後之日本特許法有關受雇人發明制度部分,修正了第 35 條第 3 項及第 4 項並新增第 5 項。第 35 條第 3 項規定,受雇人依據契約、工作規則或其他約定,同意授予雇用人關於受雇人所為發明之專利申請權、專利權或設定專用實施權時,受雇人對於雇用人有收取合理報酬之權。第 35 條第 4 項規定,依據前項所定之契約、工作規則與其他約定,訂有報酬之約定時,在該報酬之決定標準係經由受雇人與雇用人協議為之,該報酬標準係經公開,且受雇人對於計算報酬金額所表達之意見,亦被充分聽取的情形下,依據該約定所為之報酬金給付應被認為是合理的。又同條第 5 項之規定,若企業內部之契約、工作規則與其他約定,並未規定報酬金額,或雖有規定,但該規定之報酬金額被認為是不合理的,則第 3 項所規定之合理報酬金額,應權衡雇用人基於該發明所獲得之利益、所承受之負擔及對該發明所做之貢獻,與受雇人在相關發明中所獲得之利益及其他相關因素加以認定之。   上述修正規定最大的特色在於 :(一)尊重自主協議 ; (二)報酬計算要件更加具體化 ; (三)鼓勵裁判外紛爭解決手段 。新修正之受雇人制度會帶來什麼樣的影響,目前各界仍在觀察;不過可確定的是,相較於舊法,新法至少在計算合理報酬上,要求雇用人須踐行更多的程序及其他要件,而這程序或要件規定將可減少法官在舊法時計算合理報酬金額的沈重負擔,與高度不確定所帶來的風險,並且亦可減少受雇人發明訴訟的總數量。 以日本電子大廠 Toshiba 新近在 7 月底與其離職員工 Fujio Masuoka 就閃光記憶晶片技術( flash memory chip technology )所達成之職務發明報酬和解協議為例, Toshiba 在 7 月 27 日 發布的新聞稿中,即特別感謝東京地方法院對公司有關員工職務發明之報酬政策及看法的尊重。

美國對於聯網環境中「關鍵基礎設施」之資訊安全議題展開行動

  面對境外網路安全的風險,美國歐巴馬總統於2013年2月12日,正式簽署「改善關鍵基礎設施之網路安全」行政命令(Executive Order 13636–Improving Critical Infrastructure Cyber security),據該行政命令第二款,將「關鍵基礎設施」定義為,「對於美國至關重要,而當其無法運作或遭受損害時,將削弱國家安全、經濟穩定、公共健康或安全之有形或虛擬系統或資產」,遂採取相對廣義之解釋。該行政命令第七款,亦指示美國商務部「國家標準技術研究所」(National Institute of Standard and Technology, NIST),將研議ㄧ個提升關鍵基礎設施資通訊安全之架構(Framework to Improve Critical Infrastructure Cybersecurity),將美國聯邦憲法所保障的企業商業機密、個人隱私權和公民自由等法益納入考量。   針對關鍵基礎設施引發重要之法制議題,美國副司法部長Mr. James M. Cole表示,由於關鍵基礎設施影響所及者,乃人民在法律下的權益,公部門政府將在該項議題上與私部門共同合作(partnership),且未來將研議通過立法途徑(legislation),將隱私權和公民權保護(the incorporation of privacy and civil liberties safeguards)納入關鍵基礎設施資通訊安全法制之全盤考量,相關趨勢殊值注意。

加州通過氣候變遷計畫

  加州環保署下的加州空氣資源委員會(California Air Resource Board),在2008年12月通過了加州氣候變遷計畫(Climate Change Scoping Plan),目標是在2020年將州內的溫室氣體減量至1990年的水準,本計畫是依加州州長Schwarzenegger在2006年9月,所簽署的2006全球暖化解決法(the Global Warming Solutions Act of 2006)之要求而提出。加州是美國第一個如此正式訂立一個全面性的、法定的、且包含了每一個經濟層面的關於溫室氣體減量計畫的州。   氣候變遷計畫的原則是,找出最佳策略去減少約百分之三十的溫室氣體排放,同時在乾淨和永續的原則下發展加州經濟。計畫中的一個重點方案是碳總量管制與交易(Cap-and Trade),加州將和「西部氣候行動」聯盟(Western Climate Initiative)合作,此組織包括美國七個州及加拿大四個省份,共同承諾去管制它們的碳排放,並建立一個地方性碳交易市場。計畫中其它重要的方案還包括了,執行加州清淨汽車標準、增加州內乾淨和永續能源的使用、執行低碳燃油標準等。   加州空氣資源委員會主席Mary Nichols指出,本計畫是加州達成更安全與永續經濟的指南,它將會引導資本投資在增加能源效率和發展再生能源,使加州對石油的依賴降低,並給予加州居民數以千萬的工作機會。且身為第一個採取如此綠色行動的州,加州在吸引全球相關投資及發展綠色科技上將維持自己立於一個領導地位,取得並擴大全球綠色市場的需求。加州空氣資源委員會將開始擬定執行所有方案的細節,依法所有的方案必須於2012年前全部生效執行。

歐盟第29條工作小組發布「自動化個人決策和分析指引」處理個人資料自動化決策與資料剖析風險問題

  歐盟第29條工作小組於2017年10月3日為因應歐盟一般資料保護規則(GDPR)第22條規定發布「自動化個人決策和分析指引」(Guidelines on Automated individual decision-making and Profiling for the purposes of Regulation 2016/679,2018年2月6日進一步修正,下稱指引),處理對個人資料自動化決策(automated decision-making)和個人檔案剖析(Profiling)的建立。   指引分為五個部分與最佳實踐建議,旨在幫助資料控制者(controller)合乎GDPR對個人資料自動化決策和分析的要求,內容包括下幾點:1.定義自動化決策和分析,以及GDPR對這些概念的處理方法;2.對GDPR第22條中關於自動化決策的具體規定;3.對自動決策和分析的一般規定;4.兒童和個人檔案剖析(Profiling)的建立;5.資料保護影響評估。   指引的主要內容包括:   個人檔案剖析(Profiling),意謂收集關於個人(或一群個人)的資料,並分析他們的特徵或行為模式,加以分類或分群,放入特定的類別或組中,和/或進行預測或評估(例如,他們執行任務的能力,興趣或可能的行為)。   禁止對個人資料完全自動化決策,包括有法律上法或相類重大影響的檔案剖析,但規則也有例外。應有措施保障資料主體的權利,自由和合法利益。   GDPR第22條第二項a之例外規定,(履行契約所必需的),自動化個人決策時,應該作狹義解釋。資料控制者必須能夠提出分析、自動化個人決策的必要性,同時考慮是否可以採取侵害隱私較少之方法。   工作小組澄清,關於在要求提供有關自動化決策所涉及的邏輯上有意義的資料時,控制者應以簡單的方法,告訴資料主體其背後的理由或依據的標準,而不得總是以自動化決策所使用算法進行複雜的解釋或者公開完整的算法為之。所提供的資料應該對資料當事人有意義。   對資料主體提供關於處理自動化決策上有關重要性和預期後果的資料,其意義在於必須提供關於該資料之用途或資料未來處理以及自動化決策如何影響資料主體的重要訊息。例如,在信用評等的情況下,應有權知道其資料處理的基礎,資料主體並能對其作出正確與否的決定,而不僅僅是關於決策本身的資料。   「法律效果」是指對某人的法律權利有影響,或者影響到個人法律關係或者其契約上權利。   工作組並未將GDPR前言71段視為絕對禁止純粹與兒童有關的自動決定,指出僅在某些情況下才有其適用(例如,保護兒童的福利)。   在基於自動化處理(包括分析)以及基於哪些決策產生法律效應或類似顯著效果的基礎上對個人方面進行系統和廣泛評估的情況下,進行資料保護影響評估並不局限於「單獨」自動化處理/決定。

TOP