世界經濟論壇發布《人工智慧公平性和包容性藍圖》白皮書

  世界經濟論壇(World Economic Forum, WEF)於2022年6月29日發布《人工智慧公平性和包容性藍圖》白皮書(A Blueprint for Equity and Inclusion in Artificial Intelligence),說明在AI開發生命週期和治理生態系統中,應該如何改善公平性和強化包容性。根據全球未來人類AI理事會(Global Future Council on Artificial Intelligence for Humanity)指出,目前AI生命週期應分為兩個部分,一是管理AI使用,二是設計、開發、部署AI以滿足利益相關者需求。

  包容性AI不僅是考量技術發展中之公平性與包容性,而是需整體考量並建立包容的AI生態系統,包括(1)包容性AI基礎設施(例如運算能力、資料儲存、網路),鼓勵更多技術或非技術的人員有能力參與到AI相關工作中;(2)建立AI素養、教育及意識,例如從小開始開啟AI相關課程,讓孩子從小即可以從父母的工作、家庭、學校,甚至玩具中學習AI系統對資料和隱私的影響並進行思考,盡可能讓使其互動的人都了解AI之基礎知識,並能夠認識其可能帶來的風險與機會;(3)公平的工作環境,未來各行各業需要越來越多多元化人才,企業需拓寬與AI相關之職位,例如讓非傳統背景人員接受交叉培訓、公私協力建立夥伴關係、提高員工職場歸屬感。

  在設計包容性方面,必須考慮不同利益相關者之需求,並從設計者、開發者、監督機關等不同角度觀察。本報告將包容性AI開發及治理整個生命週期分為6個不同階段,期望在生命週期中的每個階段皆考量公平性與包容性:

1.了解問題並確定AI解決方案:釐清為何需要部署AI,並設定希望改善的目標變量(target variable),並透過制定包容性社會參與框架或行為準則,盡可能實現包容性社會參與(特別是代表性不足或受保護的族群)。

2.包容性模型設計:設計時需考慮社會和受影響的利益相關者,並多方考量各種設計決策及運用在不同情況時之公平性、健全性、全面性、可解釋性、準確性及透明度等。

3.包容性資料蒐集:透過設計健全的治理及隱私,確定更具包容性的資料蒐集路徑,以確保所建立之模型能適用到整體社會。

4.公平和包容的模型開發及測試:除多元化開發團隊及資料代表性,組織也應引進不同利益相關者進行迭代開發與測試,並招募測試組進行測試與部署,以確保測試人群能夠代表整體人類。且模型可能隨著時間發展而有變化,需以多元化指標評估與調整。

5.公平地部署受信任的AI系統,並監控社會影響:部署AI系統後仍應持續監控,並持續評估可能出現新的利益相關者或使用者,以降低因環境變化而可能產生的危害。

6.不斷循環發展的生命週期:不應以傳統重複循環過程看待AI生命週期,而是以流動、展開及演變的態度,隨時評估及調整,以因應新的挑戰及需求,透過定期紀錄及審查,隨時重塑包容性AI生態系統。

  綜上,本報告以包容性AI生態系統及生命週期概念,期望透過基礎設施、教育與培訓、公平的工作環境等,以因應未來無所不在的AI社會與生活,建立公司、政府、教育機構可以遵循的方向。

相關連結
你可能會想參加
※ 世界經濟論壇發布《人工智慧公平性和包容性藍圖》白皮書, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?no=64&tp=1&d=8890 (最後瀏覽日:2024/06/21)
引註此篇文章
科法觀點
你可能還會想看
美國政府於2015年10月公告美國創新戰略最新版本

  美國創新戰略(A Strategy for American Innovation)於2009年9月首次提出,後於2011年2月配合時事及產業發展增補內容。隨著政策的逐步推行,美國國家經濟委員會及白宮科技政策辦公室於2015年10月公布最新版本之美國創新戰略,在原有的框架增補更多內容成為六大重要施政要項,在策略佈局上又大致可分為創新資源整合的三大創新基礎以及三大策略發展方向,前者包括:(1)投資創新基石;(2)刺激私部門進行創新活動;(3)營造一個創新者國度。後者的三大策略發展方向則包括國家產業重要優先發展領域的技術突破,其影響意味著確定重點投資領域能夠取得變革性結果,以滿足國家和世界所即將面臨的社會議題挑戰。其中諸如精準醫療(precise medicine)、加速發展新型神經技術、推動衛生保健的突破性創新、採用先進車輛減少死亡事故、建設智慧城市、推動再生能源技術提高能源效率、開發先進教育技術、發展太空科技等。   其次,係藉由投資未來產業,建設包容性創新經濟,加強美國先進制造的領先地位,創造工作機會和經濟的持續成長。最後,借助於人才、創新思維及技術工具的適當組合,建設創新型政府,為民眾提供更好的行政服務。

何謂「介入權」?

  美國拜杜法雖下放政府補助研發成果給予執行單位,但基於針對受補助者行使研發成果時若未能妥適授權運用,政府得行使「介入權」(march-in rights)。所謂的介入權,是指補助機關事後可以因為執行單位授權或運用不當,而選擇強制介入調整其授權內容。但補助機關採用介入權是有前提要件的,35 U.S.C. § 203規定:「受補助者在適當的合理期間內,未能採取有效的措施以達到該創新的實際應用或使用…」或者強制授權是「其他聯邦法律規定的保護公共健康、安全需要或公共使用」所必要者。相對我國則有經濟部於「經濟部科學技術研究發展成果歸屬及運用辦法」第21條規定政府介入權發動之要件,其與美國法制有異曲同工之妙。

舊金山監事會通過決議禁止政府使用臉部辨識

  美國舊金山監事會(San Francisco Board of Supervisors,編按:監事會是舊金山市的立法部門,性質類似議會)於2019年05月通過停止秘密監察條例(Stop Secret Surveillance Ordinance),並將其訂入行政法規(San Francisco Administrative Code)條文,包括增訂第19B章及修訂第2A.20節、第3.27節、第10.170-1節和第21.07節。根據行政法規第19B章,舊金山政府及執法機構未來將不能使用臉部辨識科技,也不能處理或利用任何自臉部辨識科技取得的資訊。   易言之,在公共場所安裝具備臉部辨識科技的監視器,或暗自使用臉部辨識科技尋找嫌疑犯都構成違法行為。然而,法規的修訂不代表舊金山內所有臉部辨識系統將全面停止。由於舊金山機場及港口屬美國聯邦政府管轄,不受地方政府法律所規範,仍可使用臉部辨識科技;而民眾及私人企業並非修訂條文的規範對象,亦可繼續採用。   此次法規的修訂引發高度關注,各界也熱烈討論。反對者表示,法規的修訂使執法機關打擊犯罪的努力付之一炬,危害民眾安全;贊成者則認為,臉部辨識科技過分侵害人民的隱私權和自由權,應對其有所限制。畢竟,臉部辨識科技並非萬無一失,尤其當受辨識者為女性或深膚色人種時,準確率往往下降許多,而有歧視的疑慮。舊金山首開先例立法,成為全美第一個限制政府使用臉部辨識科技的城市,其他城市或國家未來是否會仿效而相繼立法,值得繼續關注。

美國第七巡迴上訴法院於Wallace v. IBM, Red Hat, and Novell 一案認定GPL或自由軟體授權模式不違反聯邦反托拉斯法

  美國第七巡迴上訴法院( U.S. Court of Appeals (7thCir) )最近就 Wallace v. IBM, Red Hat, and Novell 一案做出判決,本案爭執重點在於 GPL 授權條款與反托拉斯法之間的關係,美國第七巡迴上訴法院認為 GPL 授權條款並不違反反拖拉斯法,法院也同時明確表示,一般而言自由軟體無須擔心會違反反托拉斯法。   本案上訴人 Daniel Wallace 係程式設計師,其欲販售由 BSD ( Berkeley Software Distribution )所開發出來的競爭軟體給各級學校。 BSD 是 Linux 的衍生版本,而 Linux 作業系統則是屬於自由軟體的一種,想要使用 Linux 的人就必須遵守 GPL 授權條款。依 GPL 授權條款規定,不論 Linux 或 Linux 之衍生著作均不得收取授權費用,上訴人因此指控 IBM 、 Red Hat 、 Novell 與自由軟體協會涉嫌共謀將軟體價格設定在零,涉嫌以掠奪性定價( predatory pricing claim )方式削減作業系統市場之競爭,已違反反托拉斯法。   法院認為,本案並無法主張掠奪性定價,蓋被上訴人 IBM 、 Red Hat 及 Novell 並無法因此而取得獨佔價格,其授權價格之所以為零乃是遵照 GPL 授權條款的結果,且消費者並未因此受到損害。其次,法院也指出,著作權法通常對他人之改作權加以限制,其目的是為了收取授權金,不過著作權法人亦可用以確保自由軟體維持零授權金,因此任何嘗試想要販售自由軟體之衍生著作者,將會違反著作權法,即令改作人不同意接受 GPL 授權條款的約束。

TOP