世界經濟論壇(World Economic Forum, WEF)於2022年6月29日發布《人工智慧公平性和包容性藍圖》白皮書(A Blueprint for Equity and Inclusion in Artificial Intelligence),說明在AI開發生命週期和治理生態系統中,應該如何改善公平性和強化包容性。根據全球未來人類AI理事會(Global Future Council on Artificial Intelligence for Humanity)指出,目前AI生命週期應分為兩個部分,一是管理AI使用,二是設計、開發、部署AI以滿足利益相關者需求。
包容性AI不僅是考量技術發展中之公平性與包容性,而是需整體考量並建立包容的AI生態系統,包括(1)包容性AI基礎設施(例如運算能力、資料儲存、網路),鼓勵更多技術或非技術的人員有能力參與到AI相關工作中;(2)建立AI素養、教育及意識,例如從小開始開啟AI相關課程,讓孩子從小即可以從父母的工作、家庭、學校,甚至玩具中學習AI系統對資料和隱私的影響並進行思考,盡可能讓使其互動的人都了解AI之基礎知識,並能夠認識其可能帶來的風險與機會;(3)公平的工作環境,未來各行各業需要越來越多多元化人才,企業需拓寬與AI相關之職位,例如讓非傳統背景人員接受交叉培訓、公私協力建立夥伴關係、提高員工職場歸屬感。
在設計包容性方面,必須考慮不同利益相關者之需求,並從設計者、開發者、監督機關等不同角度觀察。本報告將包容性AI開發及治理整個生命週期分為6個不同階段,期望在生命週期中的每個階段皆考量公平性與包容性:
1.了解問題並確定AI解決方案:釐清為何需要部署AI,並設定希望改善的目標變量(target variable),並透過制定包容性社會參與框架或行為準則,盡可能實現包容性社會參與(特別是代表性不足或受保護的族群)。
2.包容性模型設計:設計時需考慮社會和受影響的利益相關者,並多方考量各種設計決策及運用在不同情況時之公平性、健全性、全面性、可解釋性、準確性及透明度等。
3.包容性資料蒐集:透過設計健全的治理及隱私,確定更具包容性的資料蒐集路徑,以確保所建立之模型能適用到整體社會。
4.公平和包容的模型開發及測試:除多元化開發團隊及資料代表性,組織也應引進不同利益相關者進行迭代開發與測試,並招募測試組進行測試與部署,以確保測試人群能夠代表整體人類。且模型可能隨著時間發展而有變化,需以多元化指標評估與調整。
5.公平地部署受信任的AI系統,並監控社會影響:部署AI系統後仍應持續監控,並持續評估可能出現新的利益相關者或使用者,以降低因環境變化而可能產生的危害。
6.不斷循環發展的生命週期:不應以傳統重複循環過程看待AI生命週期,而是以流動、展開及演變的態度,隨時評估及調整,以因應新的挑戰及需求,透過定期紀錄及審查,隨時重塑包容性AI生態系統。
綜上,本報告以包容性AI生態系統及生命週期概念,期望透過基礎設施、教育與培訓、公平的工作環境等,以因應未來無所不在的AI社會與生活,建立公司、政府、教育機構可以遵循的方向。

聯合國教科文組織於2020年9月發布《人工智慧倫理建議書》草案(First Draft Of The Recommendation On The Ethics Of Artificial Intelligence)(下稱建議書),以全球性的視野與觀點出發,為第一份全球性關於人工智慧倫理的建議書,試圖對人工智慧倫理作出框架性規定,對照其他區域性組織或個別國家人工智慧倫理準則或原則,著重之處稍有差異。該建議書係由組織總幹事Audrey Azoulay於2020年3月任命24位在人工智慧倫理學方面之跨領域專家,組成專家小組(AD HOC EXPERT GROUP, AHEG),以《建議書》的形式起草全球標準文書。 其主要內容提到六大價值觀:(一)人性尊嚴(Human dignity)、(二)基本人權和自由(Human rights and fundamental freedoms)、(三)不遺漏任何人(Leaving no one behind)、(四)和諧共生(Living in harmony)、(五)可信賴(Trustworthiness)、(六)環境保護(Protection of the Environment)。其中尤值關注處在於,建議書除強調人工智慧的技術、資料及研究需要進行全球範圍的共享外,相當重視世界上所有的國家及地區在人工智慧領域是否能均衡發展。特別在六大價值觀中提出「不遺漏任何人」觀點,也同時呼應了聯合國永續發展目標(Sustainable Development Goals, SDGs)的倡議。在人工智慧技術發展過程中,開發中國家(global south)及相對弱勢的群體是相當容易被忽略的。人工智慧蓬勃發展的時代,若某些群體或個體成為技術弱勢者,不僅在技術發展上有落差,更可能使人工智慧系統容易產生歧視、偏見、資訊和知識鴻溝,其後更將導致全球不平等問題的挑戰。 由專家小組起草的建議書草案已於2020年9月提交給聯合國成員國,作為對建議書的初步報告。該報告將提供給各會員國,並同步提交給預定於2021年召開的政府專家委員會,最後預計於2021年底的提交聯合國教科文組織大會。
歐洲區塊鏈數位基礎設施聯盟預計於2024年正式開始運作,將進一步擴大推動區塊鏈的公共應用服務歐洲區塊鏈夥伴關係(European Blockchain Partnership, EBP)的成員於2023年6月正式向歐盟執委會(European Commission, EC)申請成立區塊鏈的「歐洲數位基礎設施聯盟」(European Digital Infrastructure Consortium, EDIC),若審核通過,未來歐盟將有一個正式的機構負責推動區塊鏈的發展與應用。 歐盟執委會於2023年1月發布了「2030年數位十年政策計畫」(Digital Decade Policy Programme 2030, DDPP),為促進歐盟數位轉型的大規模部署及能力建構,達到DDPP所設定的具體目標,執委會提出跨(多)國專案(Multi-Country Projects, MCPs)的概念,期待整合歐盟、各成員國、私部門的資源,以實現單一成員國無法獨立部署的數位化基礎設施。 執委會參考2009年開始陸續成立的「歐洲研究基礎設施聯盟」(European Research Infrastructure Consortium, ERIC),提出了「歐洲數位基礎設施聯盟」(EDIC)的規劃。EDIC並非由歐盟的資助計畫支持,而是由成員國申請(至少要包含3個成員國)成立以執行MCPs,EDIC具有法人格,並有獨立的財務來源;此外,EDIC成立後開放私部門參加。 2023年3月執委會發布的「數位歐洲2023~2024年工作計畫」(Digital Europe Work Programme 2023-2024)中,即將「區塊鏈」列為MCPs的重要發展項目之一。2023年6月15日於瑞典舉辦的歐盟數位大會(Digital Assembly 2023)上,執委會表示EBP及歐洲區塊鏈服務基礎設施(European Blockchain Services Infrastructure, EBSI)的相關成員國已遞交EDIC的申請。 斯洛維尼亞共和國(Republic of Slovenia)的區塊鏈小組負責人Nena Dokuzov是成立聯盟的主要推動者之一,其受訪時表示,EBSI從2018年以來,主要是由執委會以專案方式支持,未來聯盟成立以後,將能集結更充足的資源,強化歐洲區塊鏈的治理和穩定性,進一步地擴大推動歐洲區塊鏈的公共應用服務。我國「司法聯盟鏈」於2022年成立,為我國第一個跨部會、大規模的區塊鏈應用案例,並制定了跨組織協作標準規範(簡稱b-JADE),未來可持續觀測歐盟區塊鏈聯盟的發展,作為我國的參照。 本文同步刊登於TIPS網站(https://www.tips.org.tw)
歐盟執委會通過關於《人工智慧責任指令》之立法提案歐盟執委會(European Commission)於2022年9月28日通過《人工智慧責任指令》(AI Liability Directive)之立法提案,以補充2021年4月通過之《人工智慧法》草案(Artificial Intelligence Act)。鑑於人工智慧產品之不透明性、複雜性且具自主行為等多項特徵,受損害者往往難以舉證並獲得因人工智慧所造成之損害賠償,《人工智慧責任指令》立法提案即為促使因人工智慧而受有損害者,得以更容易獲得賠償,並減輕受損害者請求損害賠償之舉證責任。 《人工智慧責任指令》透過引入兩個主要方式:(一)可推翻之推定(rebuttable presumptions):人工智慧責任指令透過「因果關係推定(presumption of causality)」來減輕受損害者之舉證責任(burden of proof)。受損害者(不論是個人、企業或組織)若能證明人工智慧系統因過失或不遵守法規要求之義務,致其受有損害(包括基本權利在內之生命、健康、財產或隱私等),並且該損害與人工智慧系統之表現具有因果關係,法院即可推定該過失或不遵守義務之行為造成受損害者之損害。相對的,人工智慧之供應商或開發商等也可提供相關證據證明其過失不可能造成損害,或該損害係由其他原因所致,以推翻該損害之推定。(二)證據揭露機制(disclosure of evidence mechanism):若受害者之損害涉及高風險人工智慧時,得要求自該供應商或開發商等處獲取證據之權利。受害者透過證據揭露機制能夠較容易地尋求法律賠償,並得以找出究責的對象。 歐盟執委會認為以安全為導向的《人工智慧法》,為人工智慧訂定橫向規則,旨在降低風險和防止損害,但仍需要《人工智慧責任指令》之責任規定,以確保損害風險出現時,相關賠償得以被實現。但歐盟執委會仍選擇了較小的干預手段,《人工智慧責任指令》針對過失之責任制度進行改革,並未採取舉證責任倒置(a reversal of the burden of proof)之作法,而是透過「可推翻之推定」,一方面減輕受損害者之舉證責任,使受損害者得對影響人工智慧系統並產生過失或侵害行為之人提出損害賠償;另一方面賦予人工智慧之供應商或開發商等有機會推翻前揭造成損害之推定,以避免人工智慧系統之供應商或開發商面臨更高的責任風險,可能阻礙人工智慧產品和服務創新。
挪威政府提案修改著作權法,將處罰把CD音樂複製成MP3檔案之行為為解決日益猖狂的網路侵權行為,挪威政府已提出著作權法修正草案,針對侵害著作權及網路盜版行為處以罰金及三年以下有期徒刑之刑責。其中最主要的就是要遏止破解DVD及CD之科技保護措施以及處罰提供軟硬體進行破解之行為。不過,在修正草案下,為個人使用之目的而複製CD或DVD之行為,即便在此過程中意味有破解科技保護措施之行為存在,仍不構成違法;但是,若破解科技保護措施而將CD歌曲轉換成MP3格式則構成侵權行為。 此一修正案的提出雖獲業界一致喝采,但是亦受到學者的抨擊,認為此修正案內容定義不清,完全無法執行。由於挪威國會預計於今年三、四月審查此案,若能順利過關,最快將於今年七月正式施行,不過未來如何發展,仍存在相當變數,值得追蹤觀察。