隨著人工智慧快速發,各界開始意識到人工智慧系統應用、發展過程所涉及的倫理議題,應該建構出相應的規範。IBM於2018年9月02日提出了「人工智慧日常倫理」(Everyday Ethics for Artificial Intelligence)手冊,其以明確、具體的指引做為系統設計師以及開發人員間之共同範本。作為可明確操作的規範,該手冊提供了問責制度、價值協同、可理解性等關注點,以促進社會對人工智慧的信任。
一、問責制度(Accountability)
由於人工智慧的決策將作為人們判斷的重要依據,在看似客觀的演算系統中,編寫演算法、定義失敗或成功的程式設計人員,將影響到人工智慧的演算結果。因此,系統的設計和開發團隊,應詳細記錄系統之設計與決策流程,確保設計、開發階段的責任歸屬,以及程序的可檢驗性。
二、價值協同(Value Alignment)
人工智慧在協助人們做出判斷時,應充分考量到事件的背景因素,其中包括經驗、記憶、文化規範等廣泛知識的借鑑。因此系統設計和開發人員,應協同應用領域之價值體系與經驗,並確保演算時對於跨領域的文化規範與價值觀之敏感性。同時,設計師和開發人員應使人工智慧系統得以「了解並認知」用戶的價值觀,使演算系統與使用者之行為準則相符。
三、可理解性(Explainability)
人工智慧系統的設計,應盡可能地讓人們理解,甚至檢測、審視它決策的過程。隨著人工智慧應用範圍的擴大,其演算決策的過程必須以人們得以理解的方式解釋。此係讓用戶與人工智慧系統交互了解,並針對人工智慧結論或建議,進而有所反饋的重要關鍵;並使用戶面對高度敏感決策時,得以據之檢視系統之背景數據、演算邏輯、推理及建議等。
該手冊提醒,倫理考量應在人工智慧設計之初嵌入,以最小化演算的歧視,並使決策過程透明,使用戶始終能意識到他們正在與人工智慧進行互動。而作為人工智慧系統設計人員和開發團隊,應視為影響數百萬人甚至社會生態的核心角色,應負有義務設計以人為本,並與社會價值觀和道德觀一致的智慧系統。
加拿大財政委員會主席克萊門(Tony Clement),概述了加拿大政府對於保護加拿大公民隱私的步驟,並詳細的列出政府機關官員對於隱私保護違犯行為的案件量。 政府對於看待人民隱私保護這件事情是非常重視的,特別是如何妥當的處理具敏感性個人資料的這個部分,我們認為是關鍵性的重點」部長克萊門表示。 人力資源及技能發展部部長芬蕾(Diane Finley)說:「我們對於所有違犯事件都會非常認真的面對,任何錯誤都是不能被接受的,為了預防和對抗將來可能發生的事故,我已經下達指示要求徹查本部門下所有員工處理個人資料的作業程序、更新網路防護機制以禁止入侵,機關人員需接受強制性的教育訓練,學習如何處理敏感性和個人資訊。我們政府一直持續推動保護個人資訊的安全維護措施、強化隱私保護、當有任何事故發生時,會執行嚴格的通報機制及規劃完善的應變措施」。 自2006年以來,政府所採取加強隱私保護,並實行嚴格通報機制的新興措施包括: 1.向隱私權委員會通報隱私侵害事故,並採取迅速措施進行解決 2.完成隱私衝擊評估,以建置新的或實質性修正相關措施與行動 3.徹底落實隱私權保護措施命令,要求所有聯邦政府機構必須建置解決侵犯隱私事件的應變計畫 4.制訂隱私權保護政策,要求所有聯邦政府機構,若發現有任何可能侵害加拿大公民隱私的行為時,必須立即通知隱私權委員會辦公室 5.為因應各類新型侵害隱私權之事件,應持續建立新的應變指引,協助各機構有統一的辨識標準和阻止措施。 「在最新年度報告中,隱私權委員會指出,退伍軍人事務局已經明確的公告隱私權保護是現階段非常重要的業務項目,該局正積極建立相關維護措施和計畫。」布萊尼部長表示。 「我們將繼續努力,與隱私權委員會辦公室密切合作,確保加拿大公民的隱私權保護」,部長克萊門回應道
美國加州《AB-5法》(Assembly Bill No. 5)美國加州於2019年9月通過AB-5法案(Assembly Bill No. 5),預計於2020年1月正式施行,本法目的在於強化零工經濟下非典型勞務提供者(如平台外送員)的權益保護,於加州現行勞動法令之基礎上,增訂關於各類勞務提供者之特別規定。 依本法主要規範,係推定替雇主(hirer)提供服務的工作者為僱傭契約關係下之僱員(employee),就最低工資、失業保險、勞災、醫療保險等面向,業者應對這些工作者提供等同受僱人之相關權益及保障;若要被例外認定為非成立僱傭關係之獨立承包商,則必須滿足不受公司於工作方面的控制指示、從事與公司通常業務範圍無關之業務、以及有實質接案自由等三要件,並要求業者應以上列標準判定其勞務提供者為僱員或獨立承包商,同時需於例外認定為獨立承包商時提出相關證明。 同時,本法亦考量到施行後其效力對既有營業形態之衝擊,分別採取以下措施: 針對例如派報員、商業捕撈(commercial fishermen)等業別,於本法正式施行後一定期間內,豁免前述列舉之特定領域勞務提供者適用本法來認定其與業者間的契約關係。亦即,在法案生效後的短期內,特定業者暫時不需適用該法所定要件來檢視與勞務提供者間之契約關係,避免本法貿然實施可能導致其無法經營日常業務的困境。 對於醫療保健專業人員、持有牌照之律師、建築師、會計師、證券經紀商等法明文列舉之特定職業,排除適用本法判定勞動關係的特別規定,而非暫時豁免適用。
日本公布設立AI安全研究所與著手訂定AI安全性評鑑標準日本於2023年12月1日舉辦G7數位技術委員會(G7デジタル・技術大臣会合),由日本數位廳、總務省、經濟產業省共同會晤G7會員國代表,基於人工智慧(Artificial Intelligence,下稱AI)可能帶給全球創造性、革命性的轉變,同時也可能伴隨侵害著作權與擴散假訊息的風險,尤其是生成式AI可能對經濟、社會影響甚鉅,因此針對如何妥善使用AI技術,G7全體會員國共同訂定《廣島AI進程》(広島AIプロセス)文件,其聲明內容簡述如下: 1.訂定涵蓋《廣島AI進程》之政策框架(Framework) 2.訂定涵蓋AI設計、系統開發、規劃、提供與使用等所有與AI有關人員,(All AI actors, when and as applicable, and appropriate, to cover the design, development, deployment, provision and use of advanced AI systems)適用之《廣島AI進程》國際標準(Principle) 3.針對開發高階AI系統之組織,訂定可適用之國際行為準則(Code of Conduct) 為此,日本內閣府於2024年2月14日公布,於經濟產業省政策執行機關—獨立行政法人資訊處理推動機構(独立行政法人情報処理推進機構,下稱IPA)轄下設立日本AI安全研究所(Japan AI Safety Institute,下稱AISI),作為今後研擬AI安全性評鑑標準(據以特定或減少AI整體風險)與推動方式之專責機構,以實現安心、安全以及可信賴之AI為目標。AISI所職掌的業務範圍如下: 1.進行AI安全性評鑑之相關調查 2.研擬AI相關標準 3.研擬安全性評鑑標準與實施方式 4.研擬與各國AI專責機關進行國際合作,例如:美國AI安全研究所(U.S. Artificial Intelligence Safety Institute, USAISI) 另一方面,IPA將以內部人才招聘作為AISI成員之任用方式,預計組成約數十人規模的團隊。日本以與G7會員國共識為基礎,採專責機關—AISI進行研究與規劃,並推動日後擬定AI相關使用規範與安全性評鑑標準,據以實現AI應用安全之目標。我國對於AI技術之應用領域,未來應如何訂定使用安全規範,將涉及專業性與技術性事項之整體性規劃,日本因應AI課題而採行的做法值得我國未來持續關注。
美國交通部提出自駕車全面性計畫,以促進自動駕駛系統規範環境之整合、透明性與現代化美國聯邦運輸部(US Department of Transportation)於2021年1月11日發布「自駕車全面性計畫(Automated Vehicles Comprehensive Plan, AVCP)」,建立了交通部促進合作、透明性與管制環境現代化,並將自動駕駛系統(Automated Driving Systems)安全整合入交通系統之策略。基於過去「自駕車政策4.0」建立之原則上,自駕車全面性計畫定義了三個目標以達成其願景: 促進合作與透明性:交通部將會促進其合作單位與利益相關人可取得清楚且可靠之資訊,包含自駕系統的能力與限制。 使管制環境現代化:交通部將會現代化相關規範並移除對創新車輛設計、特性與運作模組之不必要障礙,並發展專注於安全性之框架與工作以評估自駕車技術的安全表現。 運輸系統之整備:交通部將會與利害相關人合作實施安全的評估與整合自駕系統於運輸系統之基礎研究與行動,並促進安全性、效率與可取得性。 政策文件中也就相關目標提出了關鍵目的以及行動,包含先前交通部所提出的「自駕系統安全性框架(Framework for Automated Driving System Safety)」草案,將透過建立框架定義、評估並提供自駕系統的安全性需求,並同時保留創新發展之彈性;另外此政策文件也提出了如何將自駕系統融合現有技術應用之實際案例。交通部將會定期的檢視相關行動與計畫,以反應技術與產業發展,並減少重複性之行動,並將資源投注於重要領域。