2020年2月28日梵諦岡教宗與兩大科技巨頭IBM及微軟聯合簽署「羅馬呼籲AI倫理道德」文件,支持制定人工智慧(AI)發展倫理與道德規範,並特別呼籲應針對臉部辨識等侵入性技術進行監管。在聯合文件上特別提及臉部識別技術潛在之濫用風險,例如警察會使用臉部辨識系統調查犯罪行為、《財富》500強公司使用AI審查求職者,這兩個例子均具有潛在且高度之風險,使用不正確或是具有偏見之AI判斷均可能會造成傷害。誠如方濟各在致辭中說:「人工智慧記錄個人資料,並使用於商業或政治目的,而且通常是在個人不知情之情況下,這種不對稱,將使少數人了解我們的一切,但我們卻對他們一無所知,這將使批判性思維和對自由的自覺變得遲鈍,不平等現象急遽擴大,知識和財富在少數人手中累積,將對民主社會構成重大風險。」
此次會議希望在國家與國際層面上共同努力促進AI道德規範,並根據以下原則來發展和使用人工智慧。第一,良好的創新:人工智慧系統必須是可理解得,並且在包容性方面必須考慮到所有人的需求,以便每個人都能受益。第二,責任:設計和實施人工智慧者必須承擔責任和保持透明度。第三,公正性:避免根據偏見進行創造或採取行動,從而維護人類平等和尊嚴。第四,可靠性:人工智慧系統必須能夠可靠的運行。第五,安全和隱私:人工智慧系統必須安全運行並尊重用戶的隱私。
目前尚不清楚其他技術公司是否會簽署該文件,以及簽署人將如何實施,但教宗與兩大科技巨頭史無前例的合作,為人工智慧未來發展方向提供遠見卓識,能更加深入的去思考AI的道德意涵以及它將如何與人類更好的合作、互動,互利共生,相輔相成。
於2018年02月26日,美國肯塔基州(下略)參議院通過「通訊醫療照護(Telehealth)法案」《第112號修正法案》,修法精神聚焦在增進人民受到照護的機會,同時節省花費,但明文禁止通訊醫療照護適用於人工流產,此部法案將於2019年07月01日生效。 根據前開法案,州政府應: 發展、完善相關政策及程序以確保通訊醫療照護得被適當地使用,同時亦應保障個人資料、隱私、落實知情同意、適當補助等。 增加通訊醫療照護作為醫療照護的機會。 維護通訊醫療照護政策、綱領,同時避免醫療補助保險資源遭浪費、詐害與濫用,並提供得施行通訊醫療照護的醫師名單予具醫療補助保險(Medicare)適格的公民,藉此保障前揭公民均可受到安全、妥適、有效率的醫療照護。 保障醫療補助保險的適用者得以使用通訊醫療照護。 參議員Ralph Alvarado(提修正法案之議員)表示通訊醫療照護通過後有以下優點: 監控慢性疾病的能力提升。 增加特殊照護、心理健康(衛生)的機會。 減少急診室的使用。 降低病患因交通而不便就醫的情況。 節省花費。 申言之,前開修正內容明確要求政府相關人員必須建立更詳細的通訊醫療照護管控機制,並且將通訊醫療照護納入醫療補助保險的範疇,並具有前開諸多優點。另外,因為通訊技術(即時視訊及通訊)的特性使然,使用通訊醫療照護技術的醫生(下稱醫生)可能在世界上的任何一個地方進行,然而前開法案要求醫生須在肯塔基境內取得執照,以利獲得醫療補助保險的補助。 此外,參議員Wil Schroder在本次修法中提出禁止通訊醫療照護適用於人工流產(為防免懷孕初期以服用藥物之方式進行人工流產)的提案,確切的條文規定為「醫師為人工流產醫療行為時,必須患者待在同一空間並親自為之。」(A physician performing or inducing an abortion shall be present in person and in the same room with the patient.),甚者,若違反前開通訊醫療照護禁用於人工流產的禁令時,則將背負D級的刑事罪責,最後以32:3之高票通過;然而,其中投下反對票的參議員McGarvey認為通訊醫療照護對於肯塔基州的醫療照護是重要的實踐與擴張,因此應開放通訊醫療照護適用於人工流產。 (註:telehealth常見翻譯為遠距醫療照護/遠距醫護,然考量我國醫師法第11條授權訂定「通訊診療辦法」之名稱,故本文從之。)
英國資訊委員辦公室推出資料分析工具箱協助組織檢視資料保護情形英國資訊委員辦公室(Information Commissioner's Office, ICO)於今(2021)年2月17日推出資料分析工具箱(data analytics toolkit)供所有考慮對個人資料進行資料分析的組織使用,旨在幫助組織駕馭人工智慧(Artificial Intelligence, AI)系統對個人權利所可能帶來的挑戰。 ICO表示,越來越多的組織使用AI來完成特定任務,例如使用軟體自動發現資料集(data sets)的模式,並藉此進行預測(predictions)、分類(classifications)或風險評分(risk scores),組織在使用個人資料進行資料分析時,納入資料保護的概念是至關重要的,除符合法律要求外,也能增強民眾對技術的信任與信心。 使用ICO的資料分析工具箱時,首先會詢問組織所適用的法律,並引導至相對應的頁面,並透過合法性(lawfulness)、問責與治理(accountability and governance)、資料保護原則(data protection principles)以及資料主體權利(data subject rights)等一系列的問題瞭解組織的資料保護情形,在回答所有問題之後,工具箱將產生一份報告,提供組織關於資料保護的建議,提高組織資料保護的法令遵循程度。 ICO強調,組織應該要在個人資料處理的過程中考量報告中所提及的建議,並向組織的資料保護長(Data Protection Officer, DPO)徵詢其意見,在組織委託、設計與實施資料分析時落實個人權利與自由的保障。
德國聯邦資訊技術,電信和新媒體協會針對AI及自動決策技術利用提出建議指南德國聯邦資訊技術,電信和新媒體協會於2018年2月6日在更安全的網路研討會中針對利用人工智慧及自動決策技術利用提出建議指南,旨在提升企業數位化與社會責任,並提升消費者權益保護。 德國司法及消費者保護部次長Gerd Billen於會議中指出,無論技術細節和具體應用如何發展,法律和消費者保護政策應確保人工智慧安全性,且不因此受歧視,以及盡可能確保技術利用透明度。而隨著人工智慧的發展,應設法解決使用人工智慧產生的法律問題。 例如,如何在製造商,供應商和消費者之間公平分配責任歸屬問題?在家庭,物流和手術室等領域已有越來越多具備自我學習的機器人被應用,相關權利是否會有所不同?如果機器出現不明原因故障,會發生什麼情況及如何處置?當機器透過在製造時尚未完全預定的環境感官認知做出具體決定時,該自動行為所生效力為何? 本份指南則提出六項建議: 促進企業內部及外部訂定相關準則 提升產品及服務透明度 使用相關技術應為全體利益著想 決策系統的可靠性仍取決資料的準確性。 重視並解決解決機器偏差問題 在特別需要負責的決策過程,應設計成由責任主體保留最終的決策權力,直到AI的控制品質已達到或高於所有參與者水平。