英國政府由數位文化媒體與體育大臣(Secretary of State for Digital, Culture, Media and Sport)與商業能源與工業策略大臣(Secretary of State for Business, Energy and Industrial Strategy)代表,於2022年7月18日提交予國會一份「人工智慧監管規範政策報告」(AI Regulation Policy Paper)。內容除定義「人工智慧」(Artificial Intelligence)外,並說明未來政府建立監管框架的方針與內涵。
在定義方面,英國政府認為人工智慧依據具體領域、部門之技術跟案例有不同特徵。但在監管層面上,人工智慧產物則主要包含以下兩大「關鍵特徵」,造成現有法規可能不完全適用情形:
(1)具有「適應性」,擅於以人類難以辨識的意圖或邏輯學習並歸納反饋,因此應對其學習方式與內容進行剖析,避免安全與隱私問題。
(2)具有「自主性」,擅於自動化複雜的認知任務,在動態的狀況下持續判斷並決策,因此應對其決策的原理原則進行剖析,避免風險控制與責任分配問題。
在新監管框架的方針方面,英國政府期望所提出的監管框架依循下列方針:
(1)針對技術應用的具體情況設計,允許監管機構根據其特定領域或部門制定和發展更詳細的人工智慧定義,藉以在維持監管目標確定與規範連貫性的同時,仍然能實現靈活性。
(2)主要針對具有真實、可識別與不可接受的風險水準的人工智慧應用進行規範,以避免範圍過大扼殺創新。
(3)制定具有連貫性的跨領域、跨部門原則,確保人工智慧生態系統簡單、清晰、可預測且穩定。
(4)要求監管機構考量更寬鬆的選擇,以指導和產業自願性措施為主。
在跨領域、跨部門原則方面,英國政府則建議所有針對人工智慧的監管遵循六個總體性原則,以保障規範連貫性與精簡程度。這六個原則是基於經濟合作暨發展組織(OECD)的相關原則,並證明了英國對此些原則的承諾:
1.確保人工智慧技術是以安全的方式使用
2.確保人工智慧是技術上安全的並按設計運行
3.確保人工智慧具有適當的透明性與可解釋性
4.闡述何謂公平及其實施內涵並將對公平的考量寫入人工智慧系統
5.規範人工智慧治理中法律主體的責任
6.釋明救濟途徑
除了「人工智慧監管政策說明」外,英國政府也發布了「人工智慧行動計畫」(AI Action Plan)文件,彙整了為推動英國「國家人工智慧策略」(National AI Strategy)而施行的相關行動。前述計畫中亦指出,今年底英國政府將發布人工智慧治理白皮書並辦理相關公聽會。
英國資訊委員辦公室(Information Commissioner’s Office,簡稱 ICO)在2013年聖誕節前夕,呼籲消費者在聖誕節或其他重要節日使用行動裝置下載app應用程式時,需特別注意個人資料之保護,以防止遭受惡意攻擊而導致個人資料外洩。因為根據相關資料顯示,光是2012年聖誕節當天,即有32億8000萬個app應用程式被消費者下載使用。從ICO公布的ㄧ項調查結果中發現,有62%的app使用者,關心app供應商會透過何種方式使用他們的個人資料;此外,有49%的app使用者,會因為隱私權問題而拒絕下載使用app應用程式。 為提升消費者個人資料保護意識,降低個資外洩事件發生,並促進app產業於當地之發展,ICO提供下列5項使用要點:1.只下載官方或備受信賴app商店所提供之app應用程式,盡量避免使用來源不明之app應用程式;2.下載app應用程式前,應詳細閱讀該app所公告之相關資訊,並確認願意提供相關資料作為後續可能之使用;3.養成定期移除不需要之app應用程式的好習慣,降低資料外洩可能;4建議安裝手機防毒軟體或相關程式,協助並確保手機之安全性;5.於手機轉售、丟棄或回收之前,將手機恢復成「原廠設定」之狀態,以確保手機不會留下任何個人相關之資訊。ICO期以透過使用要點之提供,協助消費者於享受app應用程式之樂趣時,仍能確保個人資料行蹤之掌握,以達個人資料之保護。
歐盟執委會通過關於《人工智慧責任指令》之立法提案歐盟執委會(European Commission)於2022年9月28日通過《人工智慧責任指令》(AI Liability Directive)之立法提案,以補充2021年4月通過之《人工智慧法》草案(Artificial Intelligence Act)。鑑於人工智慧產品之不透明性、複雜性且具自主行為等多項特徵,受損害者往往難以舉證並獲得因人工智慧所造成之損害賠償,《人工智慧責任指令》立法提案即為促使因人工智慧而受有損害者,得以更容易獲得賠償,並減輕受損害者請求損害賠償之舉證責任。 《人工智慧責任指令》透過引入兩個主要方式:(一)可推翻之推定(rebuttable presumptions):人工智慧責任指令透過「因果關係推定(presumption of causality)」來減輕受損害者之舉證責任(burden of proof)。受損害者(不論是個人、企業或組織)若能證明人工智慧系統因過失或不遵守法規要求之義務,致其受有損害(包括基本權利在內之生命、健康、財產或隱私等),並且該損害與人工智慧系統之表現具有因果關係,法院即可推定該過失或不遵守義務之行為造成受損害者之損害。相對的,人工智慧之供應商或開發商等也可提供相關證據證明其過失不可能造成損害,或該損害係由其他原因所致,以推翻該損害之推定。(二)證據揭露機制(disclosure of evidence mechanism):若受害者之損害涉及高風險人工智慧時,得要求自該供應商或開發商等處獲取證據之權利。受害者透過證據揭露機制能夠較容易地尋求法律賠償,並得以找出究責的對象。 歐盟執委會認為以安全為導向的《人工智慧法》,為人工智慧訂定橫向規則,旨在降低風險和防止損害,但仍需要《人工智慧責任指令》之責任規定,以確保損害風險出現時,相關賠償得以被實現。但歐盟執委會仍選擇了較小的干預手段,《人工智慧責任指令》針對過失之責任制度進行改革,並未採取舉證責任倒置(a reversal of the burden of proof)之作法,而是透過「可推翻之推定」,一方面減輕受損害者之舉證責任,使受損害者得對影響人工智慧系統並產生過失或侵害行為之人提出損害賠償;另一方面賦予人工智慧之供應商或開發商等有機會推翻前揭造成損害之推定,以避免人工智慧系統之供應商或開發商面臨更高的責任風險,可能阻礙人工智慧產品和服務創新。
日本公布第6期科學技術與創新基本計畫草案並募集公眾意見,著重疫情與科技基本法修正後之因應日本內閣府於2021年1月20日發布「第6期科學技術與創新基本計畫」(科学技術・イノベーション基本計画,以下稱第6期科技創新基本計畫)草案,並自即日起至同年2月10日,對外徵求公眾意見。依2020年6月修正通過之日本科學技術與創新基本法(科学技術・イノベーション基本法,預定2021年正式公告施行)第12條規定,要求政府應就振興科學技術與創新創造的政策,擬定基本計畫並適時檢討調整,同時對外公告。而本次草案的提出,便為因應現行的第5期科學技術基本計畫即將屆期,啟動擬定下一期基本計畫。 依草案內容,第6期科技創新基本計畫延續Society5.0的願景,並以數位化及數位科技作為發展核心。但檢視至今的科技創新政策成效,數位化進程不如政策目標所預期;受COVID-19疫情影響,也提升了科技普及化應用的重要性。另一方面,科學技術基本法的修正,則揭示了人文社會科學與自然科學跨域融合運用的方向,並期待藉由創新創造納為立法目的,實現進一步的價值創造。基此,第6期科技創新基本計畫提出,應從強化創新、研究能量及確保人才與資金的三方向為主軸,結合SDGs、數位化、資料驅動及日本共通在地價值,建構出「日本模型」(Japan Model)作為實現Society5.0的框架。 針對如何強化創新能力、研究能量及確保人才與資金,計畫草案提出以下方向: (1)強化創新能力:整體性強化創新生態系(innovation ecosystem),建構具韌性的社會體系,並有計畫地推動具社會應用可能的研發活動。具體作法包含藉由AI與資料促成虛擬空間與現實世界的互動優化、持續縮減碳排放量實現循環經濟、減低自然災害與傳染病流行對經濟社會造成的風險、自社會需求出發推動產業結構走向創新、拓展智慧城市(smart city)的應用地域等。 (2)強化研究能力:鼓勵開放科學與資料驅動型之研究,並強化研究設備、機器等基礎設施的遠端與智慧機能,推動研究體系的數位轉型;以資料驅動型為目標,多元拓展具高附加價值的研究,包含生命科學、環境、能源、海洋、防災等領域;擴張大學的機能,如增進大學的自主性,從經營的角度調整與鬆綁國立大學法人的管理與績效評鑑方式等,用以厚植創新基底。 (3)人才培育及資金循環:目標培養具備應變力與設定議題能力的人才;同時藉由資助前瞻性研發,結合大學的基礎科研成果,激發創新的產出及延伸收益,並回頭挹注於研發,建立研發資金的循環運用體系。