英格蘭與威爾斯法律委員會(The Law Commission of England and Wales)與蘇格蘭法律委員會(The Scottish Law Commission)於2022年1月26日聯合提出¬「自駕車修法建議報告(Automated Vehicles: joint report)」,總結其自2018年來三次公眾意見諮詢之回應分析,提出75項法律修正建議,提交英格蘭及蘇格蘭議會決議是否採納並修法。
修法建議範圍涵蓋廣泛,重要突破性建議包含:
(1)整合英國原有之《2018自動與電動車法(Automated and Electric Vehicles Act 2018)》中自駕車之認定標準,訂定一套雙階段自動駕駛認證許可制度,於第一階段審驗「整車」之規格是否符合國際或國內車輛型式安全審驗標準,並於第二階段審驗¬¬¬「個別自駕功能」是否能符合國內交通法規。
(2)提出「主責使用者(User-In-Charge, UIC)」概念,若車輛設計為在某些情形下需要人工接手駕駛,則自動駕駛系統(Automated Driving System, ADS)啟動時,坐在車內駕駛座之自然人即為UIC。
(3)對於不需要UIC車輛(No User-In-Charge, NUIC)營運平台業者,以及合法自駕車業者(Authorized Self-Driving Entities, ASDE),提出資格條件要求,包含必須具備良好名聲、財務穩健,必須向主管機關提交安全案例(safety cases)等。
(4)因《2018自動與電動車法》中已有要求自駕車均須投保保險,因此當自駕車造成車禍及損傷,不需先經確認有無人為故意過失,即可先行以保險進行賠償。事後若保險公司認為自駕車設計製造者有責任,得再依商品責任規範轉向車廠求償。
(5)而為了幫助事故調查、釐清責任,自駕車相關資料之持有者(如ASDE)應將相關資料保存3年又3個月,以配合侵權行為之法律請求權時效。
本分報告綜合各方意見,以務實之態度提出具體修法建議,深具參考價值,值得我國深入研析。
本文為「經濟部產業技術司科技專案成果」
有鑑於英國14家銀行及金融公司被發現有任意丟棄客戶個人資料而違反「資料保護法」(Dada Protection Act)的情形,英國資訊官辦公室(Information Commissioner´s Office,ICO)於2007年3月17日要求其中11家銀行及金融公司簽署一份承諾書,保證其將來在處理客戶資料時必當遵守資料保護法的規定。 資訊官辦公室次長表示,銀行及金融公司應該以嚴肅的態度來處理客戶資料安全性的問題,否則,他們不但要接受資訊官辦公室更進一步的資訊安全審核,而且還會失去客戶對其之信賴。再者,若這些組織仍不遵守其簽署的承諾書,除了可能對遭到行政罰外,甚至還可能需要負擔違反資料保護法的刑事責任。 除了資訊官辦公室,英國的金融服務局(Financial Services Authority,FSA)亦有權針對違反資料保護法規定之金融公司加以執法。今年2月,英國房屋抵押貸款協會(Nationwide Building Society)便在金融服務局的資訊安全審核中,因為其使客戶資料暴露在可能遭竊的風險下而被處以1百萬鎊的罰金。
英國政府提交予國會「人工智慧監管規範政策報告」英國政府由數位文化媒體與體育大臣(Secretary of State for Digital, Culture, Media and Sport)與商業能源與工業策略大臣(Secretary of State for Business, Energy and Industrial Strategy)代表,於2022年7月18日提交予國會一份「人工智慧監管規範政策報告」(AI Regulation Policy Paper)。內容除定義「人工智慧」(Artificial Intelligence)外,並說明未來政府建立監管框架的方針與內涵。 在定義方面,英國政府認為人工智慧依據具體領域、部門之技術跟案例有不同特徵。但在監管層面上,人工智慧產物則主要包含以下兩大「關鍵特徵」,造成現有法規可能不完全適用情形: (1)具有「適應性」,擅於以人類難以辨識的意圖或邏輯學習並歸納反饋,因此應對其學習方式與內容進行剖析,避免安全與隱私問題。 (2)具有「自主性」,擅於自動化複雜的認知任務,在動態的狀況下持續判斷並決策,因此應對其決策的原理原則進行剖析,避免風險控制與責任分配問題。 在新監管框架的方針方面,英國政府期望所提出的監管框架依循下列方針: (1)針對技術應用的具體情況設計,允許監管機構根據其特定領域或部門制定和發展更詳細的人工智慧定義,藉以在維持監管目標確定與規範連貫性的同時,仍然能實現靈活性。 (2)主要針對具有真實、可識別與不可接受的風險水準的人工智慧應用進行規範,以避免範圍過大扼殺創新。 (3)制定具有連貫性的跨領域、跨部門原則,確保人工智慧生態系統簡單、清晰、可預測且穩定。 (4)要求監管機構考量更寬鬆的選擇,以指導和產業自願性措施為主。 在跨領域、跨部門原則方面,英國政府則建議所有針對人工智慧的監管遵循六個總體性原則,以保障規範連貫性與精簡程度。這六個原則是基於經濟合作暨發展組織(OECD)的相關原則,並證明了英國對此些原則的承諾: 1.確保人工智慧技術是以安全的方式使用 2.確保人工智慧是技術上安全的並按設計運行 3.確保人工智慧具有適當的透明性與可解釋性 4.闡述何謂公平及其實施內涵並將對公平的考量寫入人工智慧系統 5.規範人工智慧治理中法律主體的責任 6.釋明救濟途徑 除了「人工智慧監管政策說明」外,英國政府也發布了「人工智慧行動計畫」(AI Action Plan)文件,彙整了為推動英國「國家人工智慧策略」(National AI Strategy)而施行的相關行動。前述計畫中亦指出,今年底英國政府將發布人工智慧治理白皮書並辦理相關公聽會。
新加坡修正通過電子交易法新加坡於2010年5月19日修正通過電子交易法,並於7月1日正式施行。此次新修正之「電子交易法」,是依據新加坡資通訊發展局(Infocomm Development Authority,IDA)及司法部於2004到2005年間推行之公眾意見諮詢,進行法條之全面翻修。作為電子交易法制之先驅國家,新加坡於此次修法中納入聯合國「跨國契約中使用電子通訊公約」(United Nations Convention on the Use of Electronic Communications in International Contracts)之相關規定,此一公約旨在促進全球之電子通訊及交易以相同之法律模式加以運作。 該法之修正係為因應新加坡電子商務之日趨成長以及國民對電子化政府之需求,以建立新加坡成為全球可信賴之資通訊中心。此次修正重點如下: 一、參照聯合國「跨國契約中使用電子通訊公約」之規定,調整電子簽章之要件以及對於收發電子文件時間與地點之認定。納入以自動處理訊息系統做為契約訂立之方式,以電子文件作為正本以取代實體書面之正本文件,並就電子交易中要約之引誘以及電子通訊中發生錯誤時之解決方式加以規定,使新加坡之法律制度能與國際電子商務法律制度接軌。 二、促進民眾及企業與政府機關進行互動時,更有效率地使用電子文件相關服務,以加強電子化政府服務之應用。如提供綜合性電子表格,讓使用者僅需填寫一次相關資訊,即能利用不同種類的電子化政府服務。 三、對憑證管理中心之規範採用技術中立的認證架構,未來憑證管理中心不一定要使用公開金鑰基礎建設(Public Key Infrastructure,PKI)之相關技術作為提供驗證服務之方式,相對地,在其他技術逐漸開發之狀況下,也可採用其他技術提供驗證服務,如生物鑑識技術。當然,主管機關仍會以相同標準對採用不同驗證技術之憑證管理中心進行監督,以確保憑證服務之安全性及有效性。 。
澳洲於9月初生效《政府負責任地使用人工智慧的政策》(Policy for the responsible use of AI in government)2024年9月1日,澳洲生效《政府負責任地使用人工智慧的政策》(Policy for the responsible use of AI in government,下稱政策)。澳洲數位轉型局(Digital Transformation Agency,以下稱DTA)提出此政策,旨於透過提升透明度、風險評估,增進人民對政府應用AI的信任。 1. AI之定義 此政策採經濟合作暨發展組織(OECD)之定義:AI系統是一種基於機器設備,從系統接收的資訊進而產出預測、建議、決策內容。 2.適用範圍 (1)此政策適用於「所有非企業的聯邦個體(non-Corporate Commonwealth entities, NCE)」,非企業的聯邦個體指在法律、財務上為聯邦政府的一部分,且須向議會負責。此政策亦鼓勵「企業的聯邦實體」適用此政策。 (2)依據2018年國家情報辦公室法(Office of National Intelligence Act 2018)第4條所規定之國家情報體系(national intelligence community, NIC)可以排除適用此政策。 3.適用此政策之機構,須滿足下列2要件 (1)公布透明度聲明 各機構應在政策生效日起的6個月內(即2025年2月28日前)公開發布透明度聲明,概述其應用AI的方式。 (2)提交權責人員(accountable official,下稱AO)名單 各機構應在政策生效日起90天內(即2024年11月30日前)將AO名單提供給DTA。 所謂AO的職責範圍,主要分為: I.AO應制定、調整其機構採取之AI治理機制,並定期審查、控管落實情況,並向DTA回報;鼓勵為所有員工執行AI基礎知識教育訓練,並依業務範圍進行額外培訓,例如:負責採購、開發、訓練及部署AI系統的人員,使機構內的利害關係人知道政策的影響。 II.當既有AI 應用案例被機構評估為高風險AI應用案例時,通知DTA該機構所認定之高風險AI應用案例,資訊應包括:AI的類型;預期的AI應用;該機構得出「高風險」評估的原因;任何敏感性資訊(any sensitivities)。 III.擔任機構內協調AI的聯絡窗口 IV.AO應參與或指派代表參與AI議題之政策一體性會議(whole-of-government forums)。 本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。 本文同步刊登於TIPS網站(https://www.tips.org.tw)