2016年11月澳洲國家交通委員會(簡稱NTC)公布「自駕車政策革新報告」(Regulatory reforms for automated road vehicles Policy Paper),當中釐清對自駕車各項可能遭遇的法規障礙並設定修正時程,2017年4月16號NTC並進一歩依前份文件規劃提出「控制自駕車相關規範建議」討論文件,釐清自駕車的控制定義與相對應規範,並提出法制規範修正內容。
2016年澳洲政府並通過了關於陸路交通科技的「政策原則」(Policy Principles),其中包括政府決策時應基於改善交通安全、效率、永續發展和成果的可能實現,並且應以消費為中心等原則,這些原則構成了澳洲政府的政策框架。
澳洲NTC此份討論文件中,提出應釐清能「控制(in control)」自駕車的對象,此將影響自駕車事故的負責人為誰。NTC提出目前仍應定義人類駕駛為控制自駕車的一方而非自駕系統,以避免人類駕駛做出不適當的操作行為。
NTC並釐清「恰當控制」的定義。「恰當控制」為澳洲道路法規第297條第1項:「駕駛者不得駕駛車輛除非其有做出恰當控制」中所規範。恰當控制被目前的執法機關詮釋為駕駛者應坐在駕駛座上並至少有一隻手置於方向盤上。但「恰當控制」將因自動駕駛系統的操作方式受到挑戰。因此NTC認為「恰當控制」不一定需要將手置於方向盤上,而是要有足夠的警覺性和能即時進行干涉,此定義並應隨著科技發展而修正。
本次政策文件意見徵詢至2017年6月2日,收到意見後NTC將會意見納入未來的全國性實施政策方針,提交給澳洲交通與基礎建設諮議會(Transport and Infrastructure Council)通過,預計於2017年年底前完成此自駕車方針。
本文為「經濟部產業技術司科技專案成果」
新加坡無人車測試之法制配套評析 資策會科技法律研究所 法律研究員 王凱嵐 106年07月25日 壹、前言 隨著人工智慧的發展其運用日趨多元,與之結合之「無人車」逐漸成為人們熱門關注的科技名詞。所謂無人車(Autonomous Car),其車輛外觀與一般車輛相似,利用感測器及其他科技裝備,搭配電腦運算或機器學習等技術,辨識車輛周遭環境及狀況。同時根據外部資訊如:道路、交通號誌、車輛位置、障礙物等數據做出分析判斷,由電腦控制車輛方向及速度,實現無人車輛依據自身(電腦)意圖做出擬人駕駛的動作[1]。 包括Apple[2]、Google、Uber等非傳統汽車製造產業在內,世界各地串起一場以無人車為首的交通實驗。在無人車發展面向上,美國、新加坡早已有為無人車產業發展,提出修法或補助等政策措施。與我國比鄰的韓國,其政府近來也積極推動自動駕駛技術之發展,不僅核准多家業者上路實測,更計畫打造全球最大無人車車測場地「K-City」[3]。未來我國在台北、高雄[4]等地也即將出現無人車的身影,惟目前我國相關法規仍未針對無人車詳加規範,使得無人車發展上窒礙難行。 我國科學工業園區長久以來扮演著台灣科技工業發展之重要角色,參考國際在相關領域的發展,除硬體、軟體技術上配合,尚提供良好且完善的測試場域或法規配套。本文為建構國內無人車發展環境,打造產業聚落及完備有善法制環境,參考新加坡無人車立法例,提供我國未來科學工業園區區內無人車測試及法規配套之建議參考。 貳、新加坡無人車測試之法規調適 新加坡作為典型的「城市國家」,城市規劃是亞洲甚至全球的典範,良好的交通規劃、道路狀況及相關的基礎建設,都是無人車駕駛試驗所要求的環境。新加坡政府對於無人駕駛的發展,於2014年成立專門委員會管理無人駕駛車,而新加坡陸路交通管理局(LTA[5])近年來也積極的和多家發展無人駕駛技術的廠商密切合作[6]。針對無人駕駛技術的創新與應用,未來只會有增無減,而為適應科技成就所帶來之便利及法制之衝擊,新加坡政府於2017年2月[7]通過《公路交通法修正案》(Road Traffic (Amendment) Bill)。該修正案新增針對無人車測試有關之條文(6C、6D、6E),透過法規的修正讓科技與法制間增進一些彈性與空間。以下針對此次新加坡新修《公路交通法修正案》的三項關於無人車測試的條文分別說明: 首先在條文6C[8]部分,先做初步適用範圍及相關測試規範說明。考量無人車的測試需保護社會大眾之用路安全,該法案給予主管機關相關的權限,得針對無人車測試予以限制及規範,同時明確規範在何種情況下,主管機關得取消無人車業者之測試申請(如有損公眾利益)。針對測試之限制,新增定之條文規範包含測試時之天氣[9]、測試車輛硬體設備[10]、車輛系統建置的限制(要求能隨時介入車輛之操縱)等皆為評估允許無人車測試之依據。另外,對於車輛測試業者,於測試之前政府得要求保「責任險」(Liability Insurance)或相當金額之保證金[11]。測試業者需公布實驗計畫之內容,如測試地點、時間及所屬負責人,所有的測試資料應跟主管單位陸路交通管理局分享[12]。 條文6D則是規範有關於無人車測試時責任豁免(Exemptions)的規定,在有條件或無條件情形下,根據此條文得以免除特定法規或法律[13]。然該免除責任的範圍,仍以此《公路交通法》及其附屬法規為主。新加坡在一般情形下,駕駛人於道路上發生交通事故,根據《公路交通法》將需負擔相關道路責任。不過在最新通過的《公路交通法修正案》無人車測試免責規定中,考量無人車科技無規範「人員過失」之必要,原則上將免除無人車測試相關人員之法律責任(包含駕駛人、參與測試的人員等)。若是無人車業者(測試申請人)違反或不遵守前條6C的規定及條件,則無本條免責之適用。未來無人車真正上路後,若發生故障或交通事故,本次修法並未有說明,其責任歸屬仍待討論。最後在條文6E針對於無人車測試中,有蓄意破壞或是干擾測試者,對其處與相當金額之罰鍰[14]。 整體而言,新加坡政府對於無人車態度較為積極且開放,除法規上預留彈性用以降低無人車發展測試與現行法規的衝擊,另一方面也與多間無人車公司合作,在整體產業面上提供多方面的便利。去年新加坡成為全球第一個讓無人計程車(nuTonomy)[15]上路的國家,預計在2018年,亞洲第一輛投入商業化的無人巴士也將在新加坡上路。 參、小結 隨著科技的進步,新興科技與生活的結合衝擊著現有的法制規範。調整且負有彈性的法制規範,漸漸在國際上得到重視,諸如英國、澳洲及新加坡皆推出金融業的「監理沙盒」制度或政策,我國金管會也於今年( 2017)初提出《金融科技創新實驗條例》草案,帶動金融領域新的成長與翻轉。無論是金融或非金融,法規侷限新興限科技應用的問題皆存在,從「創新、試驗」的角度,新加坡將未來無人車測試的法律依據植入《公路交通法》,針對單一領域法規進行修法,似已成功將「監理沙盒」機制從目前以金融業為主轉換到非金融領域,此作法值得我國參考。 [1] 數位時代, https://www.bnext.com.tw/search/tag/%E7%84%A1%E4%BA%BA%E8%BB%8A(最後瀏覽日:2017/07/04) [2] TechNews科技新報,<蘋果自駕車真面目,矽谷街頭試行照曝光>,2017/04/28,https://technews.tw/2017/04/28/the-lexus-that-apples-using-to-test-self-driving-car-technology/ (最後瀏覽日:2017/06/02) [3] TechNews科技新報,<加速推動自駕車發展,南韓打造全球最大自駕車測試場地>,2017/05/10,https://technews.tw/2017/05/10/south-korea-begins-development-of-test-bed-k-city-for-self-driving-cars/ (最後瀏覽日:2017/06/02) [4] TechNews科技新報,<高雄欲導入的法國EasyMile無人自駕巴士,究竟魅力何在>,2017/04/05,https://technews.tw/2017/04/05/kaohsiung-city-government-signed-mou-with-easymile-and-7starlake-2017/ (最後瀏覽日:2017/06/02) [5] Land Transport Authority, 簡稱LTA. [6] 數位時代, <為什麼新加坡能夠成為無人駕駛「重鎮」?>,2017/07/04, https://www.bnext.com.tw/article/41716/why-singapore-can-be-automated-pilot-strategic-town(最後瀏覽日:2017/07/04) [7] Parliament of Singapore, https://www.parliament.gov.sg/publications/2017 (最後瀏覽日:2017/07/04) [8] Road Traffic (Amendment)Bill, 6C. [9] 6C(1)(f)Prescribe the weather and any climatic or other circumstances when an approved trial or approved special use may or not be undertaken or carried out, as the case may be; [10] 6C(1)(g)Prescribe the construction, design or use of infrastructure technology, equipment or devices in relation to the autonomous motor vehicle or automated vehicle technology involved in the approved trial or approved special use, including requiring that the vehicle- [11] 6D(1)(b)To have in place liability insurance before the approved trial or approved special use starts, and to ensure that it is in force at all times during the period of the approved trial or approved special use; [12] 6D(1)(i)Require the keeping of records by the specified person, and the giving of information to the Authority or any other person designated by the Authority about the approved trial or approved special use undertaken or carried out, including the automated vehicle technology involved in the trial or special use; [13] 6D(1)(a)Exempt (with or without conditions) from the application of section 5 or other specified provisions of this Act or its subsidiary legislation, or any other written law, any of the following. [14] Road Traffic (Amendment)Bill, 6E [15] Inside,<第一批無人駕駛計程車新加坡上市,nuTonomy:我們才是第一>,2016/08/25,https://www.inside.com.tw/2016/08/25/nutonomy (最後瀏覽日:2017/07/18)
歐洲議會通過《人工智慧法案》朝向全球首部人工智慧監管標準邁進下一步歐洲議會通過《人工智慧法案》 朝向全球首部人工智慧監管標準邁進下一步 資訊工業策進會科技法律研究所 2023年06月26日 觀察今年的科技盛事屬ChatGPT討論度最高,將人們從區塊鏈、元宇宙中,帶入人工智慧(AI)領域的新發展。ChatGPT於2022年11月由OpenAI開發的生成式人工智慧,透過深度學習模型,理解和生成自然語言,其功能包含回答各類型問題(如科學、歷史)、生成邏輯結構之文章(如翻譯、新聞標題)、圖形、影像等內容。然而對於人工智慧的發展,究竟如何去處理人機間互動關係,對於風險之管理及相關應用之規範又該如何,或許可從歐盟的法制發展看出端倪。 壹、事件摘要 面對人工智慧的發展及應用,歐盟執委會(European Commission)早在2018年6月成立人工智慧高級專家組(AI HLEG),並於隔年(2019)4月提出「可信賴的人工智慧倫理準則」(Ethics Guidelines for Trustworthy AI),要求人工智慧需遵守人類自主、傷害預防、公平、透明公開等倫理原則。於2021年4月21日歐盟執委會提出「人工智慧法律調和規則草案」(Proposal for a Regulation Laying Down Harmonised Rules on Artificial Intelligence (Artificial Intelligence Act) and Amending Certain Union Legislative Acts)(以下稱人工智慧法案),於2023年內部市場委員會(Internal Market Committee)與公民自由委員會(Civil Liberties Committee)通過並交由歐洲議會審議(European Parliament),最終《人工智慧法案》於2023年6月14日通過。後續將再歐盟理事會(Council of the European Union)與辯論協商,尋求具共識的最終文本[1]。 貳、重點說明 由於「歐盟議會通過」不等於「法案通過」,實際上歐盟立法機制不同於我國,以下透過法案內容說明的契機,概述一般情況下歐盟之立法流程: 一、歐盟立法過程 通常情況下,法案由歐盟執委會(下簡稱執委會)提出,送交歐盟理事會及歐洲議會,作為歐盟的「立法者」歐洲理事會(下簡稱理事會)與歐洲議會(下簡稱議會)將針對法案獨立討論並取得各自機關內之共識。大致上立法程序有可分為三階段,在一讀階段若理事會與議會對於執委會版本無修改且通過,則法案通過,若任一機關修改,則會進行到二讀階段。針對法案二讀若仍無法取得共識,則可召開調解委員會(Conciliation)協商,取得共識後進入三讀。簡單來說,法案是否能通過,取決於理事會與議會是否取得共識,並於各自機關內表決通過[2]。 目前《人工智慧法案》仍處於一讀階段,由於法案具備爭議性且人工智慧發展所因應而生之爭議迫在眉睫,議會通過後將與執委會、理事會進入「三方會談」(Trilogue)的非正式會議,期望針對法案內容取得共識。 二、人工智慧法案 (一)規範客體 《人工智慧法案》依風險及危害性程度分級,其中「不可接受風險」因抵觸歐盟基本價值原則禁止(符合公益目標,如重大或特定犯罪調查、防止人身安全遭受危害等例外許可)。「高風險」則為法案規範之重點,除針對系統技術穩健、資料處理及保存訂有規範外,針對人為介入、安全性等也訂定標準。 而針對高風險之範疇,此次議會決議即擴大其適用範圍,將涉及兒童認知、情緒等教育及深度偽造技術(Deepfake)納入高風險系統,並強調應遵循歐盟個人資料保護規範。此外對於社會具有高影響力之系統或社群平臺(法案以4500萬用戶做為判斷基準),由執委會評估是否列為高風險系統。針對目前討論度高的生成式人工智慧(ChatGPT),議會針對法案增訂其系統於訓練及應用目的上,應揭露其為生成式人工智慧所產出之內容或結果,並摘要說明所涉及之智慧財產權[3]。 (二)禁止項目 關於《人工智慧法案》對於高風險系統之要求,從執委會及理事會的觀點來看,原則上重點在於對弱勢的保護及生物資料辨識之權限。歐盟禁止人工智慧系統影響身理及心理,包含對於特定族群如孩童、身心障礙者等弱勢族群之不平等待遇。同時原則禁止即時遠端的生物辨識利用,包含對於人性分析、動作預測等對於人類評價、分類之應用,例外情況如犯罪調查、協尋失蹤兒童、預防恐怖攻擊、關鍵基礎設施破壞等情況時方被允許。此次議會決議提高禁止即時遠端生物辨識的標準,包含納入敏感資訊的蒐集如性別、種族、政治傾向等,及其他臉部辨識、執法、邊境管制、情緒辨識等項目[4]。 參、事件評析 有關《人工智慧法案》雖歐洲議會已一讀通過,然而後續仍要面對與歐盟理事會的協商討論,並取得共識才能規範整個歐盟市場。因此上述規範仍有變數,但仍可推敲出歐盟對於人工智慧(含生成式)的應用規範態度。在面對日新月異的新興科技發展,其立法管制措施也將隨著橫向發展,納入更多種面向並預測其走向趨勢。因人工智慧有應用多元無法一概而論及管制阻礙創新等疑慮,觀察目前國際上仍以政策或指引等文件,宣示人工智慧應用倫理原則或其風險之管理,偏重產業推動與自律。 觀察歐盟《人工智慧法案》之監管目的,似期望透過其市場規模影響國際間對於人工智慧的監管標準。倘若法案後續順利完成協商並取得共識通過,對於如OpenAI等大型人工系統開發商或社群平臺等,若經執委會評估認定為高風險系統,勢必對於未來開發、應用帶來一定衝擊。因此,歐盟對於人工智慧監管的態度及措施實則牽一髮而動全身,仍有持續觀察之必要。 本文同步刊登於TIPS網站(https://www.tips.org.tw) [1]The AI Act, Future of Life Institute, https://artificialintelligenceact.eu/developments/ (last visited Jun. 20, 2023) [2]The ordinary legislative procedure, Council of European Union, https://www.consilium.europa.eu/en/council-eu/decision-making/ordinary-legislative-procedure/ (last visited Jun. 19, 2023) [3]EU AI Act: first regulation on artificial intelligence, European Parliament, Jun. 14, 2023, https://www.europarl.europa.eu/news/en/headlines/society/20230601STO93804/eu-ai-act-first-regulation-on-artificial-intelligence (last visited Jun. 21, 2023) [4]MEPs ready to negotiate first-ever rules for safe and transparent AI, European Parliament, Jun. 14, 2023, https://www.europarl.europa.eu/news/en/press-room/20230609IPR96212/meps-ready-to-negotiate-first-ever-rules-for-safe-and-transparent-ai(last visited Jun. 21, 2023)
OECD啟動全球首創的《開發先進人工智慧系統組織的報告框架》2025年2月7日,經濟合作暨發展組織(Organization for Economic Cooperation and Development,OECD)正式啟動《開發先進人工智慧系統組織的報告框架》(Reporting Framework for the Hiroshima Process International Code of Conduct for Organizations Developing Advanced AI Systems,簡稱G7AI風險報告框架)。 該框架之目的是具體落實《廣島進程國際行為準則》(Hiroshima Process International Code of Conduct)的11項行動,促進開發先進人工智慧系統(Advanced AI Systems)的組織建立透明度和問責制。該框架為組織提供標準化方法,使其能夠證明自身符合《廣島進程國際行為準則》的行動,並首次讓組織可以提供有關其人工智慧風險管理實踐、風險評估、事件報告等資訊。對於從事先進人工智慧開發的企業與組織而言,該框架將成為未來風險管理、透明度揭露與國際合規的重要依據。 G7 AI風險報告框架設計,對應《廣島進程國際行為準則》的11項行動,提出七個核心關注面向,具體說明組織於AI系統開發、部署與治理過程中應採取之措施: 1. 組織如何進行AI風險識別與評估; 2. 組織如何進行AI風險管理與資訊安全; 3. 組織如何進行先進AI系統的透明度報告; 4. 組織如何將AI風險管理納入治理框架; 5. 組織如何進行內容驗證與來源追溯機制; 6. 組織如何投資、研究AI安全與如何降低AI社會風險; 7. 組織如何促進AI對人類與全球的利益。 為協助G7推動《廣島進程國際行為準則》,OECD建構G7「AI風險報告框架」網路平台,鼓勵開發先進人工智慧的組織與企業於2025年4月15日前提交首份人工智慧風險報告至該平台(https://transparency.oecd.ai/),目前已有包含OpenAI等超過15家國際企業提交報告。OECD亦呼籲企業與組織每年定期更新報告,以提升全球利益相關者之間的透明度與合作。 目前雖屬自願性報告,然考量到國際監理機關對生成式AI及高風險AI 系統透明度、可問責性(Accountability)的日益關注,G7 AI風險報告框架內容可能成為未來立法與監管的參考作法之一。建議企業組織持續觀測國際AI治理政策變化,預做合規準備。