所謂自動駕駛(autopilot),原來是指一個用來控制載具軌道而無需人工一直干預的系統,亦即無須人類持續干預,但人類仍須於關鍵時刻介入進行決定或作為,此時機器僅作為輔助。
而自動駕駛汽車或稱全自動駕駛,則只完全無須人類干預,由機器自動感應偵測,自動做成決策控制車輛行駛。故由人類的介入程度區別究竟是駕駛輔助或自動駕駛。美國國家公路交通安全管理局(NHTSA)於2016年已提出正式的分類系統,除手動駕駛(0級)外,區分弱駕駛輔助(1級)、部分自動駕駛(2級)、有條件全自動(3級)、高度/完全自動化(4級)不同程度的自動駕駛。其他國家如德國,在聯邦政府的「自動駕駛圓桌會議」也對自動駕駛有類似的四等級區分。
德國聯邦政府也在於2017年1月25日提出規範自動駕駛之法律草案,亦即道路交通法修正法(Änderung des Straßenverkehrsgesetzes),核心在於賦予電腦與人類駕駛者法律上同等地位。亦即,駕駛人的定義未來擴張延伸到「使用不同程度自動駕駛系統者」。根據草案將來在車輛行駛中,人類可以在特定時間與特定狀況下接管整個行駛。而最重要的修正:人類始終應該負使用電腦的最終責任。
故在行駛中駕駛人將會被輔助機器替代,更要求自駕系統應該具備“隨時可以由駕駛人接手操控或停俥”的功能。 分類中,駕駛人的角色只有到全自動駕駛實現時才退場,屆時才會發生無駕駛人只有乘客的狀況。
修法也重視自駕技術失敗並導致事故所生責任分擔的問題。對於責任的調查將採用如同飛航安全中之「黑盒子」的方式,該裝置會記錄行駛中的所有基本資料。這將有助於發生事故後澄清,查明究竟是技術上原因、製造商或駕駛員的過失,以確保駕駛人無法將責任全部推給自動化系統的故障。
本文為「經濟部產業技術司科技專案成果」
德國聯邦議院於2023年9月21日通過《能源效率法》(Energieeffizienzgesetz, EnEfG)草案,確立德國能源效率目標,並規範公部門及企業的具體效率措施,及首次定義資料中心的能效標準,本法並要求德國2030目標應符合歐盟能源效率指令(EU Energy Efficiency Directive, EED)。預計聯邦參議院將在10月底審議該法律,之後將盡快生效。本次修法重點如下: 1.能源效率目標:EnEfG規定2030年德國減少初級和最終能源消耗的目標,以及2045年減少最終能源消耗的目標。以最終能源消耗而言,此代表著2030年減少約500TWh(與目前水準相比)。未來,聯邦政府將在立法期開始時,定期向聯邦議院通報目標實現情況,並在必要時決定調整工具組合。 2.聯邦及各邦的節能義務:從2024年起,聯邦政府和各邦政府有義務採取節能措施。至2030年,聯邦及各邦的最終能源消耗每年各分別節省45TWh和3TWh。 3.公部門在節能減排方面樹立榜樣:為了使聯邦和邦層級的公部門在提升能源效率方面能做為表率,未來將導入能源或環境管理系統。此外,EnEfG也規定節能措施的實施,目標是每年最終能源消耗減少2%。 4.企業能源或環境管理系統:EnEfG要求能耗較大(超過平均7.5GWh)的企業導入能源或環境管理系統,最終能源消耗總量為2.5 GWh以上的企業,則需要在實施計畫中,記錄和公布節能措施。此種作法不僅提高能源消耗的透明度,同時也讓企業可自行決定導入哪些措施以及預計的成果。 5.資料中心的能源效率及餘熱要求:新的資料中心應遵守能源效率標準,還必須利用餘熱(Abwärme)。未來,所有大型資料中心營運商應使用再生能源電力,並於公共登錄冊中記載能源消耗的資訊,以及向客戶告知其具體能源消耗狀況。 6.餘熱的避免與利用:未來應盡可能避免生產過程中產生餘熱。如果無法避免,則應利用餘熱。此外,有關企業餘熱潛力的資訊將綁定並公布在一新平台上。
美國國防部「人工智慧國防運用倫理準則」美國國防部(Department of Defense)於2020年2月採納由美國國防創新委員會(Defense Innovation Board, DIB)所提出之「人工智慧國防運用倫理準則(AI Principles: Recommendations on the Ethical Use of Artificial Intelligence by the Department of Defense)」,以衡平倫理與人工智慧於國防帶來之增益。 美國國防創新委員會為美國聯邦政府下之獨立委員會,設置目的在於依美國新創科技,提供意見予美國國防部,與美國國防部並無隸屬關係。有鑑於人工智慧之運用範疇日益增廣,美國國防創新委員會遂提出旨揭「人工智慧國防運用倫理準則」,以因應人工智慧於國防之應用所產生之問題。 倫理準則適用於「戰爭或非戰爭用途之人工智慧之設計以及應用」,對於「人工智慧」之定義,倫理準認為人工智慧並無精確之範疇,只要「對於資訊有所處理並旨在達到所賦予任務之資訊系統」,皆為本準則下之人工智慧。倫理準則指出,「人工智慧」與美國國防部3000.09指令下之「自動化武器系統(Autonomous Weapon System)」之定義不同,但有可能重疊,而所謂「自動化武器系統」為「一經人類選擇啟動,即可在無人類監督之情形下,自動針對目標進行鎖定或進行攻擊之自動化武器系統」。 美國國防創新委員會表示,該準則旨在切合美國既有憲法、法律、國際公約之傳統標準下,融入現代化對於人工智慧之要求,如國際公約中之戰爭法(Law of War)即為本準則之傳統標準之一,舉例而言,如人工智慧被裝置於武器中,其設計及應用應符合最小傷亡原則、避免傷及無辜原則等。 除此之外,準則亦包含以下現代化對於人工智慧之要求:(1)人類對於人工智慧系統之設計、應用以及使用應善盡判斷以及注意義務,且人類應該對於人工智慧系統因瑕疵所帶來之傷害負擔最終責任;(2)對於目標之選擇或分類,應維持公平性,且不得有歧視性;(3)對於人工智慧之設計、應用以及使用,應有明確之工程標準以及資料保存程序,此一工程標準以及資料保存程序應為一般具有專業知識之工程人員可據以理解、分析、追蹤問題所在並加以改善;(4)「戰爭或非戰爭用途之人工智慧」應有明確之應用領域,且完善之檢測、維修,應適用於該人工智慧之全部生命週期。
英國交通運輸部公布「交通運輸之未來」公眾諮詢文件英國交通運輸部及聯網與自動駕駛車中心(Centre for Connected and Autonomous Vehicles, CCAV)於2018年7月30日公布「交通運輸之未來」公眾諮詢文件(Future of Mobility-Call for Evidence),提及未來之交通運輸趨勢: (1) 更加潔淨之交通運輸工具(cleaner transport):因電池價格下降、電動車技術之改善、開發替代燃料等因素,可減少現有交通工具之碳排放,並作為後續新技術研發基礎。英國政府已明確表示預計於2040年前讓新車及貨車實現零碳排目標。 (2) 自動化(automation):因感測器技術進步以及演算法和人工智慧之快速發展,使交通運輸自動化程度大幅提升。英國政府預計2021年可讓完全自動化駕駛車輛於道路行駛。 (3) 資料及聯結(data and connectivity):未來聯網車輛間可互聯,亦可與交通號誌互聯,透過即時路況告知,以避免道路壅塞。 (4) 新模式(new modes):英國已使用無人機於緊急服務或基礎設施勘查,未來可能有垂直起降之車輛出現,而計程車及公車之分別亦逐漸模糊。 (5) 交通運輸共享化(shared mobility):利用共享車輛可降低交通壅塞及廢氣排放,如公共自行車、商業化之車輛共乘。 (6) 不斷轉變的消費者態度(changing consumer attitudes):消費者已漸漸期待所有交通工具的預約叫車及支付,皆可透過手機進行,主管機關則應考量消費者需求,確保相關交通服務的利用。 (7) 新商業模型(new business models):未來交通運輸已有新商業模式出現,如公共運輸行動服務(Mobility as a Service)。 英國政府期望透過上述交通運輸變革,能帶來更安全、便利及潔淨之交通,並實現更好的生活品質。
美國加州「Asilomar人工智慧原則決議」美國加州議會於2018年9月7日通過Asilomar人工智慧原則決議(23 Asilomar AI Principles, ACR-215),此決議表達加州對於「23條Asilomar人工智慧原則」之支持,以作為產業或學界發展人工智慧、政府制定人工智慧政策之指標,並提供企業開發人工智慧系統時可遵循之原則。依此法案所建立之重要指標如下: (1)於研究原則上,人工智慧之研究應以建立對於人類有利之人工智慧為目標。 (2)於研究資助上,人工智慧之研究資助應著重幾個方向,如:使人工智慧更加健全且可抵抗外界駭客干擾、使人工智慧促進人類福祉同時保留人類價值以及勞動意義、使法律制度可以順應人工智慧之發展。 (3)於科學政策之連結上,人工智慧研究者與政策擬定者間應有具有建設性且健全之資訊交流。 (4)於研究文化上,人工智慧研究者應保持合作、互信、透明之研究文化。 (5)於安全性上,人工智慧研究團隊應避免為了研究競爭而忽略人工智慧應具備之安全性。 (6)人工智慧系統應該於服務期間內皆具備安全性及可檢視性。 (7)人工智慧系統之編寫,應可使外界於其造成社會損失時檢視其出錯原因。 (8)人工智慧系統如應用於司法判斷上,應提供可供專門人員檢視之合理推論過程。 (9)人工智慧所產生之責任,應由設計者以及建造者負擔。 (10)高等人工智慧內在價值觀之設計上,應符合人類社會之價值觀。 (11)高等人工智慧之設計應可與人類之尊嚴、權利、自由以及文化差異相互調和。 (12)對於人工智慧所使用之資料,其人類所有權人享有擷取、更改以及操作之權利。 (13)人工智慧之應用不該限制人類「客觀事實上」或「主觀知覺上」之自由。 (14)人工智慧之技術應盡力滿足越多人之利益。 (15)人工智慧之經濟利益,應為整體人類所合理共享。 (16)人類對於人工智慧之內在目標應享有最終設定權限。 (17)高等人工智慧所帶來或賦予之權力,對於人類社會之基本價值觀應絕對尊重。 (18)人工智慧所產生之自動化武器之軍備競賽應被禁止。 (19)政策上對於人工智慧外來之發展程度,不應預設立場。 (20)高等人工智慧系統之研發,由於對於人類歷史社會將造成重大影響,應予以絕對慎重考量。 (21)人工智慧之運用上,應衡量其潛在風險以及可以對於社會所帶來之利益。 (22)人工智慧可不斷自我循環改善,而可快速增進運作品質,其安全標準應予以嚴格設定。 (23)對於超人工智慧或強人工智慧,應僅為全體人類福祉而發展、設計,不應僅為符合特定國家、組織而設計。