所謂自動駕駛(autopilot),原來是指一個用來控制載具軌道而無需人工一直干預的系統,亦即無須人類持續干預,但人類仍須於關鍵時刻介入進行決定或作為,此時機器僅作為輔助。
而自動駕駛汽車或稱全自動駕駛,則只完全無須人類干預,由機器自動感應偵測,自動做成決策控制車輛行駛。故由人類的介入程度區別究竟是駕駛輔助或自動駕駛。美國國家公路交通安全管理局(NHTSA)於2016年已提出正式的分類系統,除手動駕駛(0級)外,區分弱駕駛輔助(1級)、部分自動駕駛(2級)、有條件全自動(3級)、高度/完全自動化(4級)不同程度的自動駕駛。其他國家如德國,在聯邦政府的「自動駕駛圓桌會議」也對自動駕駛有類似的四等級區分。
德國聯邦政府也在於2017年1月25日提出規範自動駕駛之法律草案,亦即道路交通法修正法(Änderung des Straßenverkehrsgesetzes),核心在於賦予電腦與人類駕駛者法律上同等地位。亦即,駕駛人的定義未來擴張延伸到「使用不同程度自動駕駛系統者」。根據草案將來在車輛行駛中,人類可以在特定時間與特定狀況下接管整個行駛。而最重要的修正:人類始終應該負使用電腦的最終責任。
故在行駛中駕駛人將會被輔助機器替代,更要求自駕系統應該具備“隨時可以由駕駛人接手操控或停俥”的功能。 分類中,駕駛人的角色只有到全自動駕駛實現時才退場,屆時才會發生無駕駛人只有乘客的狀況。
修法也重視自駕技術失敗並導致事故所生責任分擔的問題。對於責任的調查將採用如同飛航安全中之「黑盒子」的方式,該裝置會記錄行駛中的所有基本資料。這將有助於發生事故後澄清,查明究竟是技術上原因、製造商或駕駛員的過失,以確保駕駛人無法將責任全部推給自動化系統的故障。
本文為「經濟部產業技術司科技專案成果」
於2016年10月14日,中國大陸科技部為落實國務院於5月9日發布之《促進科技成果轉移轉化行動方案》中,有關大力推動地方科技成果轉移轉化,並開展區域性科技成果轉移轉化試點示範的要求,開始啟動在河北以及寧波,兩個科技成果轉移轉化示範區的建設計畫。 中國大陸推動國家科技成果轉移轉化示範區之目的在於推動科技成果轉移轉化工作,以期能有助於完善區域科技成果轉化政策環境,並且提升區域創新之能力;示範區的建設重點將在於完善科技成果轉化服務體系、建設科技成果產業化載體、開展政策先行先試等方面開展工作,進行地方的創新驅動發展。 為此,中國大陸科技部並印發了《科技部關於建設河北•京南國家科技成果轉移轉化示範區的函》、《科技部關於建設寧波國家科技成果轉移轉化示範區的函》兩份政策文件,其中河北•京南示範區的重點在於配合北京、天津,以及河北的區域協同發展,充分發揮跨區域輻射帶動作用,並且承接北京及天津的創新要素外溢轉移,以及與河北產業創新需求進行對接。而寧波示範區將則以科技成果轉化對產業和企業創新發展的對接為核心戰略,發展以企業為主體的科技成果轉移轉化示範區域。並以這兩個示範區的測試來探索模式、累積經驗。
日本《小型無人機等飛行禁止法》修正案內閣官房副長官於2019年12月18日召集國土交通省、警察廳、經濟產業省、防衛省等相關主管機關,召開第9次「小型無人機相關府省廳聯絡會議」(小型無人機に関する関係府省庁連絡会議),並決議由內閣於2020年向國會提交《小型無人機於重要設施周邊地區上空飛行禁止法》(重要施設の周辺地域の上空における小型無人機等の飛行の禁止に関する法律,以下簡稱「小型無人機等飛行禁止法」)修正案,將重要國際機場及其周邊地區列為小型無人機的永久禁航區。 《小型無人機等飛行禁止法》之目的係禁止小型無人機於國家重要設施上空飛行,以防患於未然,並維護國政中樞機能和良好國際關係,以及確保公共安全。依該法第2條、第9條第1項之規定,小型無人機之禁航區域包含國會議事堂、內閣總理大臣官邸、其他國家重要設施等、外國領事館等、國防相關設施和核能電廠,以及設施周邊經指定之地區。 而在機場部分,為預防危險並確保大會能順利準備及營運,日本已透過《世界盃橄欖球賽特別措施法》(ラグビーW杯特措法)及《東京奧運暨帕運特別措施法》(東京五輪・パラリンピック特措法),將國土交通大臣指定之機場及其周圍300米地區增列為小型無人機禁航區,但僅為大會期間的暫時性措施。內閣考量小型無人機之飛行可能會影響機場功能運行,甚至對經濟帶來重大不良影響,欲透過《小型無人機等飛行禁止法》修正案,將該暫時性措施改為永久措施。
美國國家標準暨技術研究院規劃建立「人工智慧風險管理框架」,並徵詢公眾對於該框架之意見美國國家標準暨技術研究院(National Institute of Standards and Technology, NIST)為管理人工智慧對於個人、組織以及社會所帶來之風險,於2021年7月29日提出將建立「人工智慧風險管理框架」(Artificial Intelligence Risk Management Framework, AI RMF)之規畫並徵詢公眾意見,截止日為9月15日,並預計於10月發布正式報告。 依照NIST說明,公眾所建議之人工智慧風險管理框架,可促進人工智慧之可信賴性,其中包含如何應對並解決人工智慧於設計、發展及使用過程中所遭遇之「精確度」(accuracy)、「可解釋性」(explainability)、「偏見」(bias)等議題。此外,上開管理框架預計為非強制性、供企業自願性使用於人工智慧設計、發展、使用、衡量及評估之人工智慧標準。 依現有公眾意見徵詢結果,其中DeepMind公司建議於人工智慧設計初期,必須預先構思整體系統之假設是否符合真正社會因果關係。舉例言之,當設計一套可預測民眾健保需求程度之系統時,如輸入參數僅考量民眾於醫療上的花費,將使僅有可負擔較高醫療費用之民眾被歸類為健保需求程度較高者,從而導致健保制度排擠經濟負擔程度較差之公民,故在設計系統時,應從預先設定之假設事實反面(counter-factual)思考並驗證是否會產生誤差或公平性之問題(例如預先思考並驗證「醫療費用支出較低之民眾是否即可被正確歸類為健保需求度低之民眾」)。惟進行上述驗證需要大量社會資料,因此DeepMind也建議NIST應建立相關機制,使這些社會資料可以被蒐集、使用。 此外,亦有民眾建議管理框架應有明確之衡量方法以及數值指標,以供工程界遵循。同時鑒於人工智慧發展極為快速,未來可能有不同於以往之人工智慧類型出現,故亦建議NIST應思考如何在「建構一套完整且詳細之人工智慧治理框架」與「保持人工智慧治理框架之彈性與靈活性」之間取得平衡。 最後,目前也有許多徵詢意見指出,許多人工智慧治理之目標會相互衝突。舉例言之,當NIST要求人工智慧系統應符合可解釋性,則人工智慧公司勢必需要經常抽取人工智慧系統中之「數據軌跡」(audit logs),惟數據軌跡可能被認為是使用者之個人資料,因此如何平衡或完善不同治理框架下之目標,為未來應持續關注之議題。
何謂日本拜杜法「事前承認制」?事前承認制為日本基於科研成果廣泛運用之目的,透過產業技術力強化法第19條的增修正式引入拜杜法制度後,針對政府資助研發成果移轉或授權予計畫外第三人的情形賦予委託機關與執行單位的義務。在日本拜杜法制度下,政府資助研發成果的相關專利權原則上得歸屬於執行單位,但考量到這些研發成果若移轉給未預備活用該些成果之人,將會造成由國家資金所衍生的科研成果難以被運用,從而無法達成促進成果運用的法目的,因此在該法第19條第4項增訂事前承認制。 依該制度,執行單位若欲讓與歸屬於執行單位之政府資助研發成果所涉及專利權給第三人,或將使用該些專利權的權利設定或移轉予第三人時,除了符合政令所定不妨礙專利權運用之情形外,委託機關須和執行單位約定為上開移轉等行為前,須先取得委託機關的同意。