所謂自動駕駛(autopilot),原來是指一個用來控制載具軌道而無需人工一直干預的系統,亦即無須人類持續干預,但人類仍須於關鍵時刻介入進行決定或作為,此時機器僅作為輔助。
而自動駕駛汽車或稱全自動駕駛,則只完全無須人類干預,由機器自動感應偵測,自動做成決策控制車輛行駛。故由人類的介入程度區別究竟是駕駛輔助或自動駕駛。美國國家公路交通安全管理局(NHTSA)於2016年已提出正式的分類系統,除手動駕駛(0級)外,區分弱駕駛輔助(1級)、部分自動駕駛(2級)、有條件全自動(3級)、高度/完全自動化(4級)不同程度的自動駕駛。其他國家如德國,在聯邦政府的「自動駕駛圓桌會議」也對自動駕駛有類似的四等級區分。
德國聯邦政府也在於2017年1月25日提出規範自動駕駛之法律草案,亦即道路交通法修正法(Änderung des Straßenverkehrsgesetzes),核心在於賦予電腦與人類駕駛者法律上同等地位。亦即,駕駛人的定義未來擴張延伸到「使用不同程度自動駕駛系統者」。根據草案將來在車輛行駛中,人類可以在特定時間與特定狀況下接管整個行駛。而最重要的修正:人類始終應該負使用電腦的最終責任。
故在行駛中駕駛人將會被輔助機器替代,更要求自駕系統應該具備“隨時可以由駕駛人接手操控或停俥”的功能。 分類中,駕駛人的角色只有到全自動駕駛實現時才退場,屆時才會發生無駕駛人只有乘客的狀況。
修法也重視自駕技術失敗並導致事故所生責任分擔的問題。對於責任的調查將採用如同飛航安全中之「黑盒子」的方式,該裝置會記錄行駛中的所有基本資料。這將有助於發生事故後澄清,查明究竟是技術上原因、製造商或駕駛員的過失,以確保駕駛人無法將責任全部推給自動化系統的故障。
本文為「經濟部產業技術司科技專案成果」
2015年3月,暴雪公司(BLizzard Entertainment)在官網上公開宣稱,手機遊戲《刀塔傳奇》並未經過其授權,而其角色場景均涉嫌抄襲「魔獸爭霸」與「魔獸世界」多項重要角色,其後在美國、大陸台灣等地對《刀塔傳奇》開發商莉莉斯公司提出告訴。而 Courthouse News Service近來指出,美國地方法院於2015年12月17日駁回暴風公司對莉莉斯公司的訴訟。 美國的著作權法不保護虛擬角色,但仍有例外。依據上訴法院在1978年的Halicki Films訴Sanderson Sales and Marketing一案標準,若該虛擬角色具有特別特色(especially distinctive)則可例外予以保護,而特別特色需要有相當證據證明設計者為原告且具有獨特的特徵,方得予以主張。美國地院目前認為而暴雪公司目前提出角色姓名、服裝、武器、背景設定等證據資料,尚無法說明暴雪公司所創角色具有獨特性,故予以駁回。而暴雪公司則於12月22日發出正式聲明,認為現階段並非侵權主張不成立,而是訴訟資料不齊全,並著手提交更詳盡的證據清單,暴雪公司會於修正訴狀後,再提起訴訟。 雖然暴雪公司在美國對莉莉斯訴訟遭受駁回,但其在中國大陸對《刀塔傳奇》代理商與莉莉斯公司所提告訴,已讓蘋果公司(Apple, Inc.)讓《刀塔傳奇》從App store下架;而美國法院判決是否使蘋果公司在中國大陸重新上架《刀塔傳奇》,則有待觀察。
日本公布資料管理框架,促進資料加值應用日本經濟產業省2022年4月8日公布「協調性資料加值運用之資料管理框架-透過確保資料可信度創造資料價值之新路徑」(協調的なデータ利活用に向けたデータマネジメント・フレームワーク~データによる価値創造の信頼性確保に向けた新たなアプローチ),提示確保資料可信度之方法。經濟產業省於2019年7月31日設立「第3層︰網路空間信賴性確保之安全對策檢討工作小組」(『第3層:サイバー空間におけるつながり』の信頼性確保に向けたセキュリティ対策検討タスクフォース」,以下簡稱工作小組),討論確保資料可信度之要件,以利資料在網路空間內自由流通,並藉由資料創造出新的附加價值。 工作小組為確保資料可信度,首先定義資料管理為「將資料屬性依據其所涉之法令或組織規章,以及因蒐集、處理、利用、移轉等活動而改變之過程,視為一個生命週期加以管理」,並認為資料管理會受到屬性(資料性質,如內容、揭露範圍、利用目的、資料管理主體、資料權利者等)、場域(針對資料之特定規範,如各國、地區法令、組織內部規定、組織間契約等)及事件(產生、改變及維持資料屬性之事件,如生產、蒐集、處理、移轉、提供、儲存、刪除)等三大要素影響,並據此建立資料管理模型。 工作小組期待藉由上述三大要素,依序透過讓資料處理流程(事件)處於容易被觀察的狀態、整理所涉及之相關規範(場域),以及判斷資料屬性等步驟,讓利害關係人之間可更容易進行資料共享及資料治理。
美國國防部「人工智慧國防運用倫理準則」美國國防部(Department of Defense)於2020年2月採納由美國國防創新委員會(Defense Innovation Board, DIB)所提出之「人工智慧國防運用倫理準則(AI Principles: Recommendations on the Ethical Use of Artificial Intelligence by the Department of Defense)」,以衡平倫理與人工智慧於國防帶來之增益。 美國國防創新委員會為美國聯邦政府下之獨立委員會,設置目的在於依美國新創科技,提供意見予美國國防部,與美國國防部並無隸屬關係。有鑑於人工智慧之運用範疇日益增廣,美國國防創新委員會遂提出旨揭「人工智慧國防運用倫理準則」,以因應人工智慧於國防之應用所產生之問題。 倫理準則適用於「戰爭或非戰爭用途之人工智慧之設計以及應用」,對於「人工智慧」之定義,倫理準認為人工智慧並無精確之範疇,只要「對於資訊有所處理並旨在達到所賦予任務之資訊系統」,皆為本準則下之人工智慧。倫理準則指出,「人工智慧」與美國國防部3000.09指令下之「自動化武器系統(Autonomous Weapon System)」之定義不同,但有可能重疊,而所謂「自動化武器系統」為「一經人類選擇啟動,即可在無人類監督之情形下,自動針對目標進行鎖定或進行攻擊之自動化武器系統」。 美國國防創新委員會表示,該準則旨在切合美國既有憲法、法律、國際公約之傳統標準下,融入現代化對於人工智慧之要求,如國際公約中之戰爭法(Law of War)即為本準則之傳統標準之一,舉例而言,如人工智慧被裝置於武器中,其設計及應用應符合最小傷亡原則、避免傷及無辜原則等。 除此之外,準則亦包含以下現代化對於人工智慧之要求:(1)人類對於人工智慧系統之設計、應用以及使用應善盡判斷以及注意義務,且人類應該對於人工智慧系統因瑕疵所帶來之傷害負擔最終責任;(2)對於目標之選擇或分類,應維持公平性,且不得有歧視性;(3)對於人工智慧之設計、應用以及使用,應有明確之工程標準以及資料保存程序,此一工程標準以及資料保存程序應為一般具有專業知識之工程人員可據以理解、分析、追蹤問題所在並加以改善;(4)「戰爭或非戰爭用途之人工智慧」應有明確之應用領域,且完善之檢測、維修,應適用於該人工智慧之全部生命週期。
「美國FTC處罰mHealth App不實廣告」美國聯邦貿易委員會(Federal Trade Commission,以下簡稱FTC)在2016年2月針對一款宣稱能矯正視力之Ultimeyes App處罰。此款App由Carrot Neurotechnology公司研發,以美金9.99元於平台上販售供民眾下載。App宣稱具有提升及改善視力功能,透過App使用即可在日常生活中的各種活動中,感受視力恢復而不需使用眼鏡。然而,FTC起訴認為,App所稱之使用療效,缺乏充分的文獻資料佐證說明。其必須具備完整及可信賴的科學證據來證明,包含臨床試驗或盲測等方式,且該科學證明必須符合相同領域專家所認定之標準,否則,該款App內容所標榜之效果即屬不實陳述,將造成民眾誤認。為此,Carrot Neurotechnology公司最終以美金15萬達成和解,並且經FTC要求,若將App說明當中未經科學證明的療效部份予以刪除,即可繼續再繼續販售此款App。此案並非美國FTC首度針對mHealth App處罰之案例,然而,可能造成mHealth App發展業者對FTC與FDA角色之間之混淆,後續兩者主管機關之間之角色如何調和將是未來關注之重點。反觀我國,目前雖無相關案例發生,然在鼓勵發展之際,亦應考量是否有違反消費者保護之情形。