所謂自動駕駛(autopilot),原來是指一個用來控制載具軌道而無需人工一直干預的系統,亦即無須人類持續干預,但人類仍須於關鍵時刻介入進行決定或作為,此時機器僅作為輔助。
而自動駕駛汽車或稱全自動駕駛,則只完全無須人類干預,由機器自動感應偵測,自動做成決策控制車輛行駛。故由人類的介入程度區別究竟是駕駛輔助或自動駕駛。美國國家公路交通安全管理局(NHTSA)於2016年已提出正式的分類系統,除手動駕駛(0級)外,區分弱駕駛輔助(1級)、部分自動駕駛(2級)、有條件全自動(3級)、高度/完全自動化(4級)不同程度的自動駕駛。其他國家如德國,在聯邦政府的「自動駕駛圓桌會議」也對自動駕駛有類似的四等級區分。
德國聯邦政府也在於2017年1月25日提出規範自動駕駛之法律草案,亦即道路交通法修正法(Änderung des Straßenverkehrsgesetzes),核心在於賦予電腦與人類駕駛者法律上同等地位。亦即,駕駛人的定義未來擴張延伸到「使用不同程度自動駕駛系統者」。根據草案將來在車輛行駛中,人類可以在特定時間與特定狀況下接管整個行駛。而最重要的修正:人類始終應該負使用電腦的最終責任。
故在行駛中駕駛人將會被輔助機器替代,更要求自駕系統應該具備“隨時可以由駕駛人接手操控或停俥”的功能。 分類中,駕駛人的角色只有到全自動駕駛實現時才退場,屆時才會發生無駕駛人只有乘客的狀況。
修法也重視自駕技術失敗並導致事故所生責任分擔的問題。對於責任的調查將採用如同飛航安全中之「黑盒子」的方式,該裝置會記錄行駛中的所有基本資料。這將有助於發生事故後澄清,查明究竟是技術上原因、製造商或駕駛員的過失,以確保駕駛人無法將責任全部推給自動化系統的故障。
本文為「經濟部產業技術司科技專案成果」
世界經濟論壇(World Economic Forum, WEF)於2022年6月29日發布《人工智慧公平性和包容性藍圖》白皮書(A Blueprint for Equity and Inclusion in Artificial Intelligence),說明在AI開發生命週期和治理生態系統中,應該如何改善公平性和強化包容性。根據全球未來人類AI理事會(Global Future Council on Artificial Intelligence for Humanity)指出,目前AI生命週期應分為兩個部分,一是管理AI使用,二是設計、開發、部署AI以滿足利益相關者需求。 包容性AI不僅是考量技術發展中之公平性與包容性,而是需整體考量並建立包容的AI生態系統,包括(1)包容性AI基礎設施(例如運算能力、資料儲存、網路),鼓勵更多技術或非技術的人員有能力參與到AI相關工作中;(2)建立AI素養、教育及意識,例如從小開始開啟AI相關課程,讓孩子從小即可以從父母的工作、家庭、學校,甚至玩具中學習AI系統對資料和隱私的影響並進行思考,盡可能讓使其互動的人都了解AI之基礎知識,並能夠認識其可能帶來的風險與機會;(3)公平的工作環境,未來各行各業需要越來越多多元化人才,企業需拓寬與AI相關之職位,例如讓非傳統背景人員接受交叉培訓、公私協力建立夥伴關係、提高員工職場歸屬感。 在設計包容性方面,必須考慮不同利益相關者之需求,並從設計者、開發者、監督機關等不同角度觀察。本報告將包容性AI開發及治理整個生命週期分為6個不同階段,期望在生命週期中的每個階段皆考量公平性與包容性: 1.了解問題並確定AI解決方案:釐清為何需要部署AI,並設定希望改善的目標變量(target variable),並透過制定包容性社會參與框架或行為準則,盡可能實現包容性社會參與(特別是代表性不足或受保護的族群)。 2.包容性模型設計:設計時需考慮社會和受影響的利益相關者,並多方考量各種設計決策及運用在不同情況時之公平性、健全性、全面性、可解釋性、準確性及透明度等。 3.包容性資料蒐集:透過設計健全的治理及隱私,確定更具包容性的資料蒐集路徑,以確保所建立之模型能適用到整體社會。 4.公平和包容的模型開發及測試:除多元化開發團隊及資料代表性,組織也應引進不同利益相關者進行迭代開發與測試,並招募測試組進行測試與部署,以確保測試人群能夠代表整體人類。且模型可能隨著時間發展而有變化,需以多元化指標評估與調整。 5.公平地部署受信任的AI系統,並監控社會影響:部署AI系統後仍應持續監控,並持續評估可能出現新的利益相關者或使用者,以降低因環境變化而可能產生的危害。 6.不斷循環發展的生命週期:不應以傳統重複循環過程看待AI生命週期,而是以流動、展開及演變的態度,隨時評估及調整,以因應新的挑戰及需求,透過定期紀錄及審查,隨時重塑包容性AI生態系統。 綜上,本報告以包容性AI生態系統及生命週期概念,期望透過基礎設施、教育與培訓、公平的工作環境等,以因應未來無所不在的AI社會與生活,建立公司、政府、教育機構可以遵循的方向。
美國商務部國家電信和資訊管理局呼籲透過第三方評測提高AI系統透明度2024年3月27日,美國商務部國家電信和資訊管理局(National Telecommunications and Information Administration, NTIA)發布「人工智慧問責政策報告」(AI Accountability Policy Report),該報告呼籲對人工智慧系統進行獨立評估(Independent Evaluations)或是第三方評測,期待藉此提高人工智慧系統的透明度。 人工智慧問責政策報告就如何對人工智慧系統進行第三方評測提出八項建議作法,分別如下: 1.人工智慧稽核指引:聯邦政府應為稽核人員制定適合的人工智慧稽核指引,該指引須包含評估標準與合適的稽核員證書。 2.改善資訊揭露:人工智慧系統雖然已經應用在許多領域,但其運作模式尚缺乏透明度。NTIA認為未來可以透過類似營養標籤(Nutrition Label)的方式,使人工智慧模型的架構、訓練資料、限制與偏差等重要資訊更加透明。 3.責任標準(Liability Standards):聯邦政府應盡快訂定相關責任歸屬標準,以解決現行制度下,人工智慧系統造成損害的法律責任問題。 4.增加第三方評測所需資源:聯邦政府應投入必要的資源,以滿足國家對人工智慧系統獨立評估的需求。相關必要資源如: (1)資助美國人工智慧安全研究所(U.S. Artificial Intelligence Safety Institute); (2)嚴格評估所需的運算資源與雲端基礎設施(Cloud Infrastructure); (3)提供獎金和研究資源,以鼓勵參與紅隊測試的個人或團隊; (4)培養第三方評測機構的專家人才。 5.開發及使用驗證工具:NTIA呼籲聯邦機關開發及使用可靠的評測工具,以評估人工智慧系統之使用情況,例如透明度工具(Transparency Tools)、認驗證工具(Verification and Validation Tools)等。 6.獨立評估:NTIA建議聯邦機關應針對高風險的人工智慧類別進行第三方評測與監管,特別是可能侵害權利或安全的模型,應在其發布或應用前進行評測。 7.提升聯邦機關風險管控能力:NTIA建議各機關應記錄人工智慧的不良事件、建立人工智慧系統稽核的登記冊,並根據需求提供評測、認證與文件紀錄。 8.契約:透過採購契約要求政府之供應商、承包商採用符合標準的人工智慧治理方式與實踐。 NTIA將持續與利害關係各方合作,以建立人工智慧風險的問責機制,並確保該問責報告之建議得以落實。
在西班牙下載音樂無罪?!本週西班牙法官判決,認為行為人為私人用途而下載音樂,其行為並非藉以從中獲利,應認其為無罪。 即便,檢察官辦公室及音樂工會呼籲應對此下載音樂並且在郵件及聊天室提供音樂之被告,處以兩年有期徒刑,然而,在此案當中,卻無直接證據證明被告於銷售音樂之過程中獲利。 此判決震驚了音樂工會,如此一來,西班牙一千六百萬的網路使用者將可透過網路交換音樂而不會受到處罰。西班牙唱片工會聯盟 Promusicae 表示,他將對此項判決提起上訴。 由於歐洲不同的法律規定,關於分享檔案的訴訟也會因不同國家而有極大的差異。然而,大多數的歐洲國家傾向對此處以較高的刑罰。就同為歐盟成員的芬蘭而言,上週便有 22 人因為非法分享電影、音樂遊戲及軟體而被處以 427,000 歐元。 至於西班牙此項為個人用途而下載音樂之行為,據其司法院院長指出,則有待立法修正解決。
OTT影音發展與著作權-以英國為例