英國標準協會(British Standards Institution, BSI)於2020年4月30日發布「PAS 1880:2020:自駕車控制系統開發及評估指引(PAS 1880:2020: Guidelines for developing and assessing control systems for automated vehicles)」,該文件提供一系列的準則,提供自駕車研發者於發展控制系統時可安全有效的進行布建;本文件所涵蓋之自駕車類型主要為於(研發者)所設計及規劃之特定運行範圍內(operational design domain,以下簡稱ODD)下不需人工介入即可運送旅客與貨物者。
指引中就自駕車之控制系統設計進行分類,並提出研發者應針對不同目的與重點進行說明以及相關應遵循事項,其中應包含以下項目:
本文為「經濟部產業技術司科技專案成果」
2025年11月5日,歐盟執委會啟動《標示與標籤人工智慧生成內容之行為準則》(a code of practice on marking and labelling AI-generated content,下稱行為準則)之相關工作,預計將於2026年5月至6月間發布行為準則。此行為準則與《歐盟人工智慧法案》(EU AI Act)之透明度義務規定相關。這些規定旨於透過促進對資訊生態系的信任,降低虛假訊息、詐欺等風險。 《歐盟人工智慧法案》第50條第2項及第4項之透明度義務,分別規定 1. 「『提供』生成音檔、圖像、影片或文本內容的AI系統(包括通用AI系統)」的提供者(Providers),應確保其輸出係以機器可讀的形式標示(marked),且可被識別屬於AI所生成或竄改(manipulated)的內容。 2. 「『使用』AI系統生成或竄改以構成深度偽造之影像、音訊或影片內容」的部署者(Deployers),應揭露該內容係AI所生成或竄改。 前述透明度義務預計於2026年8月生效。 後續由歐盟AI辦公室之獨立專家透過公眾資訊與徵選利害關係人意見等方式,推動起草行為準則。此行為準則不具強制性,旨於協助AI系統提供者更有效地履行其透明度義務,且可協助使用深偽技術或AI生成內容的使用者清楚地揭露其內容涉及AI參與,尤其是當向公眾通報公共利益相關事項時。 AI應用蓬勃發展,同時AI也可能生成錯誤、虛構的內容,實務上難以憑藉個人的學識經驗區分AI幻覺。前文提及透過標示AI生成的內容,以避免假訊息孳生。倘企業在資料源頭以標示等手段控管其所使用之AI的訓練資料,確保資料來源真實可信,將有助於AI句句有理、正向影響企業決策。企業可以參考資策會科法所創意智財中心發布之《重要數位資料治理暨管理制度規範(EDGS)》,從資料源頭強化數位資料生命週期之管理。 本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。 本文同步刊登於TIPS網站(https://www.tips.org.tw)
美國聯邦最高法院於Michigan v. EPA案中認定減碳措施需先考量成本效益