加拿大交通部提出加拿大自駕系統安全評估文件

  加拿大交通部(Department of Transport Canada)於2019年1月發布「加拿大自駕系統安全評估(Safety Assessment for Automated Driving Systems in Canada)」文件,該文件將協助加拿大企業評估其發展高級(SAE第三級至第五級)自駕層級車輛之安全性,並可與美國相關政策進行整合。該文件指出,因相關技術尚在發展之中,不適合使用強制性規範進行管制,因此將利用引導性之政策措施來協助相關駕駛系統安全發展。加拿大交通部於文件中指出可用於評估目前自駕車輛研發成果之13種面向,並將其分類為三個領域:

  1. 自駕技術能力、設計與驗證:包含檢視車輛設計應屬何種自駕層級與使用目的、操作設計適用範圍、物件及事件偵測與反應、國際標準、測試與驗證等。
  2. 以使用者為核心之安全性:包含安全系統、人車界面與控制權的可取得性、駕駛/使用人能力與意識教育、撞擊或系統失靈時的運作等。
  3. 網路安全與資料管理:包含管理網路安全風險策略、售後車輛安全功能運作與更新、隱私與個資保障、車輛與政府分享之資訊等。

  加拿大交通部鼓勵企業利用該文件提出安全評估報告並向公眾公開以增進消費者意識,另一方面,該安全評估報告內容也可協助加拿大政府發展相關安全政策與規範。

本文為「經濟部產業技術司科技專案成果」

相關附件
※ 加拿大交通部提出加拿大自駕系統安全評估文件, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8308&no=67&tp=1 (最後瀏覽日:2026/01/21)
引註此篇文章
你可能還會想看
世界經濟論壇2020年十大新興科技報告,與健康和環境相關之前瞻科技發展備受矚目

  世界經濟論壇(World Economic Forum, WEF)於2020年11月10日發表「2020年十大新興科技報告」(Top 10 Emerging Technologies 2020),報告中提出10個近年出現,且被認為在未來5年內最具有正面改變社會潛力的新興科技,並說明除了關注這些科技帶來的改變外,也應關注其引發的風險。   2020年全球最密切關注的議題為健康與氣候變遷,也因此2020年被認為具有發展潛力的新興技術均與這兩個議題有關,包含:(1)無痛注射與測試用的微針技術(Microneedles);(2)太陽能化學(Sun-Powered Chemistry)利用可見光將二氧化碳轉換為普通材料,可作為合成藥物、清潔劑、化學肥料和紡織品的材料;(3)虛擬患者(Virtual Patients),替代人類做人體臨床試驗,比一般試驗更快更安全;(4)空間計算(Spatial Computing)以強化虛擬生活和現實的連結;(5)數位醫療(Digital Medicine)應用程式之發展可以診斷甚至治癒疾病;(6)電動飛航(Electric Aviation)裝置,例如電動推進器可以清除直接碳排放(direct carbon emissions),減少九成的燃料成本、五成維護成本和七成噪音汙染,降低整體航空旅程環境污染並提高效率;(7)低碳水泥(Lower-Carbon Cement)的發展作為氣候變遷下的新興建築材料;(8)量子感測(Quantum Sensing)做為高精準度計算方式,將於未來三到五年進入市場,並首重用於醫療和國防應用產業上;(9)新興零碳能源如綠氫(Green Hydrogen),可補充風力和太陽能;(10)全基因合成(Whole-Genome Synthesis)作為下一代細胞工程(cell engineering)尖端科技,使未來醫學得以治癒更多遺傳疾病。   報告中指出,雖然這些新興技術具有改變社會和產業的潛力,但卻無法確保技術本身是否能被妥善使用(Good is not guaranteed)。首先,這些技術仍需要龐大資金以達到成熟度和可利用的價格點(price point),才能與相關產業達成整合化、規模化。此外面對這些新興科技,決策者必須迅速針對可能引發的風險提出對應策略,例如數位醫療在手機應用程式上會引發政府許可、資料利用、隱私等問題。因此,政策與產業如何協作,使用相關科技、限制濫用並控制技術中風險等,是面對是類新興科技應積極考量的方向。

芬蘭Skene計畫聚焦電玩遊戲產業

  依據統計,2011年全球電玩遊戲產值約516億歐元,是娛樂產業中成長最快速的領域,行動遊戲(mobile gaming)也因智慧型手機普及率之提升,在其中扮演舉足輕重的角色。有鑒於此,芬蘭政府於今(2012)年啟動Skene-遊戲補給計畫(Skene-Game Refueled,以下簡稱Skene計畫)促進其遊戲產業的研發創新。   Skene計畫預計從今(2012)年起實施至2015年,將投入7000萬歐元資金補助,其中3000萬歐元由芬蘭的創新補助機關-國家技術創新局(teknologian ja innovaatioiden kehittämiskeskus,Tekes)提供。該計畫致力於創造國際級遊戲及娛樂聚落的形成,期能使芬蘭企業成為國際遊戲產業生態中的重要成員。芬蘭政府欲藉由此一計畫,突破芬蘭Rovio公司過往開發「憤怒鳥」(angry bird)遊戲之偶發性的成功模式,讓芬蘭遊戲產業獲得長期永續的商業效益。Tekes於本計畫中特別強調知識分享的重要,認為此計畫的核心目的在於促進相關知識或經驗,得以在研究機構的專家、遊戲公司乃至其他產業間有系統的傳遞。   事實上芬蘭推動Skene計畫之動機,除了著眼於遊戲產業本身所帶來的龐大商業效益外,也看到遊戲開發過程中產出工具在其他產業之模型、模擬實驗、使用者介面設計及傳統軟體開發方面之助益(例如在醫療照護產業、運算服務之運用或協助教育環境建構或運動訓練等)。由此觀之,芬蘭政府透過Skene計畫推動遊戲產業研發創新之考量,尚包括帶動其他產業之提升的深遠思考。   近年來我國遊戲產業在商業上的表現逐漸受到各界重視,在此背景下,芬蘭Skene計畫無論在具體作為及其背後的思維模式上,皆有我國可以參考借鏡之處。

美國指控中國兩大電信通訊商威脅國家安全,呼籲各機關及私人企業拒絕向其購買設備及技術

  美國眾議院情報委員會終於發佈了對中國兩大電信通訊商「中興」(ZTE)和「華為」(Huwei)的調查報告,報告結論指出,「中興」和「華為」確實危及美國的國家安全。     情報委員會呼籲美國政府機關和企業,尤其是政府機關,不應該讓「中興」、「華為」成為資訊系統相關設備或零組件的供應商,因為他們會安裝「後門程式」(backdoor)為中國政府和軍方進行間諜活動和網路攻擊,並敦促美國企業的經營者,應該阻絕未來收購、購併「中興」、「華為」的可能性。情報委員會亦呼籲美國國民不要購買任何由「中興」、「華為」製造的任何電子設備,包括手機、平板電腦、數據機等,否則個人資料將在不知不覺中全數洩漏給中國。     「華為」的建立者任正非(Ren Zengfe),同時也是「華為」執行長,1987年離開中國軍方創立「華為」,情報委員會認為他始終與中國政府和軍方保持密切聯繫,而「華為」拒絕配合情報委員會的調查,「中興」也不願提供完整的內部資料,報告指出:「中興」和「華為」應該讓公司內部架構、組織和財務管理及經營運作更加透明化,盡到美國法制要求的應盡義務」。     但英國政府表明支持「華為」,只是會採取必要的保護措施維護國家安全。「華為」在英國具有相當龐大的影響力,2001年在英國正式營運,投資了一億五千萬英鎊,並創造了650個工作機會,主要提供英國電信業者於寬頻服務的相關硬/軟體設備。另外英國手機營運商EE(Everything Everywhere)所發行英國首套的4G商用網,當中的行動作業系統便是使用「華為」的技術,EE的發言人表示:「我們有一套嚴格的安全檢查程序,確保合作伙伴和合作內容都符合EE的要求和標準,而「華為」是值得信賴和尊敬的伙伴」。     其他國家如加拿大和澳洲,則採取保守態度,評估這兩家電信通訊商的可信度和可用性。

美國科羅拉多州通過《人工智慧消費者保護法》

2024年5月17日,科羅拉多州州長簽署了《人工智慧消費者保護法》(Consumer Protections for Artificial Intelligence Act,Colorado AI Act,下簡稱本法),其內容將增訂於《科羅拉多州修訂法規》(Colorado Revised Statutes,簡稱CRS)第6篇第17部分,是美國第一部廣泛對AI規範的法律,將於2026年2月1日生效。 本法旨在解決「高風險人工智慧系統」的演算法歧視(Algorithmic Discrimination)的問題 ,避免消費者權益因為演算法之偏見而受到歧視。是以,本法將高風險AI系統(High-risk Artificial Intelligence System)定義為「部署後作出關鍵決策(Consequential Decision)或在關鍵決策中起到重要作用的任何AI系統」。 而後,本法藉由要求AI系統開發者(Developers)與部署者(Deployers)遵守「透明度原則」與「禁止歧視原則」,來保護消費者免受演算法歧視。規定如下: (一)系統透明度: 1.開發者應向部署者或其他開發者提供該系統訓練所使用的資料、系統限制、預期用途、測試演算法歧視之文件以及其他風險評估文件。 2.部署者應向消費者揭露高風險人工智慧系統的預期用途,也應在高風險人工智慧系統做出決策之前向消費者提供聲明,聲明內容應該包含部署者之聯絡方式、該系統的基本介紹、部署者如何管理該系統可預見之風險等資訊。 (二)禁止歧視: 1.開發者應實施降低演算法歧視之措施,並應協助部署者理解高風險人工智慧系統。此外,開發者也應該持續測試與分析高風險人工智慧系統可能產生之演算法歧視風險。若開發者有意修改該系統,應將更新後的系統資訊更新於開發者網站,並須同步提供給部署者。 2.部署者應該實施風險管理計畫,該風險管理計畫應包含部署者用於識別、紀錄降低演算法歧視風險之措施與負責人員,且風險管理計畫應定期更新。在制定風險管理計畫時,必須參考美國商務部國家標準暨技術研究院(National Institute of Standards and Technology, NIST)的《人工智慧風險管理框架》(AI Risk Management Framework, AI RMF 2.0)與ISO/IEC 42001等風險管理文件。 美國普遍認為科羅拉多州的《人工智慧消費者保護法》為目前針對人工智慧系統最全面之監管法規,可作為其他州有關人工智慧法規的立法參考,美國各州立法情況與作法值得持續關注。

TOP