美國聯邦交通部公布自駕車4.0政策文件

  美國交通部(Department of Transportation)於2020年1月8日公布「確保美國於自動駕駛技術之領導地位:自駕車4.0」(Ensuring American Leadership in Automated Vehicle Technologies : Automated Vehicles 4.0)政策文件,提出三個核心原則及相對應的策略規劃:

一、 使用者與社會的保護:

  1. 整合自動駕駛技術之安全性,包括防堵對自駕車性能之詐欺或誤導行為,以強化民眾對此新興技術的信心。
  2. 與自駕車技術開發商、製造商及服務商合作,預防與降低惡意使用自動駕駛技術所造成的公共安全威脅及犯罪,如制定網路安全標準、於運輸系統之資料傳輸媒介及資料庫設計能夠防止、反應、偵測潛在或已知危險之可行作法。
  3. 要求製造商於設計和結合相關自動駕駛技術時,採取具整體風險考量之方式,以確保資料安全性與公眾隱私保護,特別是針對駕駛者與乘客,以及第三人資料存取、分享及使用。
  4. 支援與協助自動駕駛技術研發,並透過提供多樣化商品和服務,滿足消費者需求並增加自駕車的普及性,使國人能使用安全且能負擔的移動載具。

二、 保障市場效率:

  1. 採取靈活及技術中立政策,由大眾選擇具經濟及有效率的運輸方案。
  2. 透過相關智慧財產法規,保護相關技術,並持續推動經濟增長之政策及提升國內技術創新競爭力。
  3. 收集與研擬國內外法規資料,並使自動駕駛技術產品及服務能夠與國際標準接軌。

三、 促進與協調各方合作:

  1. 積極協調全國自動駕駛技術研究、法規和政策,以利有效運用各機構資源。
  2. 參考國際間自動駕駛技術標準及監理法規,並與各州政府及業界共同研擬與整合自動駕駛技術至現行運輸系統標準與相關法規。

本文為「經濟部產業技術司科技專案成果」

相關連結
※ 美國聯邦交通部公布自駕車4.0政策文件, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8448&no=67&tp=1 (最後瀏覽日:2026/03/11)
引註此篇文章
你可能還會想看
申請專利時請注意:網頁內容亦可能成為「先前技術」(prior art)

  日前英國智慧局 (UK Intellectual Property Office) 裁定一則刊登描述銀行用於網路交易時辨識方法的新聞網頁可以做為「先前技術」的有效證據。該局的副局長,同時亦是專利總審查官 Ben Micklewright 指出,網頁上的日期以及內容應該以英美法民事案件中的「機率的平衡」(on the balance of probabilities) 來衡量其證據力。   法國匯豐銀行(HSBC France) 於2005年7月以一項辨識使用者身份的方法對英國智慧局提出專利申請。該方法包含使用者登入時需輸入一組特定的密碼以辨明身份。HSBC France 於申請時以2004年7月2日在法國的申請日期主張優先權。然而英國智慧局的審查官卻依2項證據核駁了 HSBC France 的上述申請,當中一項即為一篇於2004年2月20日刊載於知名雜誌 Computer Magazine 的網站上的文章。該文章描述了一項由 Lloyds TSB提案的身份辨識方法,與HSBC France 提出專利申請的方法有異曲同工之處。   對此 HSBC France 提出抗辨,指出該文章有電子版與紙本,然審查官卻無法提出紙本來證明其公開發表日期。同時HSBC France 亦主張英國智慧局應追隨一件由歐洲專利局 (EPO) 上訴庭的判決,該判決中指出對於網路上電子文章的證據負荷度應高於傳統文件,即應負「無可懷疑」(beyond reasonable doubt)的舉證力。然而 Ben Micklewright 副局長表示英國智慧局無須追從歐洲專利局的判決,並且因為已存在「先前技術」所以該申請案喪失進步性。他更進一步指出上述申請案無論如何皆無法取得商業方法專利,因為該方法不具備技術的本質(“is not technical in nature”)。

澳洲數位轉型局12月發布《政府負責任使用人工智慧政策2.0》,以強化公部門之AI風險管理

2025年12月初,澳洲數位轉型局(Digital Transformation Agency,下稱DTA)發布《政府負責任使用AI政策2.0》(Policy for the responsible use of AI in Government 2.0),旨在進一步強化公部門在AI的透明度、問責性與風險管理能力,於2025年12月15日生效,取代 2024年9月實施的過渡版本。 一、適用範圍 政策適用於所有非企業型聯邦實體(Non-corporate Commonwealth entities),即不具獨立法人地位、直接隸屬於政府的機關或單位。企業型聯邦實體則被鼓勵自願遵循。政策定位為「補充與強化既有法制」,非另訂獨立規範,因此在實務中須與公務員行為準則、資安規範及資料治理制度併行適用。 二、政策重點 在政策施行的12個月內,適用機關須完成以下要求,以確保落實AI治理架構: (一)制度建置 1. AI 透明度聲明:機關須在政策生效後 6 個月內發布「AI 透明度聲明」,公開 AI 使用方法與現況。聲明中須說明機關風險管理流程、AI 事件通報機制及內外部申訴管道,確保使用過程透明、可追蹤。 2. 人員指定與培訓: 機關須指定制度問責人員(Accountable officials)以及AI使用案例承辦人(Accountable use case owners)。 所有員工皆須進行關於負責任使用AI的培訓,機關並依員工職務權責提供個別員工進階訓練。 3. 建立內部AI使用案例註冊清單(Internal AI use case register),以供後續追蹤 該清單至少包含: (1)使用案例負責人(Accountable use case owners):記錄並持續更新範疇內 AI 使用案例的指定負責人。 (2)風險等級(Risk rating):AI使用案例的風險等級資訊。 (3)異動紀錄:當使用案例的風險評級或負責人變更時,須即時更新清單。 (4)自定義欄位:各機關可根據其需求,自行增加欄位。 (二)AI 使用案例範疇判斷 機關須在評估所有新案例,依以下特徵判斷AI應用是否屬於「範疇內(In-scope)」的應用: 1.對個人、社群、組織或環境造成重大損害。 2.實質影響行政處分或行政決策。 3.在無人工審查的情況下,大眾將直接與AI互動或受其影響。 4.涉及個人、敏感資料等資訊。 (三)進階風險評估 依AI影響評估工具(Impact Assessment Tool)針對公眾近用權;不公平歧視;加重刻板印象;損害人、組織或環境;隱私顧慮;資料敏感之安全顧慮;系統建置之安全顧慮;公眾信任等8類別,加以判斷範疇內AI應用,若有任一類別被評為「高風險」,即判定為「高風險」;若所有類別中最高的分數為「中風險」,則整體判定為中風險。 判定為中、高風險之AI應用,均需進行全面審核。中風險須列出所有中風險項目及其控管措施,主要為內部控管;而高風險則要求向DTA報告,且每年至少進行一次全面審核與風險再評估。 澳洲欲透過發布AI透明度聲明、更新AI使用案例註冊清單、強制執行AI應用之風險評估及人員培訓,確保公部門對AI的負責任使用與問責。而我國企業可參考資策會科法所創意智財中心發布之《重要數位資料治理暨管理制度規範(EDGS)》,落實AI資料管理與追蹤。 本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。 本文同步刊登於TIPS網站(https://www.tips.org.tw)

歐美擴大永續報告書的揭露範圍,企業可透過歷程管理增進資料透明度

根據美國瑞生國際律師事務所(Latham & Watkins)於2024年1月發布的ESG年度報告指出,隨漂綠議題延燒,ESG報告不受信任為一課題,因此國際逐步擴大ESG監管,多國透過立法強制企業應揭露永續報告書或供應鏈資訊,比如:歐盟於2023年1月生效之《企業永續報告指令》(Corporate Sustainability Reporting Directive, CSRD),要求企業揭露的永續資訊需增加供應鏈資訊的透明度;美國證券交易委員會(SEC)於2024年3月6日通過規則,要求上市公司及公開發行公司揭露碳排放報告等氣候風險相關資訊。 為因應ESG帶來的挑戰,報告建議企業應採取流程化管理方式,了解產品進出口涉及的其他國家對ESG揭露資訊的要求,加以規劃並建置資料控管規範、進行人員教育訓練以及確認ESG相關資料的所有權歸屬。 由於碳排放量的計算沒有一致標準,且難以確保供應鏈上下游所提供的碳排資訊真實、未經竄改等問題,外界不容易信任企業永續發展書提倡的供應鏈減碳策略。國內企業可參考資策會科法所創意智財中心發布的《重要數位資料治理暨管理制度規範(EDGS)》,透過流程化管理,從制度規劃及留存供應鏈二氧化碳排放量或二氧化碳減量等產品相關資料歷程來增進ESG資料透明度。 本文同步刊登於TIPS網(https://www.tips.org.tw)

澳洲發布《人工智慧臨床應用指引》提供臨床照護之人工智慧使用合規框架

澳洲醫療安全與品質委員會(Australian Commission on Safety and Quality in Health Care, ACSQHC)與衛生、身心障礙及高齡照護部(Department of Health, Disability and Ageing)聯合於2025年8月發布《人工智慧臨床應用指引》(AI Clinical Use Guide),旨在協助醫療人員於臨床情境中安全、負責任使用人工智慧(Artificial Intelligence, AI)。該文件回應近年生成式AI與機器學習快速導入醫療現場,卻伴隨證據不足、風險升高的治理挑戰,試圖在促進創新與確保病人安全之間建立清楚的合規框架。 該指引以臨床流程為核心,將AI使用區分為「使用前、使用中、使用後」三個階段,強調醫療人員須理解AI工具的預期用途、證據基礎與風險限制,並對所有AI產出負最終專業責任。文件特別指出,當AI工具用於診斷、治療、預測或臨床決策支持時,可能構成醫療器材,須符合澳洲醫療用品管理管理局(Therapeutic Goods Administration, TGA)的相關法規要求。 在風險治理方面,該指引明確區分規則式AI、機器學習與生成式AI,指出後兩者因輸出不確定性、資料偏誤與自動化偏誤風險較高,臨床人員不得過度依賴系統建議,仍須以專業判斷為核心。同時,文件要求醫療機構建立AI治理與監督機制,持續監測效能、偏誤與病安事件,並於必要時通報TGA或隱私主管機關。 在病人權益與隱私保護方面,指引強調知情同意與透明揭露,醫療人員須向病人說明AI使用目的、潛在風險及替代方案,並遵循《1998年隱私法》(Privacy Act 1988)對個人健康資料儲存與跨境處理的限制。澳洲此次發布之臨床AI指引,展現以臨床責任為核心、結合法規遵循與風險管理的治理取向,為各國醫療體系導入AI提供具體且可操作的合規參考。 表1 人工智慧臨床應用指引合規流程 使用前 使用中 使用後 1.界定用途與風險。 2.檢視證據與合規。 3.完備治理與告知。 1.AI輔助決策。 2.即時審查修正。 3.維持溝通透明。 1.持續監測效能。 2.標示可追溯性。 3.通報與再評估。 資料來源:AUSTRALIAN COMMISSION ON SAFETY AND QUALITY IN HEALTH CARE [ACSQHC], AI Clinical Use Guide (2025).

TOP