德國經濟與能源部於2017年11月公布車輛及其系統新技術補助計畫期中報告,補助的研究計畫聚焦於自動駕駛技術及創新車輛技術兩大主軸。
在自動駕駛研究中,著重於創新的感測器和執行系統、高精準度定位、車聯網間資訊快速,安全和可靠的傳輸、設備之間的協作、資料融合和處理的新方法、人機協作、合適的測試程序和驗證方法、電動汽車之自動駕駛功能的具體解決方案。其中以2016年1月啟動的PEGASUS研究項目最受關注,該計畫係為開發高度自動化駕駛的測試方法奠定基礎,特別是在時速達130公里/小時的高速公路上。
在汽車創新技術的研究發展上,著重於公路和鐵路運輸如何降低能源消耗和溫室氣體排放,包括透過交通工具輕量化以提高能源效率、改善空氣動力學之特性、減少整體傳動系統的摩擦阻力、創新的驅動技術。另外,也特別注重蒐集和利用在車輛操作期間產生的資料,例如在於操作和駕駛策略的設計,維護和修理,或車輛於交通中相互影響作用。
本報告簡介相關高度實用性技術研究計畫,同時展望未來研究領域,以面對現今產業數位化的潮流和能源效率及氣候保護的發展的新挑戰,因此,資通訊技術、自動控制技術以及乾淨動力來源技術,將會是未來交通領域研究的重點。
本文為「經濟部產業技術司科技專案成果」
二氧化碳和其他類似的排放氣體被認為會提高地球大氣層的溫度,是全球溫度上升的元凶。二00三年以來,美國境內陸續有十二個州、多個城市和十幾個環保團體循法律途徑,針對聯邦環保局( Environmental Protection Agency, EPA )一直不願意對新車制定更嚴格的廢氣排放標準以降低溫室排放量,採取法律行動。 美國最高法院最近決定將重新考量,聯邦政府是否應依照部分州和市政府及環保團體要求,制定新車廢氣物排放標準,以對抗全球暖化的問題。本案首開先例,成為美國高等法院針對政府的環保法令進行裁決。 包括美國加州、麻州和紐約州等州政府在告訴中指出,其認為根據聯邦的「空氣清淨法」, EPA 有責任針對排放二氧化碳和其他三種氣體的車輛和大型工廠進行管制;然而, EPA 則堅持「空氣清淨法案」中並沒有規範到全球氣候變化的情狀,也沒有將二氧化碳定義為污染源,故聯邦政府認為應由相關單位和業者自行制定控制標準。 在提交最高法院的文件中,美國聯邦政府稱這項官司只是一種「猜測」,目前根本不清楚全球暖化是否和新車廢氣排放有關,也沒有任何證據可以證實,使用可使燃料燃燒更完全的車輛,是否會對氣候變化有重要的影響。美國政府認為,解決全球暖化現象的議題,可能透過國際努力更有效果。
歐盟執委會發布指引以因應《人工智慧法》「禁止的人工智慧行為」條文實施歐盟執委會於2025年2月4日發布「關於禁止的人工智慧行為指引」(Commission Guidelines on Prohibited Artificial Intelligence Practices)(下稱「指引」)」,以因應歐盟《人工智慧法》(AI Act,下稱AIA)第5條關於「禁止的人工智慧行為」之規定。該規定自2月2日起正式實施,惟其內容僅臚列禁止行為而未深入闡釋其內涵,執委會特別制定本指引以避免產生歧義及混淆。 第5條明文禁止使用人工智慧系統進行有害行為,包括:利用潛意識技術或利用特定個人或群體之弱點進行有害操縱或欺騙行為、實施社會評分機制、進行個人犯罪風險預測、執行無特定目標之臉部影像蒐集、進行情緒識別分析、實施生物特徵分類、以及為執法目的而部署即時遠端生物特徵識別系統等。是以,指引就各禁止事項分別闡述其立法理由、禁止行為之具體內涵、構成要件、以及得以豁免適用之特定情形,並示例說明,具體詮釋條文規定。 此外,根據AIA規定,前述禁令僅適用於已在歐盟境內「投放市場」、「投入使用」或「使用」之人工智慧系統,惟對於「使用」一詞,並未予以明確定義。指引中特別闡明「使用」之定義,將其廣義解釋為涵蓋「系統投放市場或投入使用後,在其生命週期任何時刻的使用或部署。」 指引中亦指出,高風險AI系統的特定使用情境亦可能符合第5條的禁止要件,因而構成禁止行為,反之亦然。因此,AIA第5條宜與第6條關於高風險AI系統的規定交互參照應用。 AIA自通過後,如何進行條文內容解釋以及法律遵循義務成為各界持續討論之議題,本指引可提升AIA規範之明確性,有助於該法之落實。
美國通過最新的電子醫療紀錄之隱私與安全標準美國衛生部隸屬之醫療資訊科技標準委員會(Health IT Standards Committee)為了因應「2009年經濟復甦暨再投資法」(America Recovery and Reinvestment Act, “ARRA”)的通過,制定了新的電子醫療紀錄的隱私、安全標準,以擴大保護電子醫療紀錄的使用安全。 這次制定的電子醫療紀錄的隱私、安全標準,將透過具有足夠防護能力的醫療資訊科技系統標準,來保護電子醫療紀錄的交換,並且擴大適用範圍到醫療照護廠商與提供者,要求其必須在2011年前達到幾項資訊的使用控制標準,包括「醫療保險可攜與責任法」(Health Insurance Portability and Accountability Act, “HIPAA”)與「加密促進標準」(Advanced Encryption Standard)之相關規定,以完備個人電子醫療資訊的保護網。 在此次訂立的標準之下,任何人員或是應用程式欲使用與接近電子醫療紀錄,應符合法律所授予的接近與使用之要件。同時,處理個人醫療資訊的系統,也必須具備對個人醫療資訊加密與解密的能力,以保障個人醫療資訊的安全與完整。除了以上的要求,這些標準也要求相關的適用機構,必須在2013年以前完成符合病歷交換格式(HL7)的使用接近控制、安全宣示標記語言(Security Assertion Mark-up Language, “SAML”)、網路服務認證(Web Service Trust, “WS-Trust”)以及促進資訊標準建置組織(Organization for the Advancement of Structured Information Standards, “OASIS”)的機制,以保障醫療資訊的安全。
美國法院擬修正《聯邦證據規則》以規範人工智慧生成內容之證據能力2025年5月2日,聯邦司法會議證據規則諮詢委員會(Judicial Conference’s Advisory Committee on Evidence Rules)以8比1投票結果通過一項提案,擬修正《聯邦證據規則》(Federal Rules of Evidence,FRE),釐清人工智慧(AI)生成內容於訴訟程序中之證據能力,以因應生成式AI技術在法律實務應用上日益普遍的趨勢。 由於現行《聯邦證據規則》僅於第702條中針對人類專家證人所提供的證據設有相關規定,對於AI生成內容的證據能力尚無明確規範,所以為了因應AI技術發展帶來的新興挑戰,《聯邦證據規則》修正草案(下稱「修正草案」)擬新增第707條「機器生成證據」(Machine-Generated Evidence),並擴張第901條「驗證或識別證據」(Authenticating or Identifying Evidence)的適用範圍。 本次增訂第707條,針對AI生成內容作為證據時,明確其可靠性評估標準,以避免出現分析錯誤、不準確、偏見或缺乏可解釋性(Explainability)等問題,進而強化法院審理時的證據審查基礎。本條規定,AI生成內容作為證據必須符合以下條件: 1. 該AI生成內容對於事實之認定具有實質助益; 2. AI系統於產出該內容時,係以充分且適當之事實或資料為輸入依據; 3. 該輸出結果能忠實反映其所依據之原理與方法,並證明此一應用於特定情境中具有可靠性。 本修正草案此次新增「AI生成內容」也必須合乎既有的證據驗證要件。原第901條a項原規定:「為符合證據之驗證或識別要求,提出證據者必須提供足以支持該證據確係其所聲稱之內容的佐證資料。」而修正草案擬於第901條b項新增「AI生成內容」一類,意即明文要求提出AI生成內容作為證據者,須提出足夠證據,以證明該內容具有真實性與可信度,方符合第901條a項驗證要件。 隨著AI於美國法院審理程序中的應用日益廣泛,如何在引入生成式AI的同時,於司法創新與證據可靠性之間取得平衡,將成為未來美國司法實務及法制發展中的重要課題,值得我國審慎觀察並參酌因應,作為制度調整與政策設計的參考。