美國國家標準與技術研究院(National Institute of Standards and Technology, NIST)於2023年1月26日公布「人工智慧風險管理框架1.0」(Artificial Intelligence Risk Management Framework, AI RMF 1.0),該自願性框架提供相關資源,以協助組織與個人管理人工智慧風險,並促進可信賴的人工智慧(Trustworthy AI)之設計、開發與使用。NIST曾於2021年7月29日提出「人工智慧風險管理框架」草案進行公眾徵詢,獲得業界之建議包含框架應有明確之衡量方法以及數值指標、人工智慧系統設計時應先思考整體系統之假設於真實世界中運作時,是否會產生公平性或誤差的問題等。本框架將隨著各界使用後的意見回饋持續更新,期待各產業發展出適合自己的使用方式。
本框架首先說明人工智慧技術的風險與其他科技的差異,定義人工智慧與可信賴的人工智慧,並指出設計該自願性框架的目的。再來,其分析人工智慧風險管理的困難,並用人工智慧的生命週期定義出風險管理相關人員(AI actors)。本框架提供七種評估人工智慧系統之信賴度的特徵,包含有效且可靠(valid and reliable):有客觀證據證明人工智慧系統的有效性與系統穩定度;安全性(safe):包含生命、健康、財產、環境安全,且應依照安全風險種類決定管理上的優先次序;資安與韌性(secure and resilient);可歸責與資訊透明度(accountable and transparent);可解釋性與可詮譯性(explainable and interpretable);隱私保護(privacy-enhanced);公平性—有害偏見管理(fair – with harmful bias managed)。
本框架亦提出人工智慧風險管理框架核心(AI RMF Core)概念,包含四項主要功能:治理、映射(mapping)、量測與管理。其中,治理功能為一切的基礎,負責孕育風險管理文化。各項功能皆有具體項目與子項目,並對應特定行動和結果產出。NIST同時公布「人工智慧風險管理框架教戰手冊」(AI RMF Playbook),提供實際做法之建議,並鼓勵業界分享其具體成果供他人參考。
本文為「經濟部產業技術司科技專案成果」
歐洲五大電信公司──德國電信(Deutsche Telekom)、法國Orange電信、義大利電信(Telecom Italia)、西班牙電信(Telefonica)與英國沃達豐電信(Vodafone)於2021年11月18日聯合發表聲明,呼籲歐盟執委會與成員國加速開放「開放式無線存取網路」(Open Radio Access Network, Open RAN)的技術應用,並提出「為歐洲建立Open RAN生態系統」(Building an Open RAN Ecosystem for Europe)研究報告。 本報告對Open RAN價值鏈和當前供應商進行分析,發現許多歐洲供應商正處於發展初期,未獲得Open RAN商業契約,且在Open RAN關鍵服務的部分類別(如雲端軟體)中,尚未有歐洲供應商。甚至綜觀Open RAN的各項關鍵服務分布,歐洲供應商僅有少數等。因此,本報告強調歐洲需迫切將Open RAN作為戰略重點,並提出以下五點建議: (一)歐盟的政策制定者應積極推動發展創新、開放及可互通之電信生態系統,並期望歐盟執委會、成員國與產業利害關係人,透過對話與討論,促使全歐洲對Open RAN生態系統之建立產生共識。 (二)執委會應成立下世代通訊基礎設施聯盟,如同過去其為雲端與半導體設立聯盟,作為推動該產業的關鍵力量。此外,為迎接Open RAN新興技術,應提倡如歐盟共同利益重要計畫(Important Projects of Common European Interest, IPCEI)的微電子和通訊技術、5G產業協會與共同承諾推動智慧網路服務多國計畫。 (三)政策制定者應降低歐盟供應商和新創企業之投資風險,並對歐洲未來具有戰略意義的技術領域,以資金與租稅等激勵措施,支持歐洲供應商合作。如由歐盟執委會和各國政府為財團提供資金,使歐洲公司建立穩固的合作關係,並成為Open RAN價值鏈中茁壯成長的供應商。 (四)O-RAN聯盟(O-RAN ALLIANCE)與第三代合作夥伴計劃(3rd Generation Partnership Project, 3GPP)及歐洲電信標準協會(European Telecommunications Standards Institute, ETSI)正式合作,支持採用O-RAN規範作為ETSI的自願性標準,可透過快速程序對現有3GPP規範進行補充。透過促進全球統一的Open RAN標準,確保開放性網路設備的互通性,如:全歐認證的品質與互通性,建立生態系統部署者的信心。 (五)歐盟應與國際合作,促進安全、多樣化及可持續的資訊與通訊技術供應鏈,如:利用七大工業國組織(Group of Seven, G7)、美歐貿易和技術委員會(EU-US Trade and Technology Council)與日歐資通訊技術對話(Japan-EU ICT Dialogue)促進發展和部署開放且可互通的網路架構。
法商Parrot商標侵權及商業秘密洩漏案對外商於中國大陸規範人員管理的啟發 日本IPA/SEC公佈「IoT高信賴化機能編」指導手冊日本獨立行政法人情報處理推進機構(IPA/SEC)於2016年3月公佈「聯繫世界之開發指引」,並於2017年5月8日推出「IoT高信賴化機能編」指導手冊,具體描述上開指引中有關技術面之部份,並羅列開發IoT機器、系統時所需之安全元件與機能。該手冊分為兩大部份,第一部份為開發安全的IoT機器和關聯系統所應具備之安全元件與機能,除定義何謂「IoT高信賴化機能」外,亦從維修、運用角度出發,整理開發者在設計階段須考慮之系統元件,並依照開始、預防、檢查、回復、結束等五大項目進行分類。第二部份則列出五個在IoT領域進行系統連接之案例,如車輛和住宅IoT系統的連接、住家內IoT機器之連接、產業用機器人與電力管理系統之連接等,並介紹案例中可能產生的風險,以及對應該風險之機能。IPA/SEC希望上開指引能夠作為日後國際間制定IoT國際標準的參考資料。
美國法院擬修正《聯邦證據規則》以規範人工智慧生成內容之證據能力2025年5月2日,聯邦司法會議證據規則諮詢委員會(Judicial Conference’s Advisory Committee on Evidence Rules)以8比1投票結果通過一項提案,擬修正《聯邦證據規則》(Federal Rules of Evidence,FRE),釐清人工智慧(AI)生成內容於訴訟程序中之證據能力,以因應生成式AI技術在法律實務應用上日益普遍的趨勢。 由於現行《聯邦證據規則》僅於第702條中針對人類專家證人所提供的證據設有相關規定,對於AI生成內容的證據能力尚無明確規範,所以為了因應AI技術發展帶來的新興挑戰,《聯邦證據規則》修正草案(下稱「修正草案」)擬新增第707條「機器生成證據」(Machine-Generated Evidence),並擴張第901條「驗證或識別證據」(Authenticating or Identifying Evidence)的適用範圍。 本次增訂第707條,針對AI生成內容作為證據時,明確其可靠性評估標準,以避免出現分析錯誤、不準確、偏見或缺乏可解釋性(Explainability)等問題,進而強化法院審理時的證據審查基礎。本條規定,AI生成內容作為證據必須符合以下條件: 1. 該AI生成內容對於事實之認定具有實質助益; 2. AI系統於產出該內容時,係以充分且適當之事實或資料為輸入依據; 3. 該輸出結果能忠實反映其所依據之原理與方法,並證明此一應用於特定情境中具有可靠性。 本修正草案此次新增「AI生成內容」也必須合乎既有的證據驗證要件。原第901條a項原規定:「為符合證據之驗證或識別要求,提出證據者必須提供足以支持該證據確係其所聲稱之內容的佐證資料。」而修正草案擬於第901條b項新增「AI生成內容」一類,意即明文要求提出AI生成內容作為證據者,須提出足夠證據,以證明該內容具有真實性與可信度,方符合第901條a項驗證要件。 隨著AI於美國法院審理程序中的應用日益廣泛,如何在引入生成式AI的同時,於司法創新與證據可靠性之間取得平衡,將成為未來美國司法實務及法制發展中的重要課題,值得我國審慎觀察並參酌因應,作為制度調整與政策設計的參考。