歐洲汽車供應商協會(European Association of Automotive Suppliers,俗以CLEPA簡稱之)於2023年3月7日發表〈關於標準必要專利之政策指南—一個可因應汽車產業數位轉型現象的歐盟專利規則〉(Standard Essential Patents Policy guidelines—For an EU patent regulation that adapts to the digital transformation in the mobility ecosystem),以期有關單位能給予汽車產業更明確的指示,舉凡:SEP專利權人可向何人為授權、「合於FRAND原則之授權條款」應如何被認定等。 CLEPA提及,由於在一技術領域中有SEP時,其他的技術無「迴避設計」(design-around)可能性,而必得實施該被選為標準之技術,故在該技術領域中,無其他技術可與「受該SEP保護」的技術相抗衡;是以該SEP的價值必須被審慎且精確評估。此外,CLEPA指出,由於汽車產業會投資、研發、銷售有助於未來「移動性」(mobility)發展的下世代產品,故此產業與智慧財產權議題有高關聯性(例如:此產業每年會申請超過39,000筆專利權),應予其在SEP議題上有足夠的明確性(certainty)及可預測性(predictability),使其在「投資於廣泛實施標準的『新技術』」上,更可依循。而創建一個「利益平衡」(balanced)的環境,將有助於授權雙方進行合於「誠信原則」(good-faith)的授權協議。 CLEPA為以上目的,提出五點建議: (1)應有一「歐盟層級」的立法 一個「歐盟層級」(EU-level)的法架構體系是較足以為SEP專利權人及專利實施者間,提供較「利益平衡」的環境,且較可抑制不公平的SEP授權行為。 (2)「供應鏈中任一層級,均可得授權原則」 凡任何欲得授權者,不論其位於供應鏈中何層級,均應予其有「在符合FRAND原則」下,被授權的機會。又,由於一技術之所以會成為「標準」,係因被「商討」(coordination)而出,倒不一定是因其在市場競爭上,真的有大勝於其他技術的優勢,故授權權利金應僅可反映該技術本身的價值,而不可將「因標準化而可帶來的其他廣大利益」摻入。 (3)對於SEP授權條款應有明確指示 政策制定者及各「標準制定組織」(Standard Setting Organization, SSO)應對「何謂合於FRAND原則之授權條款」提供指南;此外,也應提出就一SEP及其有被納入的「專利組合」(portfolios)的評價方法。 (4)供應鏈中的授權狀況應明瞭 專利實施者應清楚明瞭其是否應獲授權,或其上游元組件供應商是否已獲授權。 (5)應有完整的法體制 政策制定者應制定法體制或應提供關於法體制的指南,以避免SEP專利權人不當申請「禁制令」(injunction),以強使授權協議之可被達成。
美國國家標準與技術研究院公布人工智慧風險管理框架(AI RMF 1.0)美國國家標準與技術研究院(National Institute of Standards and Technology, NIST)於2023年1月26日公布「人工智慧風險管理框架1.0」(Artificial Intelligence Risk Management Framework, AI RMF 1.0),該自願性框架提供相關資源,以協助組織與個人管理人工智慧風險,並促進可信賴的人工智慧(Trustworthy AI)之設計、開發與使用。NIST曾於2021年7月29日提出「人工智慧風險管理框架」草案進行公眾徵詢,獲得業界之建議包含框架應有明確之衡量方法以及數值指標、人工智慧系統設計時應先思考整體系統之假設於真實世界中運作時,是否會產生公平性或誤差的問題等。本框架將隨著各界使用後的意見回饋持續更新,期待各產業發展出適合自己的使用方式。 本框架首先說明人工智慧技術的風險與其他科技的差異,定義人工智慧與可信賴的人工智慧,並指出設計該自願性框架的目的。再來,其分析人工智慧風險管理的困難,並用人工智慧的生命週期定義出風險管理相關人員(AI actors)。本框架提供七種評估人工智慧系統之信賴度的特徵,包含有效且可靠(valid and reliable):有客觀證據證明人工智慧系統的有效性與系統穩定度;安全性(safe):包含生命、健康、財產、環境安全,且應依照安全風險種類決定管理上的優先次序;資安與韌性(secure and resilient);可歸責與資訊透明度(accountable and transparent);可解釋性與可詮譯性(explainable and interpretable);隱私保護(privacy-enhanced);公平性—有害偏見管理(fair – with harmful bias managed)。 本框架亦提出人工智慧風險管理框架核心(AI RMF Core)概念,包含四項主要功能:治理、映射(mapping)、量測與管理。其中,治理功能為一切的基礎,負責孕育風險管理文化。各項功能皆有具體項目與子項目,並對應特定行動和結果產出。NIST同時公布「人工智慧風險管理框架教戰手冊」(AI RMF Playbook),提供實際做法之建議,並鼓勵業界分享其具體成果供他人參考。
德國聯邦政府公布人工智慧戰略,制定AI發展及跨領域應用框架德國聯邦政府於2018年11月15日公布聯邦政府人工智慧戰略(Strategie Künstliche Intelligenz der Bundesregierung),除了針對人工智慧一詞定義外,並概述德國人工智慧戰略的3項基本原則,14項目標和12項行動領域。 第一項原則係透過該戰略,為德國在人工智慧(AI)的發展和應用制定整體政策框架,促進德國成為人工智慧最佳研究環境,以及人工智慧在產業與中小企業之應用,以確保德國未來競爭力。第二項原則係人工智慧在社會各領域有多種應用可能性,將可明顯促進社會進步和公民利益,因此重點將強調AI的應用對於人類和環境可帶來的益處,並加強社會各界對於人工智慧主題的密集交流及討論,確保AI朝負責且共同利益為出發點的開發及應用。第三項原則將透過廣泛的社會對話和積極的政策框架,將道德,法律,文化和制度結合人工智慧之應用融入整體社會。 該戰略列舉之工作項目同時包括評量標準,包含建置德法創意網(虛擬中心)、起草國家級且持續性的教育策略、加強相關創業投資力道、針對相關新創公司提供綜合性諮詢和推廣服務、針對自願提供且符合隱私規範之共享資料與建立資料分析基礎設備者研擬獎勵及促進框架、利用風險投資、創業融資和成長科技基金計畫擴展籌資機會、建立至少12個AI應用中心、將人工智慧列為研發機構跳躍式創新的焦點,未來5年加強產學研合作項目推廣、將環境與氣候的人工智慧應用列為發展亮點、共同決策人工智慧技術的導入與應用、透過中小企業4.0中心每年至少與1000家企業建立聯繫並進行AI訓練、將AI實驗室應用情境移轉至工作場所、進一步發展人工智慧平台學習系統、設計擘劃跨領域社會科學之「未來數位化工作與社會基金」、進一步制定相關數位化轉型專家策略、建立德國人工智慧觀測站、組織以人為中心的人工智慧工作環境之歐洲和跨大西洋對話、促進具自決權,社會與文化參與性及保護公民隱私之創新應用、聯邦政府於2025年前將投資約30億歐元於人工智慧發展、開發人工智慧生態系統、培養至少100名相關領域新教授、與資料保護監督機關及商業協會召開圓桌會議。