德國「真實實驗室」

  德國政府意識到伴隨數位化發展的創新科技和商業模式雖然提供了許多機會,但往往容易對消費者、產業和社會產生顛覆性影響,此類影響通常難以在短期內權衡利弊,從而不易對其訂出具體合適的規範,例如德國新創公司Lilium、奧迪子公司Italdesign、以及歐洲航空巨擘Airbus都有意發展的空中計程車計畫,雖有無限想像空間,但卻很難在短期內評估出可能隨之而來的安全、(空氣或噪音)汙染、就業等方面的不利影響,進而制定出寬嚴適中的規範。有鑑於此,德國聯邦經濟及能源部(Bundesministerium für Wirtschaft und Energie, BMWi)於2018年12月10日提出「真實實驗室戰略」(Reallabore Strategie),旨在營造一個前瞻、靈活、可支持創新想法自由發揮的法規環境,同時也希望藉由在真實實驗室運作所得之經驗數據,了解創新的機會和風險,進而找到正確的監管答案。

  「真實實驗室」(Reallabore)係指允許在特定時間及真實環境範圍內,進行創新科技與商業模式發展測試,而無需擔心與現行監管規範有所牴觸的創新試驗制度,其與「生活實驗室」(Living Labs)和「實驗場域」(Experimentierräume)、「沙盒」(Sandbox)、「領航計畫」(Pilot Project)等概念類似,與我國「金融科技創新實驗」及「無人載具科技創新實驗」之制度規範亦有異曲同工之趣,但更著重在探索未來的監管方向,簡而言之,「真實實驗室」就是一個創新想法與監管規範的試驗空間,德國聯邦經濟及能源部(BMWi)為具體傳達其概念,對其特徵作了如下描述:(1)可以進行數位創新試驗的特定時空環境(2)可以支持創新想法自由發揮的法規環境(3)可以從中進行監管學習並確定未來監管方向與具體細節。

本文為「經濟部產業技術司科技專案成果」

相關連結
※ 德國「真實實驗室」, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8231&no=0&tp=1 (最後瀏覽日:2025/11/14)
引註此篇文章
你可能還會想看
美國聯邦巡迴上訴法院判決美國專利法第271條(f)項不適用於方法專利

  繼美國最高法院於Microsoft Corp. v. AT&T Corp. 做出與專利法治外法權有關的判決後,美國聯邦巡迴上訴法院於2009年8月19日再次做出限縮解釋專利法第271條(f)項於美國境外的效力。   美國專利法第271條(f)項規定未經許可提供或使人提供專利產品之元件,將之由美國供應(“supply”)至美國境外完成組合,亦視為侵害該專利產品之專利權。此項規定為美國國會為防範企業藉由在美國境內製造非專利保護之零組件後再運送之海外進行組合以規避專利侵權責任而制定。之後,在實物案例中,關於第271條(f)項之解釋與適用範圍產生諸多爭議。美國最高法院於其在2007年Microsoft Corp. v. AT&T Corp. 中強調不應擴張解釋第271條(f)項之文字。   於Cardiac Pacemakers Inv. V. St. Jude Medical Inc. 一案中,原告Cardiac Pacemakers控告被告St. Jude Medical所販賣的植入式心臟整流去顫器 (implantable cardioverter defibrillator)之使用會侵犯原告所擁有的一個利用植入式心臟刺激器治療心律不整的方法專利 (a method of heart stimulation using an implantable heart stimulator)。本案的爭點在於被告銷售可實施原告美國專利方法的產品或裝置讓該專利方法於美國境外被實施的行為是否構成第271條(f)項之侵害。美國聯邦巡迴上訴法院推翻其於2005年之判決(Union Carbide Chemicals Plastics Technology Corp. V. Shell Oil Co.),判定專利法第271條(f)項不適用於方法專利。亦即,被告銷售可實施原告美國專利方法的產品至海外的行為不構成第271條(f)項所規定之侵權行為。   此判決對原告Cardiac Pacemakers之衝擊可能較小,因其專利範圍除方法請求項外,亦包含物品請求項,原告還可藉由其物品請求項獲得侵權損害賠償。但此案可能對僅能以方法申請專利的產業如生技藥業(某些診斷及檢驗僅能以方法申請專利)及軟體業造成較大的影響。

歐洲汽車供應商協會發表關於標準必要專利之政策指南,以期有關單位能給予汽車產業更明確的指示

歐洲汽車供應商協會(European Association of Automotive Suppliers,俗以CLEPA簡稱之)於2023年3月7日發表〈關於標準必要專利之政策指南—一個可因應汽車產業數位轉型現象的歐盟專利規則〉(Standard Essential Patents Policy guidelines—For an EU patent regulation that adapts to the digital transformation in the mobility ecosystem),以期有關單位能給予汽車產業更明確的指示,舉凡:SEP專利權人可向何人為授權、「合於FRAND原則之授權條款」應如何被認定等。 CLEPA提及,由於在一技術領域中有SEP時,其他的技術無「迴避設計」(design-around)可能性,而必得實施該被選為標準之技術,故在該技術領域中,無其他技術可與「受該SEP保護」的技術相抗衡;是以該SEP的價值必須被審慎且精確評估。此外,CLEPA指出,由於汽車產業會投資、研發、銷售有助於未來「移動性」(mobility)發展的下世代產品,故此產業與智慧財產權議題有高關聯性(例如:此產業每年會申請超過39,000筆專利權),應予其在SEP議題上有足夠的明確性(certainty)及可預測性(predictability),使其在「投資於廣泛實施標準的『新技術』」上,更可依循。而創建一個「利益平衡」(balanced)的環境,將有助於授權雙方進行合於「誠信原則」(good-faith)的授權協議。 CLEPA為以上目的,提出五點建議: (1)應有一「歐盟層級」的立法 一個「歐盟層級」(EU-level)的法架構體系是較足以為SEP專利權人及專利實施者間,提供較「利益平衡」的環境,且較可抑制不公平的SEP授權行為。 (2)「供應鏈中任一層級,均可得授權原則」 凡任何欲得授權者,不論其位於供應鏈中何層級,均應予其有「在符合FRAND原則」下,被授權的機會。又,由於一技術之所以會成為「標準」,係因被「商討」(coordination)而出,倒不一定是因其在市場競爭上,真的有大勝於其他技術的優勢,故授權權利金應僅可反映該技術本身的價值,而不可將「因標準化而可帶來的其他廣大利益」摻入。 (3)對於SEP授權條款應有明確指示 政策制定者及各「標準制定組織」(Standard Setting Organization, SSO)應對「何謂合於FRAND原則之授權條款」提供指南;此外,也應提出就一SEP及其有被納入的「專利組合」(portfolios)的評價方法。 (4)供應鏈中的授權狀況應明瞭 專利實施者應清楚明瞭其是否應獲授權,或其上游元組件供應商是否已獲授權。 (5)應有完整的法體制 政策制定者應制定法體制或應提供關於法體制的指南,以避免SEP專利權人不當申請「禁制令」(injunction),以強使授權協議之可被達成。

問題在號碼?(下)---談網路電話服務(VoIP)號碼核配與網路互連管制問題

OECD啟動全球首創的《開發先進人工智慧系統組織的報告框架》

2025年2月7日,經濟合作暨發展組織(Organization for Economic Cooperation and Development,OECD)正式啟動《開發先進人工智慧系統組織的報告框架》(Reporting Framework for the Hiroshima Process International Code of Conduct for Organizations Developing Advanced AI Systems,簡稱G7AI風險報告框架)。 該框架之目的是具體落實《廣島進程國際行為準則》(Hiroshima Process International Code of Conduct)的11項行動,促進開發先進人工智慧系統(Advanced AI Systems)的組織建立透明度和問責制。該框架為組織提供標準化方法,使其能夠證明自身符合《廣島進程國際行為準則》的行動,並首次讓組織可以提供有關其人工智慧風險管理實踐、風險評估、事件報告等資訊。對於從事先進人工智慧開發的企業與組織而言,該框架將成為未來風險管理、透明度揭露與國際合規的重要依據。 G7 AI風險報告框架設計,對應《廣島進程國際行為準則》的11項行動,提出七個核心關注面向,具體說明組織於AI系統開發、部署與治理過程中應採取之措施: 1. 組織如何進行AI風險識別與評估; 2. 組織如何進行AI風險管理與資訊安全; 3. 組織如何進行先進AI系統的透明度報告; 4. 組織如何將AI風險管理納入治理框架; 5. 組織如何進行內容驗證與來源追溯機制; 6. 組織如何投資、研究AI安全與如何降低AI社會風險; 7. 組織如何促進AI對人類與全球的利益。 為協助G7推動《廣島進程國際行為準則》,OECD建構G7「AI風險報告框架」網路平台,鼓勵開發先進人工智慧的組織與企業於2025年4月15日前提交首份人工智慧風險報告至該平台(https://transparency.oecd.ai/),目前已有包含OpenAI等超過15家國際企業提交報告。OECD亦呼籲企業與組織每年定期更新報告,以提升全球利益相關者之間的透明度與合作。 目前雖屬自願性報告,然考量到國際監理機關對生成式AI及高風險AI 系統透明度、可問責性(Accountability)的日益關注,G7 AI風險報告框架內容可能成為未來立法與監管的參考作法之一。建議企業組織持續觀測國際AI治理政策變化,預做合規準備。

TOP