歐盟智慧財產局運用科技強化智財保護,正式啟動產品的區塊鏈物流認證計畫(EBSI-ELSA)

歐盟智慧財產局(EUIPO)為打擊仿冒,保護歐盟消費者及智慧財產權人,於2023年5月31日宣布正式啟動產品的區塊鏈物流認證計畫(European Blockchain Services Infrastructure - European Logistics Services Authentication, 簡稱EBSI-ELSA)。 根據EUIPO與經濟合作暨發展組織(OECD)於2021年發布的研究指出,全球仿冒產品的貿易額高達4120億歐元,占全球貿易總額的2.5%;每年輸入歐盟的產品約有6%是仿冒產品,嚴重影響歐盟的經濟發展、消費者的健康及安全、智慧財產權人(歐盟品牌企業)的權益。

從2019年至今,EUIPO一直努力研擬透過區塊鏈技術保護智慧財產的具體方案。2022年底,EUIPO與4個不同產業的品牌企業(包含汽車業、電子業、醫藥業、服飾業)、物流業者、荷蘭海關進行一個合作的試驗計畫,內容為透過區塊鏈技術追蹤產品於海外製造後,運送至歐盟銷售的歷程軌跡,以達到認證產品為智慧財產權人生產的目標。該試驗計畫於2023年5月完成概念驗證(proof of concept)。

本計畫結合區塊鏈服務基礎設施(European Blockchain Services Infrastructure, EBSI)及數位分身(digital twins)的概念,於生產、運送、海關查驗、配送至消費者的各階段中,在產品上嵌入一個含有序列化代碼(serialization code)的標籤,該代碼必須經產品所屬智慧財產權人的可驗證憑證(Verifiable Credentials, VCs)認證,結合歐盟智慧財產權相關資料庫的資料,以確認產品與其數位分身的連結。

EUIPO將於2023年底前,正式建置一個開源的區塊鏈認證平台,介接執法機構的風險分析系統,以及商標資料庫(TM View)、設計資料庫(Design View)、歐盟執法入口網(IP Enforcement Portal, IPEP)、歐盟區塊鏈智慧財產註冊系統(IP Register in Blockchain),鼓勵供應鏈、物流鏈中的參與者於此平台上交換資料,以更有效率的方式達到認證產品來源真實性的目標。

EUIPO積極運用區塊鏈科技強化歐盟智慧財產的保護,本計畫除可避免消費者買到仿冒產品外,歐盟的品牌企業未來可於相關智財侵權訴訟中,提出區塊鏈紀錄作為證據,有效主張權益。

本文同步刊登於TIPS網站(https://www.tips.org.tw

相關連結
你可能會想參加
※ 歐盟智慧財產局運用科技強化智財保護,正式啟動產品的區塊鏈物流認證計畫(EBSI-ELSA), 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=9018&no=0&tp=1 (最後瀏覽日:2026/03/12)
引註此篇文章
你可能還會想看
全美各州醫療委員會聯合會發布人工智慧(AI)治理指引,並要求醫師為AI之利用結果負最終責任

全美各州醫療委員會聯合會(The Federation of State Medical Boards, FSMB)於2024年4月發布「引導人工智慧以負責任與符合倫理方式融入臨床實務」(Navigating the Responsible and Ethical Incorporation of Artificial Intelligence into Clinical Practice)指引,明確概述醫師於利用AI協助提供照護時可採取之步驟,以履行其倫理與專業職責,期能藉此降低對患者造成傷害之風險;本指引之特色在於,其要求醫師為AI之利用結果負最終之責任。 FSMB 向各州醫療委員會與其他利害關係人所提供之原則與建議如下,以支持對包含AI之臨床照護進行負責任與符合倫理之監管: (1)透明度與揭露(Transparency and Disclosure): 應要求維持於醫療照護領域使用AI之透明度;各州醫療委員會應制定明確之指導方針,向患者揭露AI之使用情況,其有助於患者與醫師之理解,但不會造成不必要之行政負擔;FSMB 應制定文件,詳細說明最常用之AI工具之功能與局限性,以協助醫療委員會發揮監管者之角色,並應制定常見問題與最佳實務文件,作為提供照護時利用AI方面關於透明度之資源。 (2)教育與理解(Education and Understanding): FSMB及其於醫學教育界之合作夥伴,應為醫師、醫療委員會與患者,確認有關醫療照護中AI之結構化教育資源,該等資源應包括協助瞭解AI如何運作、其優點、潛在風險以及對患者照護之影響。 (3)負責任之使用與問責(Responsible Use and Accountability): 開發人員應協助醫師瞭解何時、以及如何於患者之照護中利用AI工具;選擇AI工具支援臨床決策之醫院系統、保險公司或其他機構應向醫師提供有關AI工具之教育、存取各工具之性能報告,並應設計一個定期檢視工具功效的流程;AI工具應以得使各州醫療委員會能稽核與理解之方式設計,以便適當評估依賴工具輸出結果之醫師是否偏離照護標準(standard of care);FSMB 應支持各州醫療委員會針對臨床醫師如何負責任、可問責地使用AI之解釋。 (4)公平性與近用(Equity and Access): 應努力確保所有患者皆能公平地近用AI帶來之好處;FSMB與各州醫療委員會致力於以下原則:醫療人員所提供之照護是公平的、且不受基於種族、民族或其他形式歧視之偏見影響;FSMB應與其他利害關係人一起理解並解決演算法偏差問題。 (5)隱私與資料安全(Privacy and Data Security): AI工具之開發者必須實施嚴格之保護措施,以保護AI開發與評估時所利用之患者資料,通常情況下應告知患者資料如何被利用,且FSMB應與行業利害相關人一起制定AI系統使用與散布患者資料之政策,包括針對AI開發或評估中使用之患者資料之最低資料保護措施。 (6)監督與監管(Oversight and Regulation): 各州醫療委員會必須保留對於提供醫療服務時,不當應用AI工具之醫生進行紀律處分之權力,其包括問責議題之考慮,特別是當AI系統變得更加自主時;各州醫療委員會應審查其管轄範圍內如何對「醫療行為」(practice of medicine)進行法律定義,以確保對提供醫療照護、人力或其他方面進行持續之監管監督。 (7)法律法規之持續審查與調整(Continual Review and Adaptation of Law and Regulations): 各州醫療委員會應在FSMB之支持下,隨著AI之不斷發展,持續檢視與更新與AI相關之指引與法規;政策制定者應考慮AI對基本法律原則的影響,例如醫療行為之定義以及AI對企業醫學實務之影響;FSMB 應建立一個專門團隊,持續檢視與調整AI指引與法規。 本指引指出,AI工具通常無能力取代醫師之專業判斷、道德責任或對州醫療委員會之責任,醫療行為中之關鍵職業責任始終為確保診斷、臨床決策與建議不存在偏差。與用於診斷或治療疾病之任何其他工具或鑑別方法相同,醫療專業人員有責任確保基於證據結論之準確性與真實性,因此於將AI系統用於患者照護前,醫師應以合理努力識別與解決偏差(如虛假或不準確之資訊等)。

何謂德國電信媒體法中的「妨害人責任」(Störerhaftung)?

  原德國電信媒體法第八條條文中所指的「網路服務提供者」為擁有獨自或其他電信媒體及提供接取網路服務的自然人或法人,與我國著作權法中所提及「網路服務提供者」(Internet Service Provider)之適用對象範圍略有不同,而德國民法中有個特殊連坐法-「妨害人責任」(Störerhaftung),所有人對於妨害所有權之人,有排除及不作為請求權,因此,在原德國電信媒體法未規定之特定情形下,「網路服務提供者」應對他人透過其網路所從事的任何侵權違法行為負責。   這項法律使得德國許多咖啡館、公共空間、飯店大廳不願提供免費無線網絡,同時又讓大型咖啡連鎖店如星巴克,以提供免費網絡服務吸引顧客,因為他們就算被捲入網絡侵權責任的訴訟,也不怕支付高額律師費用,小型咖啡館就無法承擔這個風險,只能無奈面對客人轉向大型咖啡連鎖店消費的困境。根據原德國電信媒體法規定,咖啡館業主和其他網路熱點設立者所提供網路服務的方式將可能收到律師的警告函,告知他們不得再為非法下載者提供網路接取服務。   德國聯邦議院(Deutscher Bundestag)於2016年6月初經過激烈的辯論後,通過電信媒體法(Telemediengesetz; TMG)修正草案,將在最新的電信媒體法中免除「網路服務提供者」之「妨害人責任」(Störerhaftung),使德國的免費無線網絡連接點可以增加並走向開放。

美國FDA更新軟體預驗證計畫,以明確化數位健康科技的軟體器材審查流程

  美國食品及藥物管理局(the U.S. Food and Drug Administration)於2019年1月更新「軟體預驗證計畫(Software Precertification Program)」及公布該計畫「2019測試方案(2019 Test Plan)」與「運作模式初版(A Working Model v1.0)」,使審查流程更加明確及具有彈性,並促進技術創新發展。   在更新計畫中,FDA聚焦於審查架構的說明,包含考量納入醫療器材新審查途徑(De Novo pathway)及優良評估流程(Excellence Appraisal process)的審查內涵。在優良評估流程中,相關研發人員須先行提供必要資訊,以供主管機關驗證該軟體器材之確效(validation)及是否已符合現行優良製造規範(current good manufacturing practices)與品質系統規範(Quality System Regulation, QSR)的要求。而由於以上標準已在此程序中先行驗證,主管機關得簡化上市前審查的相關查證程序,並加速查驗流程。   在測試方案中,則說明FDA將同時對同一軟體器材進行軟體預驗證審查及傳統審查,並比較兩種途徑的結果,以確保軟體預驗證審查途徑中的每一個程序都可以有效評估產品上市前所應符合的必要標準。最後,FDA綜合軟體預驗證計畫及測試方案,提出「運作模式初版」,以協助相關人員了解現行的規範架構與處理程序,並期待藉此促進技術開發者及主管機關間的溝通。FDA並於運作模式文件中提到,將在2019年3月8日前持續接受相關人員的建議,而未來將參酌建議調整計畫內容。

美國情報體系發布「情報體系運用人工智慧倫理架構」

  美國國家情報體系(United States Intelligence Community)係於1981年依據行政命令第12333號(Executive Order 12333)所建立,其任務為蒐集、分析與提供外國情報與反情報資訊美國國家領導人,服務對象包含美國總統、執法單位以及軍事單位。其於2020年6月提出「情報體系人工智慧倫理架構」(Artificial Intelligence Ethics Framework for the Intelligence Community),為人工智慧系統與訓練資料、測試資料之採購、設計、研發、使用、保護、消費與管理提出指引,並指出人工智慧之利用須遵從以下事項: 一、於經過潛在風險評估後,以適當且符合目的之方法利用; 二、人工智慧之使用應尊重個人權利與自由,且資料取得應合法且符合相關政策與法規之要求; 三、應於利用程序內結合人類判斷與建立問責機制,以因應AI產品之風險並確保其決策之適當性。 四、於不破壞其功能與實用性之前提下,盡可能確認、統計以及降低潛在之歧視問題。 五、AI進行測試時應同時考量其未來利用上可預見之風險。 六、持續維持AI模型之迭代(Iteration)、版本與改動之審查。 七、AI之建立目的、限制與設計之輸出項目,應文件化。 八、盡可能使用可解釋與可理解之方式,讓使用者、審查者與公眾理解為何AI會產出相關決策。 九、持續不定期檢測AI,以確保其符合當初建置之目的。 十、確認AI於產品循環中各階段之負責人,包含其維護相關紀錄之責任。

TOP