歐盟智慧財產局(EUIPO)為打擊仿冒,保護歐盟消費者及智慧財產權人,於2023年5月31日宣布正式啟動產品的區塊鏈物流認證計畫(European Blockchain Services Infrastructure - European Logistics Services Authentication, 簡稱EBSI-ELSA)。 根據EUIPO與經濟合作暨發展組織(OECD)於2021年發布的研究指出,全球仿冒產品的貿易額高達4120億歐元,占全球貿易總額的2.5%;每年輸入歐盟的產品約有6%是仿冒產品,嚴重影響歐盟的經濟發展、消費者的健康及安全、智慧財產權人(歐盟品牌企業)的權益。
從2019年至今,EUIPO一直努力研擬透過區塊鏈技術保護智慧財產的具體方案。2022年底,EUIPO與4個不同產業的品牌企業(包含汽車業、電子業、醫藥業、服飾業)、物流業者、荷蘭海關進行一個合作的試驗計畫,內容為透過區塊鏈技術追蹤產品於海外製造後,運送至歐盟銷售的歷程軌跡,以達到認證產品為智慧財產權人生產的目標。該試驗計畫於2023年5月完成概念驗證(proof of concept)。
本計畫結合區塊鏈服務基礎設施(European Blockchain Services Infrastructure, EBSI)及數位分身(digital twins)的概念,於生產、運送、海關查驗、配送至消費者的各階段中,在產品上嵌入一個含有序列化代碼(serialization code)的標籤,該代碼必須經產品所屬智慧財產權人的可驗證憑證(Verifiable Credentials, VCs)認證,結合歐盟智慧財產權相關資料庫的資料,以確認產品與其數位分身的連結。
EUIPO將於2023年底前,正式建置一個開源的區塊鏈認證平台,介接執法機構的風險分析系統,以及商標資料庫(TM View)、設計資料庫(Design View)、歐盟執法入口網(IP Enforcement Portal, IPEP)、歐盟區塊鏈智慧財產註冊系統(IP Register in Blockchain),鼓勵供應鏈、物流鏈中的參與者於此平台上交換資料,以更有效率的方式達到認證產品來源真實性的目標。
EUIPO積極運用區塊鏈科技強化歐盟智慧財產的保護,本計畫除可避免消費者買到仿冒產品外,歐盟的品牌企業未來可於相關智財侵權訴訟中,提出區塊鏈紀錄作為證據,有效主張權益。
本文同步刊登於TIPS網站(https://www.tips.org.tw)
日本經濟產業省所屬「研究開發與創新附屬委員會」於2020年5月29日統整了有關2020年創新願景的期中建言並作成報告。本次的願景建言,係著眼於日本於IT等領域無法推動新興產業的現狀,且在原本具有競爭優勢的領域上,又因新興國家崛起導致實質獲益降低,加之新型冠狀病毒疫情使經濟活動停滯等結構性變化,產生全球性的典範轉移等問題。故認為應自長遠觀點出發,視「從未來需求中發掘創新價值」的途徑為創新關鍵,化危機為轉機,並同步觀察國內外的動向,針對企業、大學、政府各界應採取的行動,綜整出2020年的期中建言。 本次期中建言以產業為核心,主要包含以下幾個面向:(1)政策:例如,為積極參與新創事業的企業規劃認證制度;透過修正產學合作指引、簡化〈技術研究組合(為成員針對產業技術,提供人力、資金或設備進行共同研究,並為成果管理運用,且具法人格的非營利組織型態)〉設立與經營程序、擇定地區開放式創新據點等手段深化與落實開放式創新;以「創造社會問題解決方案」與「保護關鍵技術」的研發活動為重心,鬆綁相關管制,並調整計畫管理方式等以協助技術投入市場應用;以2025年與2050年為期,就次世代運算(computing)技術、生化、材料與能源領域提出科技與產業發展的願景;藉由改善人才制度、數位轉型等方式,強化企業研發能量;(2)「從未來需求中發掘創新價值」概念:現行研發與導向商品化的模式,主要以既有的技術、設備等資源為基底,進行線性且單向的創新研發,重視短期收益與效率化,使成果應用未能貼近社會的實際需要,故未來應在此種模式之外,另從創造社會議題解決方案與切合未來需求的觀點出發,結合既有技術資源來擬定長期性的研發創新戰略並加以實踐;(3)產官學研各界角色定位與任務:大學與國立研發法人應強化其研發成果之商轉合作,調整課程內容以削減知識與人才產出不符合社會議題需要的問題;企業的創新經營模式,則應透過ISO56002創新治理系統標準、日本企業價值創造治理行動指針(日本企業における価値創造 マネジメントに関する行動指針)等標準實踐,擴大開放式創新的應用;政府則應採取調整稅制、建置活動據點等方式,建構並提供有利於開放式創新的環境,並針對產業發展願景中的關鍵領域(如感測器等AI應用關聯技術、後摩爾時代(post moore's law)運算技術、生化技術、材料技術、環境與能源技術等)進行投資。
歐盟資料治理規則提出資料利他主義制度以利於公益目的之利用歐盟於2022年5月30日正式簽署通過「資料治理規則」,同時引入(EU)2018/1724修正案(REGULATION (EU) 2022/868 OF THE EUROPEAN PARLIAMENT AND OF THE COUNCIL on European data governance and amending Regulation (EU) 2018/1724),針對資料中介組織及資料利他主義組織業務啟動、營運等註冊程序進行補充。 資料治理規則也通稱為資料治理法(Data Governance Act, DGA)。DGA以建立一個可信賴的資料流通環境,達成資料的可利用性,以促進資料可用於各項研究以及創新的商品和服務為目標。 DGA中,特別引人注意的是第四章「資料利他主義」(Data altruism)的提出。依據資料治理規則第二條,所謂的資料利他主義係指資料主體基於自願且無償的情況下,同意他人得處理或利用其所持有的個人資料;或資料持有者在不尋求補償的情況下允許他人得利用其所有的非個人資料(non-personal data)。而這些資料利用的目的是以實現公共利益為目標,例如醫療保健、解決氣候變化、改善交通、促進公部門統計資料的產製與應用、改善公共服務、制定公共政策,或是科學研究等。 為利於資料利他主義的落實,歐盟希望有明確的的制度設計,藉以促成更多資料主體或資料持有人,在有足夠信任的基礎下,願意將資料無償提供並進行公益目的之利用,進而實現改善生活的目標。 因此,DGA中提出以下作法: 制訂「歐洲資料利他主義同意書」(European data altruism consent form):該法授權歐盟執委會應在諮詢過歐盟資料保護委員會(European Data Protection Board)以及考慮過DGA新設之歐盟資料創新委員會(European Data Innovation Board)的意見後,制定統一的「歐洲資料利他主義同意書表格」。以此增加資料主體對於資料授權的信任,提高資料主體同意將資料釋出與流通再利用之意願,並為授權或撤銷同意建立法遵明確性。 資料利他主義組織(data altruism organisations)管理機制: (1) 資料利他主義組織採自願註冊制度,而非許可制。在資料利他主義於符合形式登記要件後,並符合非營利、透明性以及滿足保障民眾權利等要求後,於其所屬會員國中註冊以成為公認(recognised)的資料利他主義組織。採自願註冊而非許可制的目的,是希望先以管制密度較低的方式,鼓勵更多組織投入資料利他主義的推動。 (2) 給予已註冊之資料利他主義組織識別標誌:透過相關的認可機制並授予識別標誌,藉此提高資料利他主義組織的可辨識度與信賴度,讓民眾在選擇合作的組織時有所依循。 (3) 透明度要求:為了增加資料主體或資料持有者對該組織的信任度,歐盟也將對資料利他主義組織進行一定程度的監督管理,例如年報編列與管理、是否以清晰易懂方式通知資料主體或資料持有者其資料被利用的目的、需保留資料利用之所有紀錄等。此外,也需要遵守DGA授權歐盟執委會未來訂定的相關補充規範。 整體而言,歐盟將資料利他主義的公益精神經由法制化的方式納入歐洲資料治理規則,透過歐洲資料利他主義同意書以及資料利他主義的相關管理規範,降低溝通成本以及建立信任基礎,以增加資料釋出的可能性,進而提升資料被利用的程度,最終達成改善人類福祉的目標。
金融穩定委員會報告指出金融領域採用AI之模型、資料品質與治理風險.Pindent{text-indent: 2em;} .Noindent{margin-left: 2em;} .NoPindent{text-indent: 2em; margin-left: 2em;} .No2indent{margin-left: 3em;} .No2Pindent{text-indent: 2em; margin-left: 3em} .No3indent{margin-left: 4em;} .No3Pindent{text-indent: 2em; margin-left: 4em} 金融穩定委員會(Financial Stability Board, FSB)於2024年11月14日發布《人工智慧對金融穩定的影響》報告,探討人工智慧(Artificial Intelligence, AI)在金融領域的應用進展及對全球金融穩定的影響,分析相關風險並提出建議。 報告指出AI具有提升效率、加強法規遵循、提供個人化金融產品及進階資料分析等益處,但同時可能加劇某些金融部門的脆弱性(Vulnerability),進而構成金融穩定風險。報告特別提出之脆弱性包括:「第三方依賴及服務供應商集中化」、「市場相關性」、「資安風險」,以及「模型風險、資料品質和治理」。 在模型風險、資料品質與治理中,廣泛應用AI可能導致模型風險上升,因某些模型難以驗證、監控及修正,且模型的複雜性與透明性不足將增加尋找具獨立性和專業知識的驗證者的挑戰。此外,在大型語言模型(Large Language Model, LLM),大規模非結構化資料的使用及訓練資料來源的不透明性,使資料品質評估更加困難。特別是在預訓練模型(Pre-trained Model)中,金融機構對眾多資料來源的評估方式不熟悉,進一步增加管理難度。 若金融機構未建立健全的治理架構以審查AI的使用及其資料來源,模型風險與資料品質問題將難以控制。金融機構有責任應對與AI相關的模型風險和資料品質挑戰,包含對模型進行驗證、持續監控、執行結果分析和評估資料品質的預期要求。 報告呼籲各國金融主管機關加強對AI發展的監測,評估現行金融政策框架是否充分,並增強監管能力。建議可定期或不定期調查AI應用情形,並透過報告及公開揭露制度獲取相關資訊。此外,主管機關可考慮利用監督科技(SupTech)及監管科技(RegTech)等AI驅動工具強化監管效能,以應對AI在金融領域帶來的挑戰與風險。
大學研發成果商業化評估方法初探