智慧財產權盡職調查(IP Due Diligence)

  智慧財產權盡職調查(Intellectual Property Due Diligence, IP DD),又稱智慧財產權稽核(IP Audits)。所謂盡職調查(Due Diligence, DD)係指:即將進入投資或購買交易前,投資者或其委託人透過事實證據所進行與投資或購買相關的評估。評估內容包含公司結構、財務狀況、業務、稅務、人力資源等,亦涵蓋有形資產與無形資產。其主要目的在於釐清該投資或購買是否存在潛在的法律風險。隨智慧財產權的概念愈來愈成熟,智慧財產權盡職調查也益發重要。智慧財產權盡職調查的內容常會包含:財產權(如:註冊地域、質押或保全情形)、授權或轉授權限制、申請之時期、優先權效期、爭議或訴訟(如:是否存在專利權無效之風險)。智慧財產權盡職調查的資料蒐集方式除了調閱智慧財產權申請記錄(file wrapper)、保密契約、授權文件,常見調查方式亦包含訪談重要員工和審閱發明人的僱傭契約。

  假若沒有善盡智慧財產權盡職調查,很可能會後續引發潛藏的風險,諸如:估值錯誤、交易可能會因為未提前排除繁冗細節而遲延進而影響投資人意願、可能會導致必須重新談判,最嚴重可能必須放棄整個交易。未善盡智慧財產權盡職調查著名的實例是蘋果(Apple)與唯冠的iPad商標爭議。2006年蘋果策畫平板電腦並希望以iPad為名,台灣的唯冠集團早在2000年起於多國註冊iPad電腦商標。2009年蘋果透過英國子公司以3.5萬英鎊收購唯冠的iPad全球商標,並於2010年推出iPad。因為蘋果的智慧財產權盡職調查疏漏,而未發現iPad於中國大陸之商標權屬於深圳唯冠公司而非台灣唯冠,所以不能進入中國大陸市場。最後,蘋果與深圳唯冠以6,000萬美元鉅額和解。從iPad案可窺知智慧財產權盡職調查之重要性。

本文為「經濟部產業技術司科技專案成果」

相關連結
你可能會想參加
※ 智慧財產權盡職調查(IP Due Diligence), 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8325&no=67&tp=1 (最後瀏覽日:2026/02/24)
引註此篇文章
你可能還會想看
奈米技術之瞻性規劃-以美國推行綠色奈米為中心

FCC對於頻譜管理與拍賣的法規修正

美國聯那通訊委員會 (Federal Communications Commission, FCC)在本月十四日公佈了一份有關「商業頻譜加強法案(Commercial Spectrum Enhancement Act, CSEA)」的執行命令與法規預訂修正通知(Declaratory Ruling and Notice of Proposed Rule Making)。希冀能制訂一定的行政規則而確切地遵照CSEA的規範;同時,FCC也在文件報告中也提出了一些對於目前競價拍賣規則的相關修正意見。   最初在 CSEA法案中設計了頻譜的拍賣收益機制,主要係補償聯邦機構在一些特定頻率(216-220 MHz, 1432-1435 MHz, 1710-1755 MHz, and 2385-2390 MHz)中,以及一些從聯邦專屬使用區重新定頻到非專用區的頻率,因移頻所支應出的必要成本。而在FCC的公佈報告中,委員會認為惟有定義清楚,方能有效地落實該法的執行。因此FCC詳細解釋說明了CSEA中對於「總體現金收益(total cash proceeds)」的意義,FCC認為所謂的總體現金收益應該是原始獲標的價格扣除掉任何有可能的折扣或扣損;同時,FCC也在預定修正公告中,認為應改變委員會的拍賣價格規定以配合CSEA的規定。另外,也修正了部落地的拍賣信用補償制度(Tribal Land Bidding Credit Rule)等規定。

美國國家標準暨技術研究院發布「全球AI安全機構合作策略願景目標」,期能推動全球AI安全合作

美國國家標準暨技術研究院(National Institute of Standards and Technology, NIST)於2024年5月21日提出「全球AI安全機構合作策略願景目標」(The United States Artificial Intelligence Safety Institute: Vision, Mission, and Strategic Goals,下稱本策略願景),美國商務部(Department of Commerce)亦於2024年參與AI首爾峰會(AI Seoul Summit)期間對外揭示本策略願景,期能與其他國家攜手打造安全、可靠且可信賴之AI生態系。 由於AI可信賴與否往往取決於安全性,NIST指出當前AI安全所面臨的挑戰包含:一、欠缺對先進AI之標準化衡量指標;二、風險測試、評估、驗證及確效(Test, Evaluation, Validation, and Verification, TEVV)方法不健全;三、欠缺對AI建模後模型架構與模型表現間因果關係的了解;四、產業、公民社會、國內外參與者等在實踐AI安全一事上合作程度極為有限。 為因應上述挑戰並促進AI創新,NIST在本策略願景中擬定以下三大戰略目標:(1)推動AI安全科學發展:為建立安全準則與工具進行技術合作研究,並預先部署TEVV方法,以利評估先進AI模型之潛在風險與應對措施;(2)推展AI安全實務作法:制定並發布不同領域AI風險管理之相關準則與指標,以達到負責任設計、開發、部署與應用AI模型與系統之目的;(3)支持AI安全合作:促進各界採用前述安全準則、工具或指標,並推動全球合作,以發展國際通用的AI安全風險應對機制。

自駕車之發展與挑戰-以德國法制為借鑑

TOP