何謂不實施專利實體(Non-Practicing Entity,NPE)?

  所謂NPE依據現行學術界對於NPE的內涵認知,認為NPE係指不從事任何商品生產,亦不從事任何研發工作者。而在現行NPE的運作態樣上,其可包含兩種類型,其一,為大學和研究機構(例如:公、私立實驗室),其主要係由校內教職員或研究人員進行基礎性研究,並將研究成果授權予其他個人或組織來運用,其本身並不從事任何商品生產者;其二,係由個人或是中小型組織/團體以購買專利的方式來獲得專利權,並藉由專利權本質上的排他性特徵,以訴訟方式來控告侵害其專利權的成功商品製造者。後者,英文稱其為『Patent Troll』,中文可譯為『專利巨人』、『專利蟑螂』、『專利流氓』、『專利地痞』或『專利恐怖分子』等。其主要特徵有三項,首先,此類NPE係藉由專利取得的方式,向潛在或可能的專利侵權者(alleged infringers)收取專利授權金;第二,此類NPE並不進行任何研發活動,其亦不就其所擁有的專利來從事商品化活動或發展新型技術;第三,此類NPE投機性地等待商品製造者(industry participants)在投入不可回復鉅額投資後,始對該商品製造者行使專利侵權主張。

本文為「經濟部產業技術司科技專案成果」

※ 何謂不實施專利實體(Non-Practicing Entity,NPE)?, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=7300&no=57&tp=1 (最後瀏覽日:2026/05/01)
引註此篇文章
你可能還會想看
日本政府怎樣對公部門管制DeepSeek?

日本政府怎樣對公部門管制DeepSeek? 資訊工業策進會科技法律研究所 2025年07月07日 2025年2月3日,日本個人情報保護委員會(Personal Information Protection Commission,簡稱PPC)發布新聞稿指出[1],DeepSeek所蒐集的資料,將會儲存在中國的伺服器裡,且為中國《國家情報法》的適用對象[2]。這可能將導致個人資料遭到中國政府調用或未經授權的存取。作為中國開發的生成式AI,DeepSeek雖以優異的文本能力迅速崛起,卻也引發資安疑慮。 身處地緣政治敏感區的日本對此高度警覺,成為率先提出警告的國家之一。台灣與日本面臨相似風險,因此日本的應對措施值得借鏡。本文將從PPC新聞稿出發,探討日本如何規範公部門使用DeepSeek。 壹、事件摘要 DeepSeek作為中國快速崛起之生成式AI服務,其使用範圍已快速在全球蔓延。然而,日本PPC發現該公司所公布之隱私政策,內容說明其所蒐集之資料將存儲於中國伺服器內,並依據中國《國家情報法》之適用範圍可能遭到中國政府調用或未經授權之存取。 日本PPC因而於2025年2月3日發布新聞稿,隨後日本數位廳於2月6日發函給各中央省廳,強調在尚未完成風險評估與資安審查之前,政府機關不應以任何形式將敏感資訊輸入DeepSeek,並建議所有業務使用應先諮詢內閣資安中心(内閣サイバーセキュリティセンター,NISC)與數位廳(デジタル庁)意見,才能判定可否導入該類工具[3]。數位大臣平將明亦在記者會中強調:「即使不是處理非機密資料,各機關也應充分考量風險,判斷是否可以使用。」(要機密情報を扱わない場合も、各省庁等でリスクを十分踏まえ、利用の可否を判断する)[4]。 本次事件成為日本對於生成式AI工具採取行政限制措施的首次案例,也引發公私部門對資料主權與跨境平台風險的新一輪討論。 貳、重點說明 一、日本對於人工智慧的治理模式 日本在人工智慧治理方面採取的是所謂的「軟法」(soft law)策略,也就是不依賴單一、強制性的法律來規範,而是以彈性、分散的方式,根據AI的實際應用場景與潛在風險,由相關機關分別負責,或透過部門之間協作因應。因此,針對DeepSeek的管理行動也不是由某一個政府部門單獨推動,而是透過跨部會協作完成的綜合性管控,例如: (一)PPC的警示性通知:PPC公開說明DeepSeek儲存架構與中國法規交錯風險,提醒政府機關與公務人員謹慎使用,避免洩漏資料。 (二)數位廳的行政指引:2025年2月6日,日本數位廳針對生成式AI的業務應用發布通知,明列三項原則:禁止涉密資料輸入、限制使用未明確審查之外部生成工具、導入前應諮詢資安機構。 (三)政策溝通與政治聲明:平將明大臣在記者會上多次強調DeepSeek雖未明列於法條中禁用,但其高風險屬性應視同「潛在危害工具」,需列入高敏感度審查項目。 二、日本的漸進式預防原則 對於DeepSeek的管制措施並未升高至法律層級,日本政府亦沒有一概禁止DeepSeek的使用,而是交由各機關獨自判斷[5]。這反映出了日本在AI治理上的「漸進式預防原則」:先以行政指引建構紅線,再視實際風險與民間回饋考慮是否立法禁用。這樣的作法既保留彈性,又讓官僚系統有所依循,避免「先開放、後收緊」所帶來的信任危機。 三、日本跟循國際趨勢 隨著生成式AI技術迅速普及,其影響已不再侷限於產業應用與商業創新,而是逐漸牽動國家資安、個資保護以及國際政治秩序。特別是生成式AI在資料存取、模型訓練來源及跨境資料流通上的高度不透明,使其成為國家安全與數位主權的新興挑戰。在這樣的背景下,各國對生成式AI工具的風險管理,也從原先聚焦於產業自律與技術規範,提升至涉及國安與外交戰略層面。 日本所採取的標準與國際趨勢相仿。例如韓國行政安全部與教育部也在同時宣布限制DeepSeek使用,歐盟、美國、澳洲等國亦有不同程度的封鎖、審查或政策勸導。日本雖然和美國皆採取「軟法」(soft law)的治理策略,然而,相較於美國以技術封鎖為主,日本因其地緣政治的考量,對於中國的生成式AI採取明確防範的態度,這一點與韓國近期禁止政府機構與學校使用中國AI工具、澳洲政府全面禁止政府設備安裝特定中國應用程式類似。 參、事件評析 這次日本政府對於DeepSeek的應對措施,反映出科技治理中的「資料主權問題」(data sovereignty):即一個國家是否有能力控制、保存與使用其管轄範圍內所生產的資料。尤其在跨境資料傳輸的背景下,一個國家是否能保障其資料不被外國企業或政府擅自使用、存取或監控,是資料主權的核心問題。 生成式AI不同於傳統AI,其運作依賴大規模訓練資料與即時伺服器連接,因此資料在輸入的瞬間可能已被收錄、轉存甚至交付第三方。日本因而對生成式AI建立「安全門檻」,要求跨境工具若未經審核,即不得進入政府資料處理流程。這樣的應對策略預示了未來國際數位政治的發展趨勢:生成式AI不只是科技商品,它已成為跨國治理與地緣競爭的核心工具。 中國通過的《國家情報法》賦予政府調閱私人企業資料的權力,使得中國境內所開發的生成式AI,儼然成為一種資訊戰略利器。若中國政府藉由DeepSeek滲透他國公部門,這將對國家安全構成潛在威脅。在此背景下,日本對公部門使用DeepSeek的管制,可被解讀為一種「數位防衛行為」,象徵著日本在數位主權議題上的前哨部署。 值得注意的是,日本在處理DeepSeek事件時,採取了「不立法限制、但公開警示」的方式來應對科技風險。此舉既避免激烈封鎖引發爭議,又對於資料的運用設下邊界。由於法令規範之制定曠日費時,為避免立法前可能產生之風險,日本先以軟性之限制與推廣手段以防止危害擴大。 台灣雖與日本同處地緣政治的敏感地帶,資料主權議題對社會影響深遠,為使我國可在尚未有立法規範之狀態下,參考日本所採之行政命令內控與公開說明外宣雙向並行之策略,對台灣或許是一種可行的借鏡模式。 本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。 本文同步刊登於TIPS網站(https://www.tips.org.tw) [1]個人情報保護委員会,DeepSeekに関する情報提供,https://www.ppc.go.jp/news/careful_information/250203_alert_deepseek/ (最後瀏覽日:2025/05/06)。 [2]《中华人民共和国国家情报法》第7条第1项:「任何组织和公民都应当依法支持、协助和配合国家情报工作,保守所知悉的国家情报工作秘密。」 [3]デジタル社会推進会議幹事会事務局,DeepSeek等の生成AIの業務利用に関する注意喚起(事務連絡),https://www.digital.go.jp/assets/contents/node/basic_page/field_ref_resources/d2a5bbd2-ae8f-450c-adaa-33979181d26a/e7bfeba7/20250206_councils_social-promotion-executive_outline_01.pdf (最後瀏覽日:2025/05/06)。 [4]デジタル庁,平大臣記者会見(令和7年2月7日),https://www.digital.go.jp/speech/minister-250207-01 (最後瀏覽日:2025/05/06)。 [5]Plus Web3 media,日本政府、ディープシークを一律禁止せず 「各機関が可否を判断する」,https://plus-web3.com/media/500ds/?utm_source=chatgpt.com (最後瀏覽日:2025/05/06)。

英國通過《2018自動與電動車法》

  英國於2018年7月通過自動與電動車法(Automated and Electric Vehicles Act 2018),對自動與電動車輛之定義、保險議題以及電動車充電基礎設施進行規範。   針對自駕車之保險議題,該法採取「單一保險人模式」(Single Insurer Model),無論是駕駛人自行駕駛或自動駕駛,駕駛人均應購買自駕車保險,讓所有用路人對於可能之安全事故均有保險可涵蓋並追溯責任。本法其他重要規定如下; 本法未直接賦予自駕車(Automated vehicle)明確定義,管理方式係由主管機關自行認定並建立清單。本法僅要求清單內之車輛應設計或調整為至少於某些特定狀況能安全行駛之自動駕駛模式。 已納保之自駕車行駛時所造成之損害,將由車輛之承保公司負擔損害賠償責任。 未納保之自駕車若發生事故,則車主應負擔損害賠償責任。 若由保險人負損害賠償責任,則受害人將可依現行法規提出損害賠償請求。保險人則可依普通法與產品責任相關規定,向應對事故負責之單位或個人提出損害賠償請求。   於電動車充電基礎設施之部分,該法之目的則是確保公共充電站適用於所有市面上之電動車輛,並就費用、付費方式以及相關安全標準進行規範,以增進消費者之信任。該法第20條並授權主管機關訂定相關授權辦法,以達上述目標。

通用人工智慧的透明揭露標準--歐盟通用人工智慧模型實踐準則「透明度 (Transparency)」章

通用人工智慧的透明揭露標準--歐盟通用人工智慧模型實踐準則「透明度 (Transparency)」章 資訊工業策進會科技法律研究所 2025年08月06日 歐盟人工智慧辦公室(The European AI Office,以下簡稱AIO) 於2025年7月10日提出《人工智慧法案》(AI Act, 以下簡稱AIA法案)關於通用型人工智慧實作的準則[1] (Code of Practice for General-Purpose AI Models,以下簡稱「GPAI實踐準則」),並於其中「透明度 (Transparency)」章節[2],針對歐盟AIA法案第53條第1項(a)、(b)款要求GPAI模型的提供者必須準備並提供給下游的系統整合者 (integrator) 或部署者 (deployer) 足夠的資訊的義務,提出模型文件(Model Documentation)標準與格式,協助GPAI模型提供者制定並更新。 壹、事件摘要 歐盟為確保GPAI模型提供者遵循其AI法案下的義務,並使AIO能夠評估選擇依賴本守則以展現其AI法案義務合規性的通用人工智慧模型提供者之合規情況,提出GPAI實踐準則。當GPAI模型提供者有意將其模型整合至其AI系統的提供者(以下稱「下游提供者」)及應向AIO提供相關資訊,其應依透明度章節要求措施(詳下述)提出符合內容、項目要求的模型文件,並予公開揭露且確保已記錄資訊的品質、安全性及完整性 (integrity)。 由於GPAI模型提供者在AI價值鏈 (AI value chain) 中具有特殊角色和責任,其所提供的模型可能構成一系列下游AI系統的基礎,這些系統通常由需要充分了解模型及其能力的下游提供者提供,以便將此類模型整合至其產品中並履行其AIA法案下的義務。而相關資訊的提供目的,同時也在於讓AIO及國家主管機關履行其AI法案職責,特別是高風險AI的評估。 AIO指出完整填寫與定期更新模型文件,是履行AIA法案第53條義務的關鍵步驟。GPAI模型提供者應建立適當的內部程序,確保資訊的準確性、時效性及安全性。模型文件所含資訊的相關變更,包括同一模型的更新版本,同時保留模型文件的先前版本,期間至模型投放市場後10年結束。 貳、重點說明 一、制定並更新模型文件(措施1.1) 透明度 (Transparency)章節提供模型文件的標準表格,做為GPAI實踐準則透明度章節的核心工具,協助GPAI模型提供者有系統性的整理並提供AIA法案所要求的各項資訊。表格設計考量了不同利害關係人的資訊需求,確保在保護商業機密的同時,滿足監管透明度的要求。 前揭記錄資訊依其應提供對象不同,各欄位已有標示區分該欄資訊係用於AI辦公室 (AIO)、國家主管機關 (NCAs) 或下游提供者 (DPs)者。適用於下游提供者的資訊,GPAI模型提供者應主動提供(公開揭露),其他則於被請求時始須提供(予AIO或NCAs)。 除基本的文件最後更新日期與版本資訊外,應提供的資訊分為八大項,內容應包括: (一)、一般資訊General information 1.模型提供者法律名稱(Legal name) 2.模型名稱(Model name):模型的唯一識別碼(例如 Llama 3.1-405B),包括模型集合的識別碼(如適用),以及模型文件涵蓋之相關模型公開版本的名稱清單。 3.模型真實性(Model authenticity):提供明確的資訊例如安全雜湊或URL端點,來幫助使用者確認這個模型的來源 (Provenance)、是否真實性未被更動 (Authenticity)。 4.首次發布日(Release date)與首次投放歐盟市場的日期(Union market release date)。 5.模型依賴(Model dependencies):若模型是對一個或多個先前投放市場的GPAI模型進行修改或微調的結果,須列出該等模型的名稱(及相關版本,如有多個版本投放市場)。 (二)、模型屬性(Model properties) 1.Model architecture 模型架構:模型架構的一般描述,例如轉換器架構 (transformer architecture)。 2.Design specifications of the model 模型設計規格:模型主要設計規格的一般描述,包括理由及所作假設。 3.輸出/入的模式與其最大值(maximum size):說明係文字、影像、音訊或視訊模式與其最大的輸出/入的大小。 4.模型總參數量(model size)與其範圍(Parameter range):提供模模型參數總數,記錄至少兩個有效數字,例如 7.3*10^10 參數,並勾選參數(大小)所在範圍的選項,例如:☐>1T。 (三)、發佈途徑與授權方式(Methods of distribution and licenses) 1.發佈途徑Distribution channels:列舉在歐盟市場上使用模型的採用法,包括API、軟體套裝或開源倉庫。 2.授權條款License:附上授權條款鏈結或在要求時提供副本;說明授權類型如: 開放授權、限制性授權、專有授權;列出尚有提供哪些相關資源(如訓練資料、程式碼)與其存取方式、使用授權。 (四)、模型的使用(Use) 1.可接受的使用政策Acceptable Use Policy:附上可接受使用政策連結或副本或註明無政策。 2.預期用途或限制用途Intended uses:例如生產力提升、翻譯、創意內容生成、資料分析、資料視覺化、程式設計協助、排程、客戶支援、各種自然語言任務等或限制及/或禁止的用途。 3.可整合AI系統之類型Type and nature of AI systems:例如可能包括自主系統、對話助理、決策支援系統、創意AI系統、預測系統、網路安全、監控或人機協作。 4.模型整合技術方式Technical means for integration:例如使用說明、基礎設施、工具)的一般描述。 5.所需軟硬體資源Required hardware與software:使用模型所需任何軟硬體(包括版本)的描述,若不適用則填入「NA」。 (五)、訓練過程(Training process) 1.訓練過程設計規格(Design specifications of the training process):訓練過程所涉主要步驟或階段的一般描述,包括訓練方法論及技術、主要設計選擇、所作假設及模型設計最佳化目標,以及不同參數的相關性(如適用)。例如:「模型在人類偏好資料集上進行10個輪次的後訓練,以使模型與人類價值觀一致,並使其在回應使用者提示時更有用」。 2.設計決策理由(Decision rationale):如何及為何在模型訓練中做出關鍵設計選擇的描述。 (六)、用於訓練、測試及驗證的資料資訊(Information on the data used for training, testing, and validation) 1.資料類型樣態Data type/modality:勾選樣態包括文字、影像、音訊、視訊或說明有其他模態。 2.資料來源Data provenance:勾選來源包括網路爬蟲、從第三方取得的私人非公開資料集、使用者資料、公開資料集、透過其他方式收集的資料、非公開合成(Synthetic )資料等。 3.資料取得與選取方式(How data was obtained):取得及選擇訓練、測試及驗證資料使用方法的描述,包括用於註釋資料的方法及資源,以及用於生成合成資料的模型及方法。從第三方取得的資料,如果權利取得方式未在訓練資料公開摘要中披露,應描述該方式。 4.資料點數量Number of data points:說明訓練、測試及驗證資料的大小(資料點數量),連同資料點單位的定義(例如代幣或文件、影像、視訊小時或幀)。 5.資料範疇與特性(Scope and characteristics):指訓練、測試及驗證資料範圍及主要特徵的一般描述,如領域(例如醫療保健、科學、法律等)、地理(例如全球、限於特定區域等)、語言、模式涵蓋範圍。 6.資料清理處理方法(Data curation methodologies):指將獲取的資料轉換為模型訓練、測試及驗證資料所涉及的資料處理一般描述,如清理(例如過濾不相關內容如廣告)、資料擴增。 7.不當資料檢測措施(Measures for unsuitability):在資料獲取或處理中實施的任何方法描述(如有),以偵測考慮模型預期用途的不適當資料源,包括但不限於非法內容、兒童性虐待材料 (CSAM)、非同意親密影像 (NCII),以及導致非法處理的個人資料。 8.可識別偏誤檢測措施(Measures to detect identifiable biases):描述所採取的偵測與矯正訓練資料存在偏誤的方法。 (七)、訓練期間的計算資源(Computational resources (during training)) 1.訓練時間(Training time):所測量期間及其時間的描述。 2.訓練使用的計算量(Amount of computation used for training):說明訓練使用的測量或估計計算量,以運算表示並記錄至其數量級(例如 10^24 浮點運算)。 3.測量方法論(Measurement methodology):描述用於測量或估計訓練使用計算量的方法。 (八)、訓練及推論的能源消耗(Energy consumption (during training and inference)) 1.訓練耗能(Amount of energy used for training)及其計量方法:說明訓練使用的測量或估計能源量,以百萬瓦時表示(例如 1.0x10^2 百萬瓦時)。若模型能源消耗未知,可基於所使用計算資源的資訊估計能源消耗。若因缺乏計算或硬體提供者的關鍵資訊而無法估計訓練使用能源量,提供者應披露所缺乏的資訊類型。 2.推論運算耗能的計算基準 (Benchmarked amount of computation used for inference1)及其方法:以浮點運算表示方式(例如 5.1x10^17 浮點運算)說明推論運算的基準計算量,並提供計算任務描述(例如生成100000個代幣Token)及用於測量或估計的硬體(例如 64個Nvidia A100)。 二、提供GPAI模型相關資訊(措施1.2) 通用人工智慧模型投放市場時,應透過其網站或若無網站則透過其他適當方式,公開揭露聯絡資訊,供AIO及下游提供者請求取得模型文件中所含的相關資訊或其他必要資訊,以其最新形式提供所請求的資訊。 於下游提供者請求時,GPAI模型提供者應向下游提供者提供最新模型文件中適用於下游提供者的資訊,在不影響智慧財產權及機密商業的前提下,對使其充分了解GPAI模型的能力及限制,並使該等下游提供者能夠遵循其AIA法案義務。資訊應在合理時間內提供,除特殊情況外不得超過收到請求後14日。且該資訊的部分內容可能也需要以摘要形式,作為GPAI模型提供者根據AIA法案第53條第1項(d)款必須公開提供的訓練內容摘要 (training content summary) 的一部分。 三、確保資訊品質、完整性及安全性(措施1.3) GPAI模型提供者應確保資訊的品質及完整性獲得控制,並保留控制證據以供證明遵循AIA法案,且防止證據被非預期的變更 (unintended alterations)。在制定、更新及控制資訊及記錄的品質與安全性時,宜遵循既定協議 (established protocols) 及技術標準 (technical standards)。 參、事件評析 一、所要求之資訊完整、格式標準清楚 歐盟AGPAI實踐準則」的「透明度 (Transparency)」提供模型文件的標準表格,做為GPAI實踐準則透明度章節的核心工具,從名稱、屬性、功能等最基本的模型資料,到所需軟硬體、使用政策、散佈管道、訓練資料來源、演算法設計,甚至運算與能源消秏等,構面完整且均有欄位說明,而且部分欄位直接提供選項供勾選,對於GPAI模型提供者提供了簡明容易的AIA法案資訊要求合規做法。 二、表格設計考量不同利害關係人的資訊需求 GPAI實踐準則透明度章節雖然主要目的是為GPAI模型提供者對由需要充分了解模型及其能力的下游提供者提供資訊,以便其在產品履行AIA法案下的義務。但相關資訊的提供目的,同時也在於讓AIO及國家主管機關履行其AI法案職責,特別是高風險AI的評估。因此,表格的資訊標示區分該欄資訊係用於AI辦公室 (AIO)、國家主管機關 (NCAs) 或下游提供者 (DPs)者,例如模型的訓練、資料清理處理方法、不當內容的檢測、測試及驗證的資料來源、訓練與運算的能秏、就多屬AIO、NCAs有要求時始須提供的資料,無須主動公開也兼顧及GPAI模型提供者的商業機密保護。 三、配套要求公開並確保資訊品質 該準則除要求GPAI模型提供者應記錄模型文件,並要求於網站等適當地,公開提供下游提供者請求的最新的資訊。而且應在不影響智慧財產權及機密商業的前提下,提供其他對使其充分了解GPAI模型的能力及限制的資訊。同時,為確保資訊的品質及完整性獲得控制,該準則亦明示不僅應落實且應保留證據,以防止資訊被非預期的變更。 四、以透明機制落實我國AI基本法草案的原則 我國日前已由國科會公告人工智慧基本草案,草案揭示「隱私保護與資料治理」、「妥善保護個人資料隱私」、「資安與安全 」、「透明與可解釋 」、「公平與不歧視」、「問責」原則。GPAI實踐準則透明度章節,已提供一個重要的啟示—透過AI風險評測機制,即可推動GPAI模型資訊的揭露,對相關資訊包括訓練資料來源、不當內容防止採取做一定程度的揭露要求。 透過相關資訊揭露的要求,即可一定程度促使AI開發提供者評估認知風險,同時採取降低訓練資料、生成結果侵權或不正確的措施。即便在各領域作用法尚未能建立落實配套要求,透過通過評測的正面效益,運用AI風險評測機制的資訊提供要求,前揭草案揭示的隱私、著作、安全、問責等原則,將可以立即可獲得一定程度的實質落實,緩解各界對於AI侵權、安全性的疑慮。 本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。 本文同步刊登於TIPS網站(https://www.tips.org.tw) [1]The European AI Office, The General-Purpose AI Code of Practice, https://digital-strategy.ec.europa.eu/en/policies/contents-code-gpai 。(最後閱覽日:2025/07/30) [2]The European AI Office, Code of Practice for General-Purpose AI Models–Transparency Chapter, https://ec.europa.eu/newsroom/dae/redirection/document/118120 。(最後閱覽日:2025/07/30)

美國運動穿戴式裝置製造商之爭:Jawbone與Fitbits的智財爭訟

  今年十一月初,美國運動穿戴式裝置製造商Jawbone針對其競爭對手Fitbits所提起之專利侵權控告提出反訴,主張Fitbits濫用專利、涉嫌壟斷市場,違反反托拉斯法。本次Jawbone的反訴讓這場運動穿戴式裝置的智慧財產權之戰更加白熱化。   Jawbone及Fitbits為美國運動穿戴式裝置的兩大領導廠商,雙方在今年展開一連串的智慧財產權爭訟。這場智慧財產大戰開始於今年五月,當Fitbits正準備首次公開發行(IPO)時,Jawbone控告Fitbits挖角Jawbones部分員工,並藉此盜走Jawbone共約18000筆的機密資料。數週之後,Jawbone又控告Fitbits專利侵權,並緊接著向美國國際貿易委員會(United States International Commission)提起禁制令(Injunction),禁止Fitbits進口侵權產品。Fitbits在九月反擊,控告Jawbone侵害了包含其軟體和使用者介面設計在內的專利。十月,美國法院命令Fitbits五名員工應歸還Jawbone的所有機密資料。在獲得初步的勝利後,Jawbone又以Fitbits違反反托拉斯法為由,針對Fitbits在九月提出的專利侵權訴訟提起反訴,再次對Fitbits予以回擊。   在本次反訴中,Jawbone表示:「Fitbits蓄意濫用專利,目的是為了保持其市場地位。」Jawbone同時否認所有Fitbits的專利侵權指控。Jawbone更額外聲明,Jawbones將繼續跟進之前對Fitbits提起的三項專利侵權訴訟、營業秘密侵害訴訟,以及對ITC提起的禁制令。   相較於手機等其他智慧型裝置,運動穿戴式裝置仍屬於較年輕的市場,因此仍有相當多的發展性。然而,許多大廠相繼進入這個領域,也讓智慧財產權爭議越趨激烈。

TOP