Google否認其核心網絡搜索技術涉及侵權

  針對Google 於去年11月被美國東北大學(Northeastern University)向德州東區聯邦法院馬歇爾分院 (the US District Court for the Eastern District of Texas in Marshall) 所提出之專利侵權訴訟案,指控Google的核心網絡搜索系統所使用的搜索技術涉嫌侵害東北大學所擁有的專利, Google 於日前指稱該訴訟無任何法律依據, 指出其搜索核心技術是由Google自行研發並主張東北大學的專利為無效之專利且即使東北大學的專利為有效,因原告於發現其所稱被告可能侵權之事實後,從未告知Google並已拖延太久時間(約兩年半)才提出訴訟,原告已喪失請求賠償的權利。Google請求法院駁回原告之訴,並宣告原告的專利為無效。如上述請求不被法院接受,Google 則請求陪審團審判 (由此可看出Google 不怕輸的決心)。

 

  此案的原告為美國東北大學和Jarg公司。Kenneth Baclawski (前東北大學教授及Jarg公司創始人) 於1997年取得了編號為5,694,593之搜索技術相關的專利, 比Google公司的成立早了一年。原告訴請法院除去被告之侵害、並請求損害賠償及支付訴訟費用等。 對於Google的回應,Michael Belanger, Jarg公司的另一名創始人兼總裁Michael Belanger表示,由於全案已進入訴訟程序,不便加以評論。

相關連結
※ Google否認其核心網絡搜索技術涉及侵權, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=2708&no=67&tp=1 (最後瀏覽日:2026/02/19)
引註此篇文章
你可能還會想看
日本財務省研擬要求企業以電子方式申報法人稅和消費稅

  日本納稅作業效率和全世界其他先進國家相比仍然偏低,根據世界銀行之調查,日本企業每年花費納稅作業的時間約330小時,是OECD會員國平均時間的1.9倍。為有效提高企業處理稅捐事務作業之效率,日本財務省研擬要求企業申報法人稅和消費稅時必須以電子方式進行,目標是在今年6月前提出具體草案,納入2018年度的稅制改正大綱。   日本自2004年起開辦法人及自然人透過網路申報納稅,各地稅務署可透過國稅綜合管理(SKS)系統讀取申報書類並取得其內容,且由於相關申報書類依法應保存9年,利用電子申報方式可有效節省空間成本程序負擔。   以2015年為例,法人稅全年總申報件數約196萬件,其中已有75%是經由網路申報。但另一方面,資本額1億元以上的日本企業經由網路申報者則僅有52%,理由除了大企業多有自成一格的總務會計系統,以及普遍仍存在以收據等文件進行報帳的習慣外,佔稅收全體約4成的地方稅目前仍有許多地方政府尚未提供電子申報之服務也是重要原因,就此總務省亦將持續進行基礎設施之整建以克服此問題。   我國自1998年擘劃電子化政府起至今已邁入第五階段,為能達成「便捷生活」、「數位經濟」及「透明治理」三大目標以及「打造領先全球的數位政府」之願景,應可參考前述日本政府之各項作法。

日本發布利用AI時的安全威脅、風險調查報告書,呼籲企業留意利用AI服務時可能造成資料外洩之風險

日本獨立行政法人情報處理推進機構於2024年7月4日發布利用AI時的安全威脅、風險調查報告書。 隨著生成式AI的登場,日常生活以及執行業務上,利用AI的機會逐漸增加。另一方面,濫用或誤用AI等行為,可能造成網路攻擊、意外事件與資料外洩事件的發生。然而,利用AI時可能的潛在威脅或風險,尚未有充分的對應與討論。 本調查將AI區分為分辨式AI與生成式AI兩種類型,並對任職於企業、組織中的職員實施問卷調查,以掌握企業、組織於利用兩種類型之AI時,對於資料外洩風險的實際考量,並彙整如下: 1、已導入AI服務或預計導入AI服務的受調查者中,有61%的受調查者認為利用分辨式AI時,可能會導致營業秘密等資料外洩。顯示企業、組織已意識到利用分辨式AI可能帶來的資料外洩風險。 2、已導入AI利用或預計導入AI利用的受調查者中,有57%的受調查者認為錯誤利用生成式AI,或誤將資料輸入生成式AI中,有導致資料外洩之可能性。顯示企業、組織已意識到利用生成式AI可能造成之資料外洩風險。 日本調查報告顯示,在已導入AI利用或預計導入AI利用的受調查者中,過半數的受調查者已意識到兩種類型的AI可能造成的資料外洩風險。已導入AI服務,或未來預計導入AI服務之我國企業,如欲強化AI資料的可追溯性、透明性及可驗證性,可參考資策會科法所創意智財中心所發布之重要數位資料治理暨管理制度規範;如欲避免使用AI時導致營業秘密資料外洩,則可參考資策會科法所創意智財中心所發布之營業秘密保護管理規範,以降低AI利用可能導致之營業秘密資料外洩風險。 本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。 本文同步刊登於TIPS網站(https://www.tips.org.tw)

歐盟行動電視管制架構及發展策略-以市場進入管制為中心

美國商務部國家電信和資訊管理局呼籲透過第三方評測提高AI系統透明度

2024年3月27日,美國商務部國家電信和資訊管理局(National Telecommunications and Information Administration, NTIA)發布「人工智慧問責政策報告」(AI Accountability Policy Report),該報告呼籲對人工智慧系統進行獨立評估(Independent Evaluations)或是第三方評測,期待藉此提高人工智慧系統的透明度。 人工智慧問責政策報告就如何對人工智慧系統進行第三方評測提出八項建議作法,分別如下: 1.人工智慧稽核指引:聯邦政府應為稽核人員制定適合的人工智慧稽核指引,該指引須包含評估標準與合適的稽核員證書。 2.改善資訊揭露:人工智慧系統雖然已經應用在許多領域,但其運作模式尚缺乏透明度。NTIA認為未來可以透過類似營養標籤(Nutrition Label)的方式,使人工智慧模型的架構、訓練資料、限制與偏差等重要資訊更加透明。 3.責任標準(Liability Standards):聯邦政府應盡快訂定相關責任歸屬標準,以解決現行制度下,人工智慧系統造成損害的法律責任問題。 4.增加第三方評測所需資源:聯邦政府應投入必要的資源,以滿足國家對人工智慧系統獨立評估的需求。相關必要資源如: (1)資助美國人工智慧安全研究所(U.S. Artificial Intelligence Safety Institute); (2)嚴格評估所需的運算資源與雲端基礎設施(Cloud Infrastructure); (3)提供獎金和研究資源,以鼓勵參與紅隊測試的個人或團隊; (4)培養第三方評測機構的專家人才。 5.開發及使用驗證工具:NTIA呼籲聯邦機關開發及使用可靠的評測工具,以評估人工智慧系統之使用情況,例如透明度工具(Transparency Tools)、認驗證工具(Verification and Validation Tools)等。 6.獨立評估:NTIA建議聯邦機關應針對高風險的人工智慧類別進行第三方評測與監管,特別是可能侵害權利或安全的模型,應在其發布或應用前進行評測。 7.提升聯邦機關風險管控能力:NTIA建議各機關應記錄人工智慧的不良事件、建立人工智慧系統稽核的登記冊,並根據需求提供評測、認證與文件紀錄。 8.契約:透過採購契約要求政府之供應商、承包商採用符合標準的人工智慧治理方式與實踐。 NTIA將持續與利害關係各方合作,以建立人工智慧風險的問責機制,並確保該問責報告之建議得以落實。

TOP