2007年9月25日專利判決:Sprint v. Vonage

  Sprint,美國第三大電話公司,於2005年向Kanas聯邦法院提起Vonage侵害其七件有關通訊科技的專利。2007.9.25聯邦法院判決:有關Sprint 控告 Vonage通訊專利侵害案,本案陪審團認為,Vonage為?意侵害Sprint專利權,即本案法官若同意陪審團意見,將可判決三倍的賠償金額。而本案判決,網路電話公司—Vonage Holdings Co. 應賠償Sprint Nextel 6千9百50萬美元,及未來盈收百分之五之權利金。

 

  Vorgae 以書面聲明將對聯邦法院此次判決提出上訴;並將變更產品設計以避免使用本案爭議技術。Vonage法務長說明“對於陪審團不認同’Vonage的技術與Sprint的技術是有差異的’甚感失望;而Vonage首要目標是提供給客戶高品質、高穩定的數位電話服務”。

 

  Sprint發言人—Matt Sulivan 說明,Sprint擬向地方法院申請禁制令,禁止Vonage使用Sprint之專利技術。

 

  本件判決為2007年第四大專利案件判決。

 

  此判決為今年度第二個不利於Vonage的判決。今年三月Virginia法院認定Vonage之網路電話系統侵害Verizon三項專利。此判決判定之賠償金為5千8百萬美元及未來盈收百分之5.5之授權金。

 

  分析師認為,VoIP已成為主流話題,Vonage以網路電話為主要業務的公司,未來將面對更多的問題及付出更多的金錢。

相關連結
※ 2007年9月25日專利判決:Sprint v. Vonage, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=2363&no=55&tp=1 (最後瀏覽日:2026/03/16)
引註此篇文章
你可能還會想看
歐盟執委會發布無人機戰略2.0,創造大規模歐洲無人機市場

  歐盟執委會(European Commission, EC)於2022年11月29日發布「無人機戰略2.0」(Drone Strategy 2.0),以全球最先進的歐盟無人機操作與設置技術安全框架為基石,為歐洲無人機市場設定發展願景,並闡述歐洲在大規模擴展商用無人機的同時,將如何提供產業新契機。   歐盟除以無人機交通監管系統計畫(U-SPACE)進行政策推動外,為擴張歐洲無人機市場,歐盟執委會提出「創新空中移動」(Innovative Air Mobility, IAM)與「創新空中服務」(Innovative Aerial Services, IAS)等2項新概念。前者包括國際、地區與城市空中移動(Urban Air Mobility, UAM)概念,期待以定期載客服務實現最終全自動化、有效整合並補充既有運輸系統與服務,以及提出有助於改善交通運輸系統碳排放的去碳(decarbonisation)替代方案。此外,透過廣泛布建並整合地面與空中基礎設施,將使UAM成為未來城市複合式智慧移動生態系統(multimodal intelligent mobility ecosystem)之一部;而後者則涉及無人機多元應用,諸如緊急服務、測繪、巡檢、偵查與物流運輸,抑或最終實現全自動化空中計程車(Air Taxis)等創新應用型態,期待相關應用於2030年成為歐洲日常生活的一部份。   為實現上述願景,歐盟提出「建立聯盟無人機服務市場」與「加強歐洲民用、安全與國防產業能力與綜效(synergies)」等兩項目標,其中涵蓋十大領域(例如:改善空域能力、促進航空作業、發展IAM、提供資金與融資、確立關鍵技術模組化(critical technology building blocks)),並從中啟動十九項攸關操作、技術與財務的關鍵行動(例如:建立支持在地利害關係人與產業落實永續的IAM線上平台、推動通用標準、採用反制無人機系統(C-UAS)、協調共同方法以提供無人機操作所需之無線電頻譜等),為未來無人機空域與市場,建立妥適的監管與商業環境,並加強無人機營運商、無人機製造商、國防部門、反制(counter)無人機,以及U-SPACE等有關無人機價值鏈(value chain)就不同環節上之效率。

聯合國教科文組織發布《人工智慧倫理建議書》草案

  聯合國教科文組織於2020年9月發布《人工智慧倫理建議書》草案(First Draft Of The Recommendation On The Ethics Of Artificial Intelligence)(下稱建議書),以全球性的視野與觀點出發,為第一份全球性關於人工智慧倫理的建議書,試圖對人工智慧倫理作出框架性規定,對照其他區域性組織或個別國家人工智慧倫理準則或原則,著重之處稍有差異。該建議書係由組織總幹事Audrey Azoulay於2020年3月任命24位在人工智慧倫理學方面之跨領域專家,組成專家小組(AD HOC EXPERT GROUP, AHEG),以《建議書》的形式起草全球標準文書。   其主要內容提到六大價值觀:(一)人性尊嚴(Human dignity)、(二)基本人權和自由(Human rights and fundamental freedoms)、(三)不遺漏任何人(Leaving no one behind)、(四)和諧共生(Living in harmony)、(五)可信賴(Trustworthiness)、(六)環境保護(Protection of the Environment)。其中尤值關注處在於,建議書除強調人工智慧的技術、資料及研究需要進行全球範圍的共享外,相當重視世界上所有的國家及地區在人工智慧領域是否能均衡發展。特別在六大價值觀中提出「不遺漏任何人」觀點,也同時呼應了聯合國永續發展目標(Sustainable Development Goals, SDGs)的倡議。在人工智慧技術發展過程中,開發中國家(global south)及相對弱勢的群體是相當容易被忽略的。人工智慧蓬勃發展的時代,若某些群體或個體成為技術弱勢者,不僅在技術發展上有落差,更可能使人工智慧系統容易產生歧視、偏見、資訊和知識鴻溝,其後更將導致全球不平等問題的挑戰。   由專家小組起草的建議書草案已於2020年9月提交給聯合國成員國,作為對建議書的初步報告。該報告將提供給各會員國,並同步提交給預定於2021年召開的政府專家委員會,最後預計於2021年底的提交聯合國教科文組織大會。

基因專利新發展

  隨著基因工程的逐漸成熟,關於現代生物技術可否取得專利,引起激烈的公開辯論。為了澄清這些問題,歐盟和美國曾採取重要的立法和行政措施,如歐洲議會和理事會關於生物技術發明的98 / 44 / EC指令 ,及美國專利商標局2001年1月5日所修改的確認基因有關發明實用性指南(Guidelines For Determining Utility Of Gene-Related Inventions of 5 January 2001)。   然而,美國最高法院於2013年《Association for Molecular Pathology v. Myriad Genetics, Inc.》一案中認為,自然發生的DNA片段是自然界的產物,不因為其經分離而具有可專利適格性,但認為cDNA(complementary DNA,簡稱cDNA)具有可專利適格性,因為其並非自然發生。該判決強調Myriad Genetics, Inc.並未創造或改變任何BRCA1和BRCA2基因編碼的遺傳信息,即法院承Myriad Genetics, Inc.發現了一項重要且有用的基因,但該等基因從其週邊遺傳物質分離並非一種發明行為。不過,法院也認為“與經分離的DNA片段屬於天然發生者不同,cDNA則具有可專利性。”因此,“cDNA非自然的產物,且根據美國專利法第101條具有可專利性。”   其次,美國於2012年3月《Mayo Collaborative Services v. Prometheus Laboratories》案認為,檢測方法僅為揭露一項自然法則,即人體代謝特定藥物後、特定代謝產物在血液中濃度與投與藥物劑量發揮藥效或產生副作用的可能性間的關聯性。即使需要人類行為(投以藥物)來促使該關聯性在特定人體中展現,但該關聯性本身是獨立於任何人類行為之外而存在,是藥物被人體代謝的結果,因此,全部應為自然過程。而不具有可專利性。

美國情報體系發布「情報體系運用人工智慧倫理架構」

  美國國家情報體系(United States Intelligence Community)係於1981年依據行政命令第12333號(Executive Order 12333)所建立,其任務為蒐集、分析與提供外國情報與反情報資訊美國國家領導人,服務對象包含美國總統、執法單位以及軍事單位。其於2020年6月提出「情報體系人工智慧倫理架構」(Artificial Intelligence Ethics Framework for the Intelligence Community),為人工智慧系統與訓練資料、測試資料之採購、設計、研發、使用、保護、消費與管理提出指引,並指出人工智慧之利用須遵從以下事項: 一、於經過潛在風險評估後,以適當且符合目的之方法利用; 二、人工智慧之使用應尊重個人權利與自由,且資料取得應合法且符合相關政策與法規之要求; 三、應於利用程序內結合人類判斷與建立問責機制,以因應AI產品之風險並確保其決策之適當性。 四、於不破壞其功能與實用性之前提下,盡可能確認、統計以及降低潛在之歧視問題。 五、AI進行測試時應同時考量其未來利用上可預見之風險。 六、持續維持AI模型之迭代(Iteration)、版本與改動之審查。 七、AI之建立目的、限制與設計之輸出項目,應文件化。 八、盡可能使用可解釋與可理解之方式,讓使用者、審查者與公眾理解為何AI會產出相關決策。 九、持續不定期檢測AI,以確保其符合當初建置之目的。 十、確認AI於產品循環中各階段之負責人,包含其維護相關紀錄之責任。

TOP