.Akamai 一案改變了邦巡迴法院認定間接侵權的判斷

  2014年Akamai Technologies針對最高法院提起上訴,因此發回聯邦巡迴法院重審,而後上訴法院認為Limelight Networks確實侵害Akamai的專利,Akamai並獲得$ 45.5萬美元的損害賠償。 2006年,Akamai Technologies公司(下稱Akamai)在美國馬薩諸塞州地方法院起訴Limelight Networks(下稱Limelight),指控Limelight侵害Akamai美國專利號6108703。原告Akamai的專利是有效傳送網頁內容的方法專利。而被告Limelight是經營伺服器網路的公司,和Akamai該專利的差別在於Limelight指示用戶完成其中一個修改的步驟。

  本案從2006年一直持續到2014年向最高法院上訴為止,都是依據美國專利法第271條規定直接和間接侵權的概念。在原審認為「實施該方法專利」的侵權行為,是要求實施方要獨立完成該侵權行為,所以Limelight不能被視為直接侵權。又因為Limelight公司並沒有滿足單一實體規則(single-entity rule),控制或指示(control or direction)其實施方完成其他的專利之方法步驟,所以不用負共同侵權責任。

  但上訴聯邦巡迴法院一致贊成Akamai被侵權,並指出如果被告 Limelight知道並使用專利權人Akamai的專利,而且執行大部分的步驟,只保留一項步驟未執行,進而引誘用戶執行該方法專利的最後一個步驟,且用戶真的執行了該最後一步驟, Limelight就構成美國專利法271(b)間接侵權中的引誘侵權。

相關連結
※ .Akamai 一案改變了邦巡迴法院認定間接侵權的判斷, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=7005&no=66&tp=1 (最後瀏覽日:2026/02/21)
引註此篇文章
你可能還會想看
何謂「阿西洛馬人工智慧原則」?

  所謂「阿西洛馬人工智慧原則」(Asilomar AI Principles),是指在2017年1月5日至8日,於美國加州阿西洛馬(Asilomar)市所舉行的「Beneficial AI」會議中,由與會的2000餘位業界人士,包括844名學者專家所共同簽署的人工智慧發展原則,以幫助人類運用人工智慧為人類服務時,能確保人類的利益。   該原則之內容共分為「研究議題」( Research Issues)、「倫理與價值觀」( Ethics and Values),及「更長期問題」( Longer-term Issues)等三大類。   其條文共有23條,內容包括人工智慧的研究目標是創造有益的智慧、保證研究經費有益地用於研究人工智慧、在人工智慧研究者和政策制定者間應有具建設性並健康的交流、人工智慧系統在其整個運轉周期內應為安全可靠、進階人工智慧系統的設計者及建造者在道德層面上是其使用、誤用以及動作的利害關係人,並應有責任及機會去影響其結果、人工智慧系統應被設計和操作為和人類尊嚴、權利、自由和文化多樣性的理想具一致性、由控制高度進階人工智慧系統所取得的權力應尊重及增進健康社會所需有的社會及公民秩序,而非顛覆之,以及超級智慧應僅能被發展於服務廣泛認同的倫理理想,以及全人類,而非單一國家或組織的利益等等。

美國加州「Asilomar人工智慧原則決議」

  美國加州議會於2018年9月7日通過Asilomar人工智慧原則決議(23 Asilomar AI Principles, ACR-215),此決議表達加州對於「23條Asilomar人工智慧原則」之支持,以作為產業或學界發展人工智慧、政府制定人工智慧政策之指標,並提供企業開發人工智慧系統時可遵循之原則。依此法案所建立之重要指標如下: (1)於研究原則上,人工智慧之研究應以建立對於人類有利之人工智慧為目標。 (2)於研究資助上,人工智慧之研究資助應著重幾個方向,如:使人工智慧更加健全且可抵抗外界駭客干擾、使人工智慧促進人類福祉同時保留人類價值以及勞動意義、使法律制度可以順應人工智慧之發展。 (3)於科學政策之連結上,人工智慧研究者與政策擬定者間應有具有建設性且健全之資訊交流。 (4)於研究文化上,人工智慧研究者應保持合作、互信、透明之研究文化。 (5)於安全性上,人工智慧研究團隊應避免為了研究競爭而忽略人工智慧應具備之安全性。 (6)人工智慧系統應該於服務期間內皆具備安全性及可檢視性。 (7)人工智慧系統之編寫,應可使外界於其造成社會損失時檢視其出錯原因。 (8)人工智慧系統如應用於司法判斷上,應提供可供專門人員檢視之合理推論過程。 (9)人工智慧所產生之責任,應由設計者以及建造者負擔。 (10)高等人工智慧內在價值觀之設計上,應符合人類社會之價值觀。 (11)高等人工智慧之設計應可與人類之尊嚴、權利、自由以及文化差異相互調和。 (12)對於人工智慧所使用之資料,其人類所有權人享有擷取、更改以及操作之權利。 (13)人工智慧之應用不該限制人類「客觀事實上」或「主觀知覺上」之自由。 (14)人工智慧之技術應盡力滿足越多人之利益。 (15)人工智慧之經濟利益,應為整體人類所合理共享。 (16)人類對於人工智慧之內在目標應享有最終設定權限。 (17)高等人工智慧所帶來或賦予之權力,對於人類社會之基本價值觀應絕對尊重。 (18)人工智慧所產生之自動化武器之軍備競賽應被禁止。 (19)政策上對於人工智慧外來之發展程度,不應預設立場。 (20)高等人工智慧系統之研發,由於對於人類歷史社會將造成重大影響,應予以絕對慎重考量。 (21)人工智慧之運用上,應衡量其潛在風險以及可以對於社會所帶來之利益。 (22)人工智慧可不斷自我循環改善,而可快速增進運作品質,其安全標準應予以嚴格設定。 (23)對於超人工智慧或強人工智慧,應僅為全體人類福祉而發展、設計,不應僅為符合特定國家、組織而設計。

日本自動駕駛損害賠償責任研究會報告

  為釐清自駕車事故發生時,該如何適用日本《汽車賠償法》相關規定,國土交通省於2016年11月設置「自動駕駛損害賠償責任研究會」,檢討︰(1)自動駕駛是否適用《汽車賠償法》上運用供用者概念?(2)汽車製造商在自動駕駛事故損害中應負何種責任?(3)因資料謬誤、通訊不良、被駭等原因導致事故發生時應如何處理?(4)利用自動駕駛系統時發生之自損事故,是否屬於《汽車賠償法》保護範圍等議題,並於2018年3月公布研究報告。針對上述各點,研究會認為目前仍宜維持現行法上「運行供用者」責任,由具有支配行駛地位及行駛利益者負損害賠償責任,故自駕車製造商或因系統被駭導致失去以及支配行駛之地位及行駛利益者,不負運行供用者責任。此外,研究報告亦指出,從《汽車賠償法》立法意旨在於保護和汽車行駛無關之被害者,以及迅速使被害者得到救濟觀之,自動駕駛系統下之自損事故,應仍為《汽車賠償法》保護範圍所及。

英國Ofcom宣布改善消費者轉換服務業者之流程

  英國電信管制機關Ofocm於2013年8月宣布了新的措施,目的在幫助消費者轉換其電話和寬頻服務業者時,更加輕鬆與方便。   當消費者計畫轉換其寬頻服務業者時,時常面臨著必須許多不同業者的手續、流程,包含轉換與被轉換的業者,以及中介服務的業者。如此複雜的轉換過程造成混亂,也容易讓消費者認為轉換服務業者是很麻煩的,某種程度上阻礙消費者選擇較佳服務業者的機會。   Ofcom的研究指出,在轉換業者的過程中,最大的阻礙在於,消費者有時覺得不好意思向目前提供服務的業者提出轉換的申請,在這樣的過程中,現在的業者有很多的主導權,例如對於轉換過程的遲延或服務的中斷,均導致消費者承受不必要的拖累。   為了解決這些問題,Ofcom決定,未來當消費者計畫轉換服務業者時,只需要遵循一個單一的轉換程序,由新的服務業者代表消費者進行此一過程。   這個「由遷入供應商主導(gaining provider led,GPL)」的過程中,已廣泛的是用於電話和寬頻服務之轉換程序,消費者將不再需要聯繫他們現有的服務業者、收到一個編號,以轉換業者。   Ofcom還設置了額外的措施,以幫助防止消費者在轉換的過程中遭遇服務的中斷、或是有未經消費者同意的轉換。   一個明確的和改進的切換過程中,以幫助消費者。   Ofcom在既有GPL程序的基礎上進行改善,制訂單一的流程,強化流程的監督,為消費者提供增值收益。   根據Ofcom初步制訂的單一轉換流程,服務業者必須遵守以下指示: ‧留存每一位消費者轉換服務的相關同意記錄,以保護消費者在不知情之下,被轉換到不同的業者; ‧防止消費者轉換時出現服務的空窗期,特別是電話和寬頻服務的轉換; ‧給消費者提供關於業者服務品質的資訊,如提前終止服務時,可能需負擔的額外費用變化,使消費者可以做出明智的決定。   Ofcom計畫於2014年初將細部程序制訂並執行,並可能提出下一階段的工作,涵蓋兩個關鍵領域: ‧持續與業者溝通,確保消費者得到更好的保護; ‧進一步改進電話、不同類型的寬頻服務、不同類型的網路之間的轉換(例如Cable網路)

TOP