Uber所使用的移動定位軟體被控侵權

  運輸公司Uber在其行動應用程式(app)中使用的移動定位技術被控侵權。原告Fall Line專利有限公司於今(2017)年7月10日美國東德州聯邦地方法院泰勒分院向Uber提起專利侵權訴訟。系爭美國專利號9,454,748(以下簡稱’748專利)的權利範圍涵蓋一種收集特定定位資料及相容於各種裝置的軟體,從而不需要再為了各種裝置重新設計新軟體。

  Fall Line專利有限公司在訴狀中聲稱:「Fall Line專利有限公司是’748專利的專利權人,擁有所有實體權利。實體權利包括獨佔權及排他權,故Fall Line專利有限公司得以’748專利主張權利、對抗侵權者,對Uber的侵權行為提起訴訟。」Fall Line專利有限公司控訴Uber的行動應用程式可協助使用者以智慧型手機叫車,前往他們所在位置,侵害其’748專利。Uber的侵權行為已經造成Fall Line專利有限公司的損害,應對Fall Line專利有限公司給予適當補償,且補償金額不得低於合理權利金,及法院判決確定的利息及費用,另亦請求禁制令及陪審團審理。

   此外,根據一項美國地方法院資料庫的檢索結果顯示,Fall Line專利有限公司今年到目前為止已經提起五件專利侵權訴訟,其中包括對精品國際酒店集團(Choice International Hotel)的控訴,而本案已是Uber今年第三起被控專利侵權的案件。

「本文同步刊登於TIPS網站(https://www.tips.org.tw)」

相關連結
你可能會想參加
※ Uber所使用的移動定位軟體被控侵權, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=7867&no=66&tp=1 (最後瀏覽日:2025/12/15)
引註此篇文章
你可能還會想看
歐盟執委會針對研究發展與創新通過新的國家補助綱要架構(state aid Framework for Research, Development and Innovation)

  根據歐盟條約,國家補助的行為原則上為條約所禁止,例外須經歐盟執委會核准。為使會員國得以事先瞭解哪些行為會被認為符合共同市場的精神,歐盟執委會在11月22日針對國家補助規則,通過了「研究發展與創新綱要架構」(Community framework for state aid for research and development and innovation,以下簡稱為R&D&I Framework),期能加速此類案件的審理效率。新綱要架構規定預計自2007年1月1日起開始生效適用。   根據新的綱要架構,會員國在規劃其國家補助措施之際,仍有義務通知執委會,經執委會確認或核准後,始符合歐盟相關法制。不過執委會認為,會員國在規劃國家補助措施時,如能依循綱要架構的指導說明,將可加速執委會的作業,提升審查效率。   過去僅有研發補助可例外被認為符合歐盟條約之精神,惟根據新的綱要架構,除了研發補助以外,創新補助亦是可以獲得豁免管制者。此外,綱要架構對特定有助於研究發展與創新的國家補助措施類型,提供了詳細的指導原則說明,這類國家補助措施可以帶動私人企業的研發與創新投資,有助於經濟成長與就業,因而可提升歐盟的競爭力。   R&D&I Framework同時也允許會員國視其國內發展狀況與特殊條件,設計符合該國之補助措施,前提是要符合可矯正特定市場失靈的檢視要件,且其所設計的措施可能帶來的優惠超出補助對競爭可能造成之損害。   另新綱要架構也指出阻礙研發與創新的主要市場失靈的因素如下:知識外溢(knowledge spill-overs)的效果有限、資訊不足與不對稱(imperfect and asymmetric information)、缺乏協調與網絡建構(coordination and network failures)。此外,新綱要架構中亦針對各類行的國家補助措施,逐項為會員國解說如何妥善運用,以符合補助規則(state aid rules)。這些政策措施如下: ●研發計畫(aid for R&D projects); ●技術可行性之補助研究(aid for technical feasibility studies); ●對中小型企業智慧財產權費用給予補助(aid for industrial property right costs for SMEs); ●對新創事業提供補助(aid for young innovative enterprises); ●對服務流程及組織功能創新所提供之補助(aid for process and organisational innovation in services); ●對智慧財產提供諮詢或支援服務之補助(aid for innovation advisory services and for innovation support services); ●對中小型企業因晉用高級專業人員所需之貸款提供融資的補助(aid for the loan of highly qualified personnel for SMEs); ●對創新育成事業提供的補助(aid for innovation clusters)。 新的綱要架構同時希望可以改善歐盟對國家補助的管控機制,集中資源於管理對可能破壞競爭的案件,故綱要架構對於具有高度破壞競爭與交易風險的鉅額案件,詳細說明了執委會如何進行個案評估。

美國參議院於2022年4月提出《演算法問責法案》對演算法治理再次進行立法嘗試

  《演算法問責法案》(Algorithmic Accountability Act)於2022年4月由美國參議院提出,此法案係以2019年版本為基礎,對演算法(algorithm)之專業性與細節性事項建立更完善之規範。法案以提升自動化決策系統(automated decision systems, ADS)之透明度與公平性為目的,授權聯邦貿易委員會(Federal Trade Commission, FTC)制定法規,並要求其管轄範圍內之公司,須就對消費者生活產生重大影響之自動化決策系統進行影響評估,公司亦須將評估結果做成摘要報告。   《演算法問責法案》之規範主體包括:(1)公司連續三年平均營業額達5000萬美元,或股權價值超過2.5億美元者,並處理或控制之個人資料超過100萬人次;以及(2)公司過去三年內,財務規模至少為前者之十分之一,且部署演算法開發以供前者實施或使用者。ADS影響評估應檢視之內容包括:   1.對決策過程進行描述,比較分析其利益、需求與預期用途;   2.識別並描述與利害關係人之協商及其建議;   3.對隱私風險和加強措施,進行持續性測試與評估;   4.記錄方法、指標、合適資料集以及成功執行之條件;   5.對執行測試和部署條件,進行持續性測試與評估(含不同群體);   6.對代理商提供風險和實踐方式之支援與培訓;   7.評估限制使用自動化決策系統之必要性,並納入產品或其使用條款;   8.維護用於開發、測試、維護自動化決策系統之資料集和其他資訊之紀錄;   9.自透明度的角度評估消費者之權利;   10.以結構化方式識別可能的不利影響,並評估緩解策略;   11.描述開發、測試和部署過程之紀錄;   12.確定得以改進自動化決策系統之能力、工具、標準、資料集,或其他必要或有益的資源;   13.無法遵守上述任一項要求者,應附理由說明之;   14.執行並記錄其他FTC 認為合適的研究和評估。   當公司違反《演算法問責法案》及其相關法規有不正當或欺騙性行為或做法時,將被視為違反《聯邦貿易委員會法》(Federal Trade Commission Act)規定之不公平或欺騙性行為,FTC應依《聯邦貿易委員會法》之規定予以處罰。此法案就使用ADS之企業應進行之影響評估訂有基礎框架,或可作為我國演算法治理與人工智慧應用相關法制或政策措施之參酌對象,值得持續追蹤。

歐盟個資保護委員會大致認定南韓個資保護法具適足性認定,但須進一步評估

  歐盟個資保護委員會(EDPB)今(2021)年9月27日,就與南韓個人資料保護法(Personal Information Protection Act, PIPA)之適足性認定草案發表意見,認為南韓的個資保護框架與歐盟大致相同。但EDPB 同時也指出,在歐盟執委會做出決定之前,某些部分仍需要釐清。釐清的部分包含:   今年6月歐盟執委會公布並通過的適足性認定草案中,該草案之可執行性與有效性不應僅拘束南韓個資保護機構,也應對司法機構具有效力。除此之外,EDPB 也針對南韓PIPA 免除多項匿名化資訊之義務提出質疑;又南韓相關法令對「同意」之撤銷(或撤回)事由有所限定,應確保其對資料主體「同意」之保障持續符合適足性認定的要求。   至於在資料進一步移轉(onward transfers)方面,EDPB 認為即便資料主體知悉並同意其個資傳輸,仍應告知其資料是否會移轉到第三國之相關風險;以及若個資主體的同意無法符合GDPR 對有效同意之定義時(例如雙方地位不對等時,該同意即非有效),該個資不會從南韓之資料控管者傳輸至第三國;在對此議題南韓未具體修訂相關法令時,與國安相關的個資若進一步移轉,是否會受到憲法框架(如比例原則)和PIPA 中個資保護原則的充分保障?   而在行政部門存取傳輸到南韓的個資方面,許多議題也需要釐清並引起關注。如與國安方面相關的個資處理,係受PIPA 抑或其他更為限縮的法令限制?又電信業者自願向國安部門揭露使用者個資時,必須同時通知相關的個資主體;EDPB 並希望歐盟執委會釐清,若歐洲經濟區(EEA)內的個人向南韓個資保護機構或司法機構提出救濟時,相關的救濟程序是否實質有效(例如舉證責任的規定為何)?   於新聞稿中,EDPB 主席 Andrea Jelinek 表示:「歐盟對此適足性認定相當重視,因其將涵蓋公部門與私部門資料的傳輸。而適足的個資保護對支持歐盟與南韓的長期關係與個人權利、自由方面至關重要。雖然EDPB 認為南韓的個資保護框架與歐盟大致相同,然仍建議歐盟執委會密切關注適足性認定的各方發展。」

人權組織向法國最高行政法院提交申訴,要求政府停止使用歧視性演算法

.Pindent{text-indent: 2em;} .Noindent{margin-left: 2em;} .NoPindent{text-indent: 2em; margin-left: 2em;} .No2indent{margin-left: 3em;} .No2Pindent{text-indent: 2em; margin-left: 3em} .No3indent{margin-left: 4em;} .No3Pindent{text-indent: 2em; margin-left: 4em} 國際特赦組織(Amnesty International)與法國數位隱私權倡議團體La Quadrature du Net(LQDN)等組織於2024年10月15日向法國最高行政法院提交申訴,要求停止法國國家家庭津貼基金機構(Caisse nationale des allocations familiales,CNAF)所使用的歧視性風險評分演算法系統。 CNAF自2010年起即慣於使用此系統識別可能進行福利金詐欺的對象,該系統演算法對獲取家庭與住房補助的對象進行0至1之間的風險評分,分數越接近1即越可能被列入清單並受調查,政府當局並宣稱此系統將有助於提升辨識詐欺與錯誤的效率。 LQDN取得該系統的原始碼,並揭露其帶有歧視性質。該等組織說明,CNAF所使用的評分演算法自始即對社會邊緣群體如身心障礙者、單親家長,與低收入、失業、居住於弱勢地區等貧困者表現出懷疑態度,且可能蒐集與系統原先目的不相稱的資訊量,這樣的方向直接違背了人權標準,侵犯平等、非歧視與隱私等權利。 依據歐盟《人工智慧法》(Artificial Intelligence Act,下稱AIA),有兩部分規定: 1. 用於公機關評估自然人是否有資格獲得基本社會福利或服務,以及是否授予、減少、撤銷或收回此類服務的人工智慧系統;以及用於評估自然人信用或建立信用評分的人工智慧系統,應被視為高風險系統。 2. 由公機關或私人對自然人進行社會評分之人工智慧系統可能導致歧視性結果並排除特定群體,從此類人工智慧總結的社會分數可能導致自然人或其群體遭受不當連結或程度不相稱的不利待遇。因此應禁止涉及此類不可接受的評分方式,並可能導致不當結果的人工智慧系統。 然而,AIA並未針對「社會評分系統」明確定義其內涵、組成,因此人權組織同時呼籲,歐盟立法者應針對相關禁令提供具體解釋,惟無論CNAF所使用的系統為何種類型,因其所具有的歧視性,公機關皆應立即停止使用並審視其具有偏見的實務做法。

TOP