LPL與華映在美侵權訴訟–加州法院駁回部份主張

  韓國樂金飛利浦(LPL)在美國加州控告華映(CPT)專利侵害案,自2002年8月起,至今已纏訟五年之久。

 

  LPL控告CPT侵害其4件Side-mount專利(US6,002,457、US5,926,237、US6,373,537、US6,020,942),與2件Process專利(US4,624,737、US5, 825,449)。華映表示,前4件被加州法院以欠缺依據駁回。對此判決,華映表示欣慰。

 

  LPL與華映之間的專利侵權訴訟爭議不休。華映強調,其在尊重智慧財產權的理念下蒐集證據進行因應,加州法院雖以LPL所提Side Mount訴訟欠缺依據(Lack of Standing)下令駁回LPL訴訟,但就另二件Process專利部份,目前法院對於雙方所提交之post trial motion作出部份同意及部份駁回的決定(Order),但法院尚未做出正式判決。

 

  彭博社報導已傳出,美國洛杉磯聯邦法院網站已公佈裁決文,並同意LPL對華映加重侵權賠償的請求,以及持續侵權與判決前和判決後之利益與法律費用賠償。但並未透露加重賠償之確切金額。就此,華映發表聲明指出,對法官准許LPL部分訴求的初步決定,感到遺憾。華映表示其已掌握證據,待收到法院正式判決後將積極因應,且不排除上訴。

相關連結
※ LPL與華映在美侵權訴訟–加州法院駁回部份主張, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=2349&no=0&tp=1 (最後瀏覽日:2026/04/23)
引註此篇文章
你可能還會想看
蘋果與亞馬遜商標侵權談判破裂

  亞馬遜公司(Amazon)將其Android Apps商店命名為「Appstore」後,遭蘋果公司(Apple Inc.)以「Appstore」為其所擁有的商標,控告亞馬遜公司(Amazon)侵害其商標權並違反不公平競爭法。而亞馬遜公司(Amazon)則以「Appstore」為一個「通用名稱」加以反駁。亞馬遜公司(Amazon)認為,「Appstore」這個詞已經成為一個「通用名稱」,它代表著一個應用程式的資料庫之意,而沒有專門代表著蘋果公司(Apple Inc.)的意義。雙方歷經兩年訴訟後,根據加州聯邦法院資料,兩家公司的代表,於今年(2013)5月初與6月中曾兩度進行和解談判,但截至目前為止,雙方並未達成和解協議。   根據美國專利商標局(USPTO)商標申請紀錄,蘋果公司(Apple Inc.)以「Appstore」於2008年3月6日向美國專利商標局(USPTO)提出在第35類(提供通過電腦軟體為特色的零售店鋪服務、在移動數位電子設備及其他消費類電子產品上使用的電腦軟體為特色之零售商店服務等)、第38類(全球電腦網路、無線網路和電子通信網路及資訊傳輸、維護等)、第42類(提供臨時使用非可下載電腦軟體進行計畫,組織和訪問視訊,多媒體內容的電腦軟體程式等服務等)的商標申請案,其中並提出已於2008年7月10日使用之相關主張,惟本件商標申請案尚未獲得最終核准。而包括微軟等其他公司,都向美國專利商標局(USPTO)提出駁回該商標之請求,以阻止蘋果公司(Apple Inc.)的申請,以確保不會因為蘋果公司(Apple Inc.)之商標註冊而影響自身使用該名稱之權利。   但因本件經過兩輪談判,蘋果公司(Apple Inc.)與亞馬遜公司(Amazon)仍未就侵權爭議達成和解。故雙方間的商標爭議很可能最終須於法庭內解決。目前審判時間已被定於今年8月。「Appstore」將被認為屬於蘋果公司的專屬商標,亦或屬於公眾皆可使用的通用名稱,結果值得拭目以待。

美國國家標準暨技術研究院發布「全球AI安全機構合作策略願景目標」,期能推動全球AI安全合作

美國國家標準暨技術研究院(National Institute of Standards and Technology, NIST)於2024年5月21日提出「全球AI安全機構合作策略願景目標」(The United States Artificial Intelligence Safety Institute: Vision, Mission, and Strategic Goals,下稱本策略願景),美國商務部(Department of Commerce)亦於2024年參與AI首爾峰會(AI Seoul Summit)期間對外揭示本策略願景,期能與其他國家攜手打造安全、可靠且可信賴之AI生態系。 由於AI可信賴與否往往取決於安全性,NIST指出當前AI安全所面臨的挑戰包含:一、欠缺對先進AI之標準化衡量指標;二、風險測試、評估、驗證及確效(Test, Evaluation, Validation, and Verification, TEVV)方法不健全;三、欠缺對AI建模後模型架構與模型表現間因果關係的了解;四、產業、公民社會、國內外參與者等在實踐AI安全一事上合作程度極為有限。 為因應上述挑戰並促進AI創新,NIST在本策略願景中擬定以下三大戰略目標:(1)推動AI安全科學發展:為建立安全準則與工具進行技術合作研究,並預先部署TEVV方法,以利評估先進AI模型之潛在風險與應對措施;(2)推展AI安全實務作法:制定並發布不同領域AI風險管理之相關準則與指標,以達到負責任設計、開發、部署與應用AI模型與系統之目的;(3)支持AI安全合作:促進各界採用前述安全準則、工具或指標,並推動全球合作,以發展國際通用的AI安全風險應對機制。

初探與省思我國法制下之侵權行為適用於非依軌道行駛之自動駕駛車輛之過失內涵

初探與省思我國法制下之侵權行為適用於非依軌道行駛之自動駕駛車輛之過失內涵 資訊工業策進會科技法律研究所 2019年03月15日 壹、事件摘要   於2018年03月18日晚間10時許,美國亞利桑那州(Arizona,下稱Arizona)一名49歲的婦人,遭到配備Uber自動駕駛系統之車輛[1],在運行自動領航模式(Autopilot)下撞擊,雖然該婦人立即送往醫院,但仍回天乏術而在醫院中去世。就在前開事故發生後,Arizona州長Doug Ducey因此下令其暫停測試。[2]   此外,同年12月11日晚間10時許,在我國有一輛配備自動輔助駕駛功能的Tesla,疑似駕駛人精神不濟因而未能及時注意車前狀況,導致車禍發生,雖然肇責是否牽涉Tesla之自動輔助駕駛功能或駕駛人本身有無疲勞駕駛等情事,有待進一步釐清。[3]   綜上,不論測試或道路駕駛,現今社會已不乏具有一定自動駕駛等級之車輛於路上行駛,然而在推廣、研發或應用自動駕駛車輛(下稱自駕車)的同時,若不幸發生類似前開新聞之(車禍)事故時,相關肇事責任究應如何釐清,隨著我國已於2018年12月19日公布無人載具科技創新實驗條例以積極推動自駕車相關應用,更愈顯重要,為解決前開肇事相關疑慮,本文擬針對民事上之「過失」本質,反思自駕車相關應用可能延伸的事故責任,是否因應科技發展而有不同的過失內涵。 貳、重點說明   承上,面對自駕車相關科技與應用的世界洪流,若發生車禍等交通事故時,當事人相關之損害賠償請求,仍大多以民法上之侵權行為作為基礎,雖事故肇因種類眾多,亦常見各類的肇因共同造成事故發生,但本文考量相關議題繁複,以下僅就非依軌道行駛之自駕車、駕駛人過失內涵等框架下依序進行初探與反思: 一、我國侵權行為損害賠償係以行為人有無具抽象輕過失為斷   車禍之發生,若涉及駕駛人之行為者,受有不論財產或人身損害之人而欲請求賠償者,無論係依據民法第184條以下何條侵權行為之規定(即民法第184條第1項前段、同條項後段或第191條之2等規定),請求駕駛自駕車之人賠償,前提均為駕駛人具有過失,差別僅在舉證責任是否由請求權人(受有損害之人)負擔。   承上,既然前開侵權行為之重要成立要件為過失,其具體內容為則為駕駛人之注意義務應至何種程度,然在我國民事過失責任之架構上,有不同程度上之區分,即分別為抽象輕過失、具體輕過失及重大過失三種。申言之,抽象輕過失為欠缺應盡善良管理人之注意者義務;具體輕過失者為欠缺應與處理自己事務為同一注意者;重大過失者為顯然欠缺普通人之注意者[4]。   對此,實務見解[5]以及學者[6]歷來均認侵權行為之過失標準,應以行為人是否克盡客觀化之過失標準─抽象輕過失,倘否,則應負擔過失之賠償責任,是以,就此脈絡推論,自駕車之駕駛人若有違善良管理人注意義務致車禍發生且使他人受損害,即應負損害賠償責任。 二、駕駛人注意義務與自駕車自動駕駛程度間之互動   根據引領世界自駕車標準的領銜者─國際汽車工程師學會(Society of Automotive Engineers International,下稱SAE)所分類之自動化駕駛等級,區分為等級0至等級5(共6個等級),而等級3後之自駕車即開始逐漸將環境監控的任務從駕駛人移轉至車輛本身,而駕駛人僅在特殊條件下,方須接管駕駛車輛,更甚在等級5時是由自駕車在任何狀況下均可自行駕駛,不過在等級2前之等級,環境監控之任務大多在駕駛人身上,自駕車至多僅係協助運行駕駛人之指令[7]。   然而,自駕車駕駛人因車禍所生之侵權行為責任,誠如前述,係以駕駛人存有抽象輕過失作為前提,而過失之本質,則係雖非故意,但按其情節,(1)行為人(駕駛自駕車之人)應或能注意,卻不注意,或(2)雖可預見侵權行為(車禍肇事)之事實發生,但確信不發生[8],就此,在SAE分類等級2以前之自駕車,因監控環境之任務仍由駕駛人負擔,則該類等級自駕車之駕駛人應與一般車輛之駕駛人,負擔相同侵權行為之注意義務內容(或程度),但等級3至等級5自駕車之各式應用情境,車輛行駛環境之相關監控資訊已轉由車輛本身處理、控管,則駕駛人是否對於自駕車之車禍發生,仍具有可預見性,或得注意並防免之,則不無疑慮。 參、事件評析   綜上,本文所提不同等級自駕車,是否當然得以繼續適用傳統民事侵權行為之過失標準判斷駕駛人有無過失,實有相當程度上之衝突,蓋若自駕車之駕駛人對於行車環境資訊已不如駕駛一般車輛時,實難期待駕駛人對於車禍之發生有何預見可能,或在遇見後積極防免結果發生,倘若一概遵循傳統對車禍侵權行為之高注意義務要求─抽象輕過失責任,或將產生使不明瞭或難以預見該事故原因發生之人,卻必須就非因己誤之結果負責,某程度上似有違過失責任之本質,而質變成為無過失之擔保責任。   據此,本文認為,若要解決前開損害發生須有補償或賠償之問題,或可(1)透過保險、基金等方式填補損害,或(2)具體化等級3至等級5自駕車之駕駛人應負何等注意義務,如駕駛人須隨時處於得以接管車輛操作之狀態,使等級3以上之自駕車所應盡之注意義務與傳統侵權行為之注意義務脫鉤處理(3)與商品責任間進行相關的調和等,然而無論如何,對於此等問題或疑慮,究竟應採何方向或多方進行,甚或以其他方式解決,則有待後續更進一步的討論與分析。 [1] Uber於該州進行自動駕駛車輛之測試。 [2] ADOT director's letter to Uber halting autonomous vehicle tests, ADOT, https://www.azdot.gov/media/News/news-release/2018/03/27/adot-director's-letter-to-uber-halting-autonomous-vehicle-tests (last visited Mar. 21, 2019); Ryan Randazzo, Arizona Gov. Doug Ducey suspends testing of Uber selfdriving cars, azcentral, Mar. 26, 2018, https://www.azcentral.com/story/news/local/tempe-breaking/2018/03/26/doug-ducey-uber-self-driving-cars-program-suspended-arizona/460915002/ (last visited Mar. 21, 2019); Ryan Randazzo, Bree Burkitt & Uriel J. Garcia, Self-driving Uber vehicle strikes, kills 49-year-old woman in Tempe, azcentral, Mar. 19, 2018, https://www.azcentral.com/story/news/local/tempe-breaking/2018/03/19/woman-dies-fatal-hit-strikes-self-driving-uber-crossing-road-tempe/438256002/ (last visited Mar. 21, 2019). [3] 蘋果日報,〈台灣首例!特斯拉自動駕駛闖禍 國道上撞毀警車〉,2018/12/12,https://tw.appledaily.com/new/realtime/20181212/1482416/ (最後瀏覽日:2019/03/21)。 [4] 96年台上字第1649號判決。 [5] 19年上字第2476號判例。 [6] 王澤鑑,《侵權行為法》,自版,頁308-309(2011)。 [7] SAE International Releases Updated Visual Chart for Its “Levels of Driving Automation” Standard for Self-Driving Vehicles, SAE International, https://www.sae.org/news/press-room/2018/12/sae-international-releases-updated-visual-chart-for-its-%E2%80%9Clevels-of-driving-automation%E2%80%9D-standard-for-self-driving-vehicles (last visited Mar. 22, 2019). [8] 97年度台上字第864號判決。

金融穩定委員會報告指出金融領域採用AI之模型、資料品質與治理風險

.Pindent{text-indent: 2em;} .Noindent{margin-left: 2em;} .NoPindent{text-indent: 2em; margin-left: 2em;} .No2indent{margin-left: 3em;} .No2Pindent{text-indent: 2em; margin-left: 3em} .No3indent{margin-left: 4em;} .No3Pindent{text-indent: 2em; margin-left: 4em} 金融穩定委員會(Financial Stability Board, FSB)於2024年11月14日發布《人工智慧對金融穩定的影響》報告,探討人工智慧(Artificial Intelligence, AI)在金融領域的應用進展及對全球金融穩定的影響,分析相關風險並提出建議。 報告指出AI具有提升效率、加強法規遵循、提供個人化金融產品及進階資料分析等益處,但同時可能加劇某些金融部門的脆弱性(Vulnerability),進而構成金融穩定風險。報告特別提出之脆弱性包括:「第三方依賴及服務供應商集中化」、「市場相關性」、「資安風險」,以及「模型風險、資料品質和治理」。 在模型風險、資料品質與治理中,廣泛應用AI可能導致模型風險上升,因某些模型難以驗證、監控及修正,且模型的複雜性與透明性不足將增加尋找具獨立性和專業知識的驗證者的挑戰。此外,在大型語言模型(Large Language Model, LLM),大規模非結構化資料的使用及訓練資料來源的不透明性,使資料品質評估更加困難。特別是在預訓練模型(Pre-trained Model)中,金融機構對眾多資料來源的評估方式不熟悉,進一步增加管理難度。 若金融機構未建立健全的治理架構以審查AI的使用及其資料來源,模型風險與資料品質問題將難以控制。金融機構有責任應對與AI相關的模型風險和資料品質挑戰,包含對模型進行驗證、持續監控、執行結果分析和評估資料品質的預期要求。 報告呼籲各國金融主管機關加強對AI發展的監測,評估現行金融政策框架是否充分,並增強監管能力。建議可定期或不定期調查AI應用情形,並透過報告及公開揭露制度獲取相關資訊。此外,主管機關可考慮利用監督科技(SupTech)及監管科技(RegTech)等AI驅動工具強化監管效能,以應對AI在金融領域帶來的挑戰與風險。

TOP