LPL與華映在美侵權訴訟–加州法院駁回部份主張

  韓國樂金飛利浦(LPL)在美國加州控告華映(CPT)專利侵害案,自2002年8月起,至今已纏訟五年之久。

 

  LPL控告CPT侵害其4件Side-mount專利(US6,002,457、US5,926,237、US6,373,537、US6,020,942),與2件Process專利(US4,624,737、US5, 825,449)。華映表示,前4件被加州法院以欠缺依據駁回。對此判決,華映表示欣慰。

 

  LPL與華映之間的專利侵權訴訟爭議不休。華映強調,其在尊重智慧財產權的理念下蒐集證據進行因應,加州法院雖以LPL所提Side Mount訴訟欠缺依據(Lack of Standing)下令駁回LPL訴訟,但就另二件Process專利部份,目前法院對於雙方所提交之post trial motion作出部份同意及部份駁回的決定(Order),但法院尚未做出正式判決。

 

  彭博社報導已傳出,美國洛杉磯聯邦法院網站已公佈裁決文,並同意LPL對華映加重侵權賠償的請求,以及持續侵權與判決前和判決後之利益與法律費用賠償。但並未透露加重賠償之確切金額。就此,華映發表聲明指出,對法官准許LPL部分訴求的初步決定,感到遺憾。華映表示其已掌握證據,待收到法院正式判決後將積極因應,且不排除上訴。

相關連結
※ LPL與華映在美侵權訴訟–加州法院駁回部份主張, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=2349&no=0&tp=1 (最後瀏覽日:2026/02/04)
引註此篇文章
你可能還會想看
英國發布人工智慧網路資安實務守則

英國政府於2025年1月31日發布「人工智慧網路資安實務守則」(Code of Practice for the Cyber Security of AI,以下簡稱「實務守則」),目的是提供人工智慧(AI)系統的網路資安指引。該實務守則為英國參考國際上主要標準、規範後所訂定之自願性指引,以期降低人工智慧所面臨的網路資安風險,並促使人工智慧系統開發者與供應商落實基本的資安措施,以確保人工智慧系統的安性和可靠性。 由於人工智慧系統在功能與運作模式上與傳統網路架構及軟體有明顯的不同,因此產生新的資安風險,主要包含以下: 1. 資料投毒(Data Poisoning):在AI系統的訓練資料中蓄意加入有害或錯誤的資料,影響模型訓練結果,導致人工智慧系統產出錯誤推論或決策。 2. 模型混淆(Model Obfuscation):攻擊者有意識地隱藏或掩飾AI模型的內部運作特徵與行為,以增加系統漏洞、引發混亂或防礙資安管理,可能導致AI系統的安全性與穩定性受損。 3. 輸入間接指令(Indirect Prompt Injection):藉由輸入經精心設計的指令,使人工智慧系統的產出未預期、錯誤或是有害的結果。 為了提升實務守則可操作性,實務守則涵蓋了人工智慧生命週期的各階段,並針對相關角色提出指導。角色界定如下: 1. 人工智慧系統開發者(Developers):負責設計和建立人工智慧系統的個人或組織。 2. 人工智慧系統供應鏈(Supply chain):涵蓋人工智慧系統開發、部署、營運過程中的的所有相關個人和組織。 實務守則希望上述角色能夠參考以下資安原則,以確保人工智慧系統的安全性與可靠性: 1. 風險評估(Risk Assessment):識別、分析和減輕人工智慧系統安全性或功能的潛在威脅的過程。 2. 資料管理(Data management):確保AI系統整個資料生命週期中的資料安全及有效利用,並採取完善管理措施。 3. 模型安全(Model Security):在模型訓練、部署和使用階段,均應符合當時的技術安全標準。 4. 供應鏈安全(Supply chain security):確保AI系統供應鏈中所有利益相關方落實適當的安全措施。 「人工智慧網路資安實務守則」藉由清晰且全面的指導方針,期望各角色能有效落實AI系統安全管控,促進人工智慧技術在網路環境中的安全性與穩健發展。

日本對未來2020年至2030年間網路基礎設施之預測

  日本總務省未來網路基礎設施研究會(将来のネットワークインフラに関する研究会)4月份針對日本人工智慧(Artificial Intelligence 簡稱AI)、物聯網(Internet of Things 簡稱IoT)、資訊及通訊技術(Information and Communication Technologies 簡稱ICT)等技術相對應之網路基礎設施做作出預測。   在2020年以後第五代通信技術(5G)、物聯網系統、高畫質通訊等技術相繼成熟及普及化,相關業者勢必發展出多樣化、高度專業化使用者需求之網路結構,而手機聯網系統從單純的資訊傳遞網路,逐漸變成社會系統之神經網絡(社会システムの神経網)。   物聯網服務目前係由專用終端設備,並根據特定的應用目的建構,但在未來的網絡基礎設施,可能出現如橫向合作應用的通用平台,到2030年左右物聯網服務中M2M(Machine to Machine,機器和機器之間的通訊)的佔有率估計將達到10%。   人工智慧網路技術不僅僅是虛擬化層網路(仮想化レイヤのネットワーク)之維護和操作,更是物理層面的網路(物理レイヤのネットワーク)資源的管理,AI仍然只擔任協助之工具。其中,物理網絡(物理ネットワーク)和邏輯網絡(論理ネットワーク)應分別處理,邏輯網絡將型成多層次化,將變得難以檢測故障和調查原因,但在安全和可靠的網絡基礎設施下,經營者使用AI技術仍然是沒有問題的。   由於雲端技術、通訊技術之提昇,非電信營運者進入網路經營之商業型態逐漸產生,型成網路使用者、資料提供者之多樣性及複雜性。網路流量方面,在2030年左右將超出100Tbps核心網絡所需的傳輸容量,達到以往的光纖的容量限制,將透過無線電接入技術進一步發展,補足不足的光學寬頻。然而,人們對於網路更快的通信速度、安全性及可靠性的功能需求是沒有改變的。

吃的安心 基改農產品安全性測試系統上路

  自從1994年第一種基因改造(Genetically Modified , GM)農產品~番茄在美國上市後,越來越多的GM農產品進入了我們的生活,使得大家越來越注重食用的安全性。行政院農業委員會農業藥物毒物試驗所開發的基因改造農產品安全測試系統於11月正式上路,日後台灣自行研發的GM農產品上市前,可以送到藥毒所檢驗,以確定對人體無害。   國際間對於GM農產品安全性爭議主要有兩個層面:生物安全性(作為食品之安全性)與生態環境安全(對環境的衝擊評估)。整體而言,GM農產品的食用安全評估以過敏性測試最為重要,也就是針對轉殖的DNA基因,測試其外源表現物質(蛋白質)對人體的影響,換句話說:蛋白質是較容易讓人體產生過敏的來源。   藥毒所開發的過敏反應和安全性測試系統,其針對GM農產品的評估方法有三:序列比對(和已知過敏原比對)、消化穩定性(採用人工胃液和腸液分解測試)、動物實驗模式(讓大白鼠直接食用)。相信這套安全測試系統的上路,可讓民眾食用台灣自行研發的GM農產品較為安心。

歐盟佐審官建議修正與加拿大之「航空乘客個人資料共享協議(草案)」,以維護人權

  歐洲聯盟法院(CJEU)佐審官 (Advocate General ) Paolo Mengozzi 於今年(2016) 9月8日提出一份不具拘束力之「航空乘客個人資料共享協議(草案)」( European Union on the transfer and processing of passenger name record data (“PNR Agreement”)) 法律意見,認為協議應遵守歐盟憲章有關人權之基本原則。此份法律意見為歐洲聯盟法院首次就國際協議草案,檢視與歐盟憲章有關規範之一致性。 [背景]   PNR協議草案於2010年5月開始協商,2014年6月25日簽署。主要以反恐為目的讓歐盟與加拿大交換航空乘客資訊(包括旅客姓名、旅行日期、行程記錄、機票、聯繫資訊、旅行社等其他有關資訊)。除加拿大之外,歐盟亦與美國、澳洲簽有類似資料共享協議。關注到PNR協議有關隱私、人權之議題,歐盟議會將PNR協議提至歐洲聯盟法院審議。 [法律意見]   佐審官認為,協議同意在特定條件下就限定目標之乘客蒐集其敏感資訊,未違反歐盟憲章;然PNR協議草案仍有部分內容違反歐盟憲章:即草案允許歐盟、加拿大主管機關使用乘客姓名等數據,已逾越預防恐怖組織犯罪和跨國犯罪的必要範圍。   因歐洲聯盟法院去年已廢除歐盟與美國之間之安全港(Safe Harbor)法案,隨後雖起草隱私保護協議(Privacy Shield),但仍有意見質疑隱私保護之完整性。PNR協議草案法律意見之提出,可窺歐盟關於隱私保護之立場。

TOP