Rambus再興訟 南亞科、華亞挨告

 

 

  美國記憶體設計司Rambus1月25日向美國北加州地方法院提出侵權告訴,指控Hynix、南亞科技、華亞科技、英飛凌等四家DRAM廠,涉嫌侵犯Rambus的DDR2記憶體、GDDR2及GDDR3繪圖卡用記憶體等共18項專利。南亞科副總經理白培霖表示,還不了解Rambus實際的指控內容,一切仍在了解中。


  Rambus三年前推出RDRAM並獲得英特爾支持成為次世代主流產品,但因當時DRAM廠基於成本考量,決定支持DDR規格,所以Rambus後來不得不被迫退出標準型DRAM市場。然因Rambus擁有多項記憶體專利,目前主要產品獲得新力PS遊戲機採用,所以大部份營收來源均來自於權利金收入,去年Rambus營收約1億4500萬美元,其中的1億2000萬美元就是權利金收入。


  由於Rambus前年就宣佈研發出DDR2產品,隨著今年英特爾力推新款支援DDR2晶片組,全球DRAM廠均投入DDR2生產,因此Rambus再度興訟,控告Hynix、南亞科技、華亞科技、英飛凌等四家DRAM廠,侵犯其 DDR2及GDDR2、GDDR3等記憶體共18項專利。


  對於被Rambus控告一事,南亞科技及華亞科技提出說明。白培霖說,南亞科及Rambus一直就二家製程技術洽談相互授權事宜,內容包括DDR2及繪圖卡用記憶體GDDR3等,但目前為止雙方還沒有達成相互授權協議,自然也沒有權利金支付問題,由於南亞科目前還沒收到起訴書,不知道Rambus提出的控訴內容為何,因此一切有待再進一步了解後再行說明。除了此次的Rambus控告南亞科侵權,去年日本半導體大廠瑞薩科技(Renesas)也三度對南亞科技提出侵權控告,瑞薩除了指出南亞科技侵犯其記憶體製程、設計、封裝等專利權外,去年十月底還向東京地方法院提出申請,將對南亞科技日本子公司進口、銷售DRAM行為進行假處份(Preliminary Injunction)。


  對於國際大廠不斷針對南亞科提出侵權告訴,南亞科技表示,與瑞薩在日本、美國的專利權官司,至今還在上訴審理階段,南亞科已經提出資料證明,至於Rambus此次提出的侵權告訴,現在還在了解中,但南亞科的立場,會尊重每家半導體廠的專利權,不會有任何侵權的行為。

 

本文為「經濟部產業技術司科技專案成果」

※ Rambus再興訟 南亞科、華亞挨告, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=280&no=64&tp=1 (最後瀏覽日:2026/05/07)
引註此篇文章
你可能還會想看
從「數位休閒娛樂產業」之法制需求談我國娛樂業法制規範之可能性

蘋果電腦與Proview於中國的iPad商標爭議

  蘋果電腦不只試圖與擁有中國iPad商標之Proview公司尋求商標侵權和解,也宣稱可能反控Proview公司商標侵權指控之誹謗。   有關蘋果電腦與Proview的台灣分公司之間之交議是否合法,已進入法律程序,原因是蘋果電腦主張台灣分公司已出售iPad商標給一家英國公司,之後於2010年該公司再次轉售給蘋果電腦。但,Proview聲稱此一交易是台灣分公司不是深圳分公司,而蘋果電腦表示台灣分公司是代表深圳分公司。 故,蘋果電腦之律師可能控告Proview誹謗,並已寄出書面信函予Proview的執行長,表示:此一控告是基於不合法的行為,意圖不正當地妨礙蘋果電腦的生意與商業關係。   Proview於今年初針對蘋果電腦商標侵權要求16億之賠償,深圳分公司並於美國加州法院對蘋果電腦提起商標侵權訴訟。兩公司之爭訟在中國頗受關注,也造成蘋果電腦一度將iPad下架。,雖然於3月份新iPad一上市後,中國即獲準其銷售許可。   此外,Proview深圳分公司之律師表示在中國廣東高等人民法院的調解下,蘋果電腦曾提出一筆金額作為調解iPad所有權爭議的和解金,但不願透露該金額僅表示雙方對此仍有很大差距。

美國國家標準與技術研究院公布人工智慧風險管理框架(AI RMF 1.0)

美國國家標準與技術研究院(National Institute of Standards and Technology, NIST)於2023年1月26日公布「人工智慧風險管理框架1.0」(Artificial Intelligence Risk Management Framework, AI RMF 1.0),該自願性框架提供相關資源,以協助組織與個人管理人工智慧風險,並促進可信賴的人工智慧(Trustworthy AI)之設計、開發與使用。NIST曾於2021年7月29日提出「人工智慧風險管理框架」草案進行公眾徵詢,獲得業界之建議包含框架應有明確之衡量方法以及數值指標、人工智慧系統設計時應先思考整體系統之假設於真實世界中運作時,是否會產生公平性或誤差的問題等。本框架將隨著各界使用後的意見回饋持續更新,期待各產業發展出適合自己的使用方式。 本框架首先說明人工智慧技術的風險與其他科技的差異,定義人工智慧與可信賴的人工智慧,並指出設計該自願性框架的目的。再來,其分析人工智慧風險管理的困難,並用人工智慧的生命週期定義出風險管理相關人員(AI actors)。本框架提供七種評估人工智慧系統之信賴度的特徵,包含有效且可靠(valid and reliable):有客觀證據證明人工智慧系統的有效性與系統穩定度;安全性(safe):包含生命、健康、財產、環境安全,且應依照安全風險種類決定管理上的優先次序;資安與韌性(secure and resilient);可歸責與資訊透明度(accountable and transparent);可解釋性與可詮譯性(explainable and interpretable);隱私保護(privacy-enhanced);公平性—有害偏見管理(fair – with harmful bias managed)。 本框架亦提出人工智慧風險管理框架核心(AI RMF Core)概念,包含四項主要功能:治理、映射(mapping)、量測與管理。其中,治理功能為一切的基礎,負責孕育風險管理文化。各項功能皆有具體項目與子項目,並對應特定行動和結果產出。NIST同時公布「人工智慧風險管理框架教戰手冊」(AI RMF Playbook),提供實際做法之建議,並鼓勵業界分享其具體成果供他人參考。

世界衛生組織發布人工智慧於健康領域之監管考量因素文件,期能協助各國有效監管健康領域之人工智慧

世界衛生組織(World Health Organization, WHO)於2023年10月19日發布「人工智慧於健康領域之監管考量因素」(Regulatory considerations on artificial intelligence for health)文件,旨在協助各國有效監管健康領域之人工智慧,發揮其潛力同時最大限度地降低風險。本文件以下列六個領域概述健康人工智慧之監管考量因素: (1)文件化與透明度(Documentation and transparency) 開發者應預先規範(pre-specifying)以及明確記錄人工智慧系統(以下簡稱AI系統)之預期醫療目的與開發過程,如AI系統所欲解決之問題,以及資料集之選擇與利用、參考標準、參數、指標、於各開發階段與原始計畫之偏離及更新等事項,並建議以基於風險之方法(Risk-based approach),根據重要性之比例決定文件化之程度、以及AI系統之開發與確效紀錄之保持。 (2)風險管理與AI系統開發生命週期方法(Risk management and AI systems development lifecycle approaches) 開發者應在AI系統生命之所有階段,考慮整體產品生命週期方法(total product lifecycle approach),包括上市前開發管理、上市後監督與變更管理。此外,須考慮採用風險管理方法(risk management approach)來解決與AI系統相關之風險,如網路安全威脅與漏洞(vulnerabilities)、擬合不足(underfitting)、演算法偏差等。 (3)預期用途、分析及臨床確效(Intended use, and analytical and clinical validation) 開發者應考慮提供AI系統預期用途之透明化紀錄,將用於建構AI系統之訓練資料集組成(training dataset composition)之詳細資訊(包括大小、設定與族群、輸入與輸出資料及人口組成等)提供給使用者。此外,可考慮透過一獨立資料集(independent dataset)之外部分析確效(external analytical validation),展示訓練與測試資料以外之效能,並考慮將風險作為臨床確效之分級要求。最後,於AI系統之上市後監督與市場監督階段,可考慮進行一段期間密集之部署後監督(post-deployment monitoring)。 (4)資料品質(Data quality) 開發者應確認可用資料(available data)之品質,是否已足以支援AI系統之開發,且開發者應對AI系統進行嚴格之預發布評估(pre-release evaluations),以確保其不會放大訓練資料、演算法或系統設計其他元素中之偏差與錯誤等問題,且利害關係人還應考慮減輕與健康照護資料有關之品質問題與風險,並繼續努力創建資料生態系統,以促進優質資料來源之共享。 (5)隱私與資料保護(Privacy and data protection) 開發者於AI系統之設計與部署過程中,應考慮隱私與資料保護問題,並留意不同法規之適用範圍及差異,且於開發過程之早期,開發者即應充分瞭解適用之資料保護法規與隱私法規,並應確保開發過程符合或超過相關法規要求。 (6)參與及協作(Engagement and collaboration) 開發者於制定人工智慧創新與部署路線圖之期間,需考慮開發可近用且具有充足資訊之平台,以於適合與適當情況下促進利害關係人間之參與及協作;為加速人工智慧領域實務作法之進化,透過參與及協作來簡化人工智慧監管之監督流程即有必要。

TOP