美國法院新判決,讓Rambus公司無法取得Micron公司的權利金

  美國德拉瓦(Delaware)州法庭於1月9日判決,記憶體晶片(DRAM)設計業者Rambus公司(Rambus Inc.)因在訴訟過程中,毀壞此一專利訴訟案件的相關文件與資料,使其專利不具執行力。因此無權以系爭的12項專利要求 Micron公司(Micron Technology Inc.)支付權利金。判決公告後,Rambus公司的股價因而重挫約40%。 兩家公司的紛爭可溯至2000年,該年度Micron公司曾控告Rambus公司,宣稱Rambus公司試圖掌控當時DRAM晶片的市場。當時,Rambus公司要求Micron公司在內的晶片製造業者須支付權利金給該公司,而晶片製造業者則予以反擊,宣稱Rambus公司取得專利的過程有瑕疵。

 

  雙方除於法院進行訴訟外,並利用美國聯邦貿易委員會(FTC)進行紛爭處理,互有勝負。例如:去年11月,加州地方法院宣判Rambus公司控告Micron公司、海力士(Hynix)、三星電子(Samsung Electronics)與南亞科技(Nanya Technology)等公司侵權一案,獲得初步勝利。然而如今法院的判決卻又重擊Rambus公司,因為該判決可能使該公司往後難以利用其所擁有的專利,迫使其他晶片製造業者支付權利金,也因此造成Rambus公司股價重挫的情形。

本文為「經濟部產業技術司科技專案成果」

相關連結
相關附件
※ 美國法院新判決,讓Rambus公司無法取得Micron公司的權利金, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=2989&no=64&tp=1 (最後瀏覽日:2026/05/07)
引註此篇文章
你可能還會想看
紐西蘭通過數位身分服務信任框架,如經簽署將於2024年施行

紐西蘭眾議院(New Zealand House of Representatives)於2023年3月通過數位身分服務信任框架法案(Digital Identity Services Trust Framework Act,以下稱本法案),旨在建立數位身分信任制度。本法案為數位身份服務商提供自願認證計畫,政府將授予符合信任框架規範之服務商認證。數位經濟與通訊部(Minister for the Digital Economy and Communications)指出,數位身份目前缺乏一致的辨識標準,而信任框架的訂定將有助於緩解身份盜用、詐欺與隱私資料外流之風險。茲所附言,本法案如經總督簽署將於2024年生效。 蓋紐西蘭針對政府數位化與數位轉型已擬定多項計畫、策略,其中包含建構安全、分散且以用戶為中心的數位身份管理制度,而本法案的通過與施行將為上述制度奠定基礎,其特性說明如下: 一、去中心化資料儲存:數位身分資料傳遞是由資訊提供者(如政府、銀行或公用事業公司等持有個人資訊者)、用戶(資料所有者)與服務商三方形成連結網絡,而非源自集中保存身分資料之數據資料庫。 二、以用戶為中心:若用戶有驗證或提供身分資訊之需求,經過政府認證符合信任框架規範的服務商,可在用戶的許可與請求下,傳送相關資料給用戶指定之第三方(需求者)。 三、非強制性機制:紐西蘭政府將不會強制服務商、用戶及需求者使用依本法案所建構之數位身分信任機制。 四、交互認證:基於紐西蘭與澳洲的單一經濟市場議程(Single Economic Market, SEM),本法案將符合對應英國、澳洲與加拿大有關數位信任之規範,減少因法規差異產生之成本和歧視。

歐盟《企業永續盡職調查指令》草案,將永續治理內化至企業經營

  歐盟執委會(The European Commission)於2022年2月23日發布《企業永續盡職調查指令》草案(Proposal for a Directive on corporate sustainability due diligence),其目的在於促進永續及負責任企業行為,並使企業將人權與環境考量內化至企業營運與公司治理。   本指令要求各歐盟成員國,須確保企業確實執行人權及環境盡職調查,具體要求企業之作為如下: (1) 將盡職調查納入公司政策(第5條); (2) 採取適當的措施,以鑑別企業自身或子公司於營運及其既有商業關係價值鏈之現有或潛在的不利衝擊(adverse impacts)(第6條); (3) 採取適當措施,預防及減緩潛在的不利衝擊,並消弭現有不利衝擊或縮小其影響範圍(第7、8條); (4) 建立並維持申訴制度,確保受前述不利衝擊影響或有相當理由信其將受影響之人、價值鏈中之工作者代表以及關注相關領域的民間社團等利害關係人之申訴管道暢通(第9條); (5) 定期針對自身及子公司之盡職調查政策及措施進行評估,以確保其有效性(第10條); (6) 企業須於每年4月30日前揭露盡職調查相關資訊,受《企業永續報告指令》(Corporate Sustainability Reporting Directive, CSRD)規範之企業須於企業年報中揭露,其他企業則須於企業網站揭露(第11條)。   另一方面,本指令也明定公司董事義務,依據第25、26條,董事於其決策過程須考量短、中、長期之人權、氣候及環境因素;企業亦須指定部分董事負責盡職調查相關治理作為,並定期向董事會進行報告。   適用本指令的歐盟企業有兩種:(1) 員工人數500人以上且全球年營業額1億5,000萬歐元以上之大公司;(2) 員工250人以上之且全球年營業額4,000萬歐元的高衝擊產業(如:紡織、農業、採礦業等)。另外,非歐盟企業若符合前述員工人數之要求,且於歐盟境內之營業額達到前述標準,亦適用本指令。

世界衛生組織發布歐洲區域人工智慧於醫療系統準備情況報告,責任規則為最重要之關鍵政策因素

世界衛生組織發布歐洲區域人工智慧於醫療系統準備情況報告,責任規則為最重要之關鍵政策因素 資訊工業策進會科技法律研究所 2025年12月18日 世界衛生組織(World Health Organization, WHO)於2025年11月19日發布「人工智慧正在重塑醫療系統:世衛組織歐洲區域準備情況報告」(Artificial intelligence is reshaping health systems: state of readiness across the WHO European Region)[1],本報告為2024年至2025年於WHO歐洲區域醫療照護領域人工智慧(AI for health care)調查結果,借鑒50個成員國之經驗,檢視各國之國家戰略、治理模式、法律與倫理框架、勞動力準備、資料治理、利益相關者參與、私部門角色以及AI應用之普及情況,探討各國如何應對AI於醫療系統中之機會與挑戰。其中責任規則(liability rules)之建立,為成員國認為係推動AI於醫療照護領域廣泛應用之最重要關鍵政策因素,因此本報告建議應明確開發者、臨床醫生、資料提供者與醫療機構之責任,透過救濟與執法管道以保護病患與醫療系統之權益。 壹、事件摘要 本報告發現調查對象中僅有8%成員國已發布國家級醫療領域特定AI策略(national health-specific AI strategy),顯示此處仍有相當大之缺口需要補足。而就醫療領域AI之法律、政策與指導方針框架方面,46%之成員國已評估於現有法律及政策相對於醫療衛生領域AI系統不足之處;54%之成員國已設立監管機構以評估與核准AI系統;惟僅有8%之成員國已制定醫療領域AI之責任標準(liability standards for AI in health),更僅有6%之成員國就醫療照護領域之生成式AI系統提出法律要求。依此可知,成員國對於AI政策之優先事項通常集中於醫療領域AI系統之採購、開發與使用,而對個人或群體不利影響之重視與責任標準之建立仍然有限。於缺乏明確責任標準之情況下,可能會導致臨床醫師對AI之依賴猶豫不決,或者相反地過度依賴AI,從而增加病患安全風險。 就可信賴AI之醫療資料治理方面(health data governance for trustworthy AI),66%成員國已制定專門之國家醫療資料戰略,76%成員國已建立或正在制定醫療資料治理框架,66%成員國已建立區域或國家級醫療資料中心(health data hub),30%成員國已發布關於醫療資料二次利用之指引(the secondary use of health data),30%成員國已制定規則,促進以研究為目的之跨境共享醫療資料(cross-border sharing of health data for research purposes)。依此,許多成員國已在制定國家醫療資料戰略與建立治理框架方面取得顯著進展,惟資料二次利用與跨境利用等領域仍較遲滯,這些資料問題仍需解決,以避免產生技術先進卻無法完全滿足臨床或公衛需求之工具。 就於醫療照護領域採用AI之障礙,有高達86%之成員國認為,最主要之障礙為法律之不確定性(legal uncertainty),其次之障礙為78%之成員國所認為之財務可負擔性(financial affordability);依此,雖AI之採用具有前景,惟仍受到監管不確定性、倫理挑戰、監管不力與資金障礙之限制;而財務上之資金障礙,包括高昂之基礎設施成本、持續員工培訓、有限之健保給付與先進AI系統訂閱費用皆限制AI之普及,特別於規模較小或資源有限之醫療系統中。 就推動AI於醫療照護領域廣泛應用之關鍵政策因素,有高達92%之成員國認為是責任規則(liability rules),其次有90%之成員國認為是關於透明度、可驗證性與可解釋性之指引。依此,幾乎所有成員國皆認為,明確AI系統製造商、部署者與使用者之責任規則為政策上之關鍵推動因素,且確保AI解決方案之透明度、可驗證性與可解釋性之指引,也被認為是信任AI所驅動成果之必要條件。 貳、重點說明 因有高達9成之成員國認為責任規則為推動AI於醫療照護領域廣泛應用之關鍵政策因素,為促進AI應用,本報告建議應明確開發者、臨床醫生、資料提供者與醫療機構之責任,並建立相應機制,以便於AI系統造成損害時及時補救與追究責任,此可確保AI生命週期中每個參與者都能瞭解自身之義務,責任透明,並透過可及之救濟與執法管道以保護病患與醫療系統之權益;以及可利用監管沙盒,使監管機構、開發人員與醫療機構能夠在真實但風險較低之環境中進行合作,從而於監管監督下,於廣泛部署前能及早發現安全、倫理與效能問題,同時促進創新。 此外,WHO歐洲區域官員指出,此次調查結果顯示AI於醫療領域之革命已開始,惟準備程度、能力與治理水準尚未完全跟進,因此呼籲醫療領域之領導者與決策者們可考慮往以下四個方向前進[2]: 1.應有目的性地管理AI:使AI安全、合乎倫理與符合人權; 2.應投資人才:因科技無法治癒病人,人才是治癒病人之根本; 3.需建構可信賴之資料生態系:若大眾對資料缺乏信任,創新就會失敗; 4.需進行跨國合作:AI無國界,合作亦不應受限於國界。 參、事件評析 AI於醫療系統之應用實際上已大幅開展,就歐洲之調查可知,目前雖多數國家已致力於AI於醫材監管法規與資料利用規則之建立,據以推動與監管AI醫療科技之發展,惟由於醫療涉及患者生命身體之健康安全,因此絕大多數國家皆同意,真正影響AI於醫療領域利用之因素,為責任規則之建立,然而,調查結果顯示,實際上已建立醫療領域AI之責任標準者,卻僅有8%之成員國(50個國家中僅有4個國家已建立標準),意味著其為重要之真空地帶,亟待責任法制上之發展與填補,以使廠商願意繼續開發先進AI醫療器材、醫療從業人員願意利用AI醫療科技增進患者福祉,亦使患者於受害時得以獲得適當救濟。亦即是,當有明確之責任歸屬規則,各方當事人方能據以瞭解與評估將AI技術應用於醫療可能帶來之風險與機會,新興AI醫療科技才能真正被信任與利用,而帶來廣泛推廣促進醫療進步之效益。由於保護患者之健康安全為醫療領域之普世價值,此項結論應不僅得適用於歐洲,對於世界各國亦應同樣適用,未來觀察各國於AI醫療領域之責任規則發展,對於我國推廣AI醫療之落地應用亦應具有重要參考價值。 [1] Artificial intelligence is reshaping health systems: state of readiness across the WHO European Region, WHO, Nov. 19, 2025, https://iris.who.int/items/84f1c491-c9d0-4bb3-83cf-3a6f4bf3c3b1 (last visited Dec. 9, 2025). [2] Humanity Must Hold the Pen: The European Region Can Write the Story of Ethical AI for Health, Georgia Today, Dec. 8, 2025,https://georgiatoday.ge/humanity-must-hold-the-pen-the-european-region-can-write-the-story-of-ethical-ai-for-health/ (last visited Dec. 9, 2025).

新時代的管理利器-系統化的企業員工管理制度

TOP