日亞化學與藍光LED發明人和解

 

 

  日亞化學與前員工、現任美國加州大學教授中村修二(Shuji Maka mura)達成和解,日亞化學要支付中村修二本人8億4400萬日圓的費用,以補償其在日亞化學任內發明藍光LED晶粒技術,並帶給日亞化學日後龐大收入的功勞。


  中村修二去年1月因不甘其在日亞化學工作期間,開發相關藍光LED晶粒技術,為公司帶進3300億餘日圓的收益,但日亞化學卻將專利獨佔,並未支付中村修二合理的費用。中村修二遂向日本地院提出告訴,日本地方法院一審判日亞化學敗訴,需支付200億日圓作為中村修二的補償金。日亞化學不服再向高院上訴,近日傳出雙方已達成和解,以8億4400萬日圓達成和解,其中6億850萬日圓係中村修二在日亞化學工作時開發出藍光LED晶粒後,為公司帶進約3300餘億日圓中屬中村修二的貢獻所得。


  相較於一審判決日亞化學要賠200億日圓來看,此次只需支付8億4000餘萬日圓,替日亞化學省下了一大筆錢,且可早日解決此紛爭,日亞化學在此次官司中不能算輸,還可確立日亞化學日後擁有藍光LED晶粒的所有技術專利,有利日亞化學未來拓展白光LED及藍光晶粒市場。一般認為,日亞化學急於與中村修二達成和解之因,主要是藍光L ED晶粒市場仍在大幅成長中,預估今年全球LED市場需求可達到50億美元,其中白光及藍光LED也佔到一半以上,未來更是以倍數成長。日亞化學如未能快速解決與中村修二的官司,恐影響日亞化學在藍光及白光LED市場上的領先地位。

 

本文為「經濟部產業技術司科技專案成果」

※ 日亞化學與藍光LED發明人和解, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=281&no=57&tp=1 (最後瀏覽日:2026/05/12)
引註此篇文章
你可能還會想看
美國與歐盟共同發布《藥品開發優良人工智慧實務指導原則》

近年來,人工智慧(Artificial Intelligence, AI)於藥品生命週期各階段的應用快速發展,有望促進藥品研發創新並縮短上市時程。然而,AI技術開發、部署、運用與維護皆涉及複雜的治理議題,為確保AI產出結果準確且可靠,並保障藥品安全且有效,有必要於藥品監管體系建立AI管理機制。 美國食品及藥物管理局(Food and Drug Administration, FDA)與歐洲藥品管理局(European Medicines Agency, EMA)於2026年1月14日共同發布《藥品開發優良人工智慧實務指導原則》(Guiding Principles of Good AI Practice in Drug Development),建立AI應用於藥品生命週期的治理框架。 該文件提出10項指導原則,包括: 1.AI開發與使用須符合倫理原則並落實以人為本的價值 2.採取風險為本的方法進行驗證、風險緩解與監督 3.遵循相關法律、倫理、技術、科學、資安及與監管標準,包括優良實務規範(GxP) 4.明確界定使用情境(Context of Use) 5.整合AI技術與使用情境之跨領域專業能力 6.強化資料治理與文件化 7.依循系統設計與軟體工程最佳實務進行模型開發並採用適切資料 8.採行風險為本的效能評估 9.落實AI技術生命週期管理 10.提供清楚且必要的資訊揭露 兩大監管機關強調,該文件可作為未來制定共識標準與監管指引的基礎,並促進國際監管調和與合作。預期將成為各國監管機關建構AI應用於藥品監管體系相關政策、法規與指引的重要參考。

歐盟「人工智慧法」達成政治協議,逐步建立AI準則

歐盟「人工智慧法」達成政治協議, 逐步建立AI準則 資訊工業策進會科技法律研究所 2023年12月25日 隨著AI(人工智慧)快速發展,在各領域之應用日益廣泛,已逐漸成為國際政策、規範、立法討論之重點。其中歐盟人工智慧法案(Artificial Intelligence Act, AI Act,以下簡稱AIA法案)係全球首部全面規範人工智慧之法律架構,並於2023年12月9日由歐洲議會及歐盟部長歷史會達成重要政治協議[1],尚待正式批准。 壹、發佈背景 歐洲議會及歐盟部長理事會針對AIA法案已於本年12月9日達成暫時政治協議,尚待正式批准。在法案普遍實施前之過渡期,歐盟執委會將公布人工智慧協定(AI Pact),其將號召來自歐洲及世界各地AI開發者自願承諾履行人工智慧法之關鍵義務。 歐盟人工智慧法係歐盟執委會於2021年4月提出,係全球首項關於人工智慧的全面法律架構,該項新法係歐盟打造可信賴AI之方式,將基於AI未來可證定義(future proof definition),以等同作法直接適用於所有會員國[2]。 貳、內容摘要 AIA法案旨在確保進入並於歐盟使用之AI人工智慧系統是安全及可信賴的,並尊重人類基本權利及歐盟價值觀,在創新及權利義務中取得平衡。對於人工智慧可能對社會造成之危害,遵循以風險為基礎模式(risk-based approach),即風險越高,規則越嚴格,現階段將風險分為:最小風險(Minimal risk)、高風險(High-risk)、無法接受的風險(Unacceptable risk)、特定透明度風險(Specific transparency risk)[3]。與委員會最初建議版本相比,此次臨時協定主要新增內容歸納如下: 臨時協議確立廣泛域外適用之範圍,包含但不限於在歐盟內提供或部署人工智慧系統的企業[4]。但澄清該法案不適用於專門用於軍事或國防目的之系統。同樣,該協定規定不適用於研究和創新目的之人工智慧系統,也不適用於非專業原因之個人AI使用。 臨時協議針對通用AI(General purpose AI)[5]模型,訂定相關規定以確保價值鏈之透明度;針對可能造成系統性風險之強大模型,訂定風險管理與重要事件監管、執行模型評估與對抗性測試等相關義務。這些義務將由執委會與業界、科學社群、民間及其他利害關係人共同制定行為準則(Codes of practices)。 考量到人工智慧系統可用於不同目的之情況,臨時協議針對通用AI系統整合至高風險系統,並就基礎模型部分商定具體規則,其於投放市場之前須遵守特定之透明度義務,另強調對於情緒識別系統有義務在自然人接觸到使用這種系統時通知他們。 臨時協議針對違反禁止之AI應用,罰款金額自3,500萬歐元 或全球年營業額7%(以較高者為準)。針對違反其他義務罰款1,500萬歐元或全球年營業額3%,提供不正確資訊罰 款750萬歐元或全球年營業額1.5%。針對中小及新創企業違反人工智慧法之行政罰款將設定適當之上限。 參、評估分析 在人工智慧系統之快速發展衝擊各國社會、經濟、國力等關鍵因素,如何平衡技術創新帶來之便利及保護人類基本權利係各國立法重點。此次歐盟委員會、理事會和議會共同對其2021年4月提出之AIA法案進行審議並通過臨時協議,係歐洲各國對於現下人工智慧運作之監管進行全面的討論及認可結果,對其他國家未來立法及規範有一定之指引效果。 此次臨時協議主要針對人工智慧定義及適用範圍進行確定定義,確認人工智慧系統產業鏈之提供者及部署者有其相應之權利義務,間接擴大歐盟在人工智慧領域之管轄範圍,並對於人工智慧系統的定義縮小,確保傳統計算過程及單純軟體使用不會被無意中禁止。對於通用人工智慧基礎模型之部分僅初步達成應訂定相關監管,並對基礎模型之提供者應施加更重之執行義務。然由於涉及層面過廣,仍需業界、科學社群、民間及其他利害關係人討論準則之制定。 面對AI人工智慧之快速發展,各國在人工智慧之風險分級、資安監管、法律規範、資訊安全等議題持續被廣泛討論,財團法人資訊工業策進會科技法律研究所長期致力於促進國家科技法制環境,將持續觀測各國法令動態,提出我國人工智慧規範之訂定方向及建議。 本文同步刊登於TIPS網站(https://www.tips.org.tw) [1]Artificial Intelligence Act: deal on comprehensive rules for trustworthy AI,https://www.europarl.europa.eu/news/en/press-room/20231206IPR15699/artificial-intelligence-act-deal-on-comprehensive-rules-for-trustworthy-ai (last visited December 25, 2023). [2]European Commission, Commission welcomes political agreement on Artificial Intelligence Act,https://ec.europa.eu/commission/presscorner/detail/en/ip_23_6473 (last visited December 25, 2023). [3]Artificial intelligence act,P5-7,https://superintelligenz.eu/wp-content/uploads/2023/07/EPRS_BRI2021698792_EN.pdf(last visited December 25, 2023). [4]GIBSON DUNN, The EU Agrees on a Path Forward for the AI Act,https://www.gibsondunn.com/eu-agrees-on-a-path-forward-for-the-ai-act/#_ftn2 (last visited December 25, 2023). [5]General purpose AI-consisting of models that “are trained on broad data at scale, are designed for generality of output, and can be adapted to a wide range of distinctive tasks”, GIBSON DUNN, The EU Agrees on a Path Forward for the AI Act,https://www.gibsondunn.com/eu-agrees-on-a-path-forward-for-the-ai-act/#_ftn2(last visited December 25, 2023).

美國醫療保險將為醫院提供鐮狀細胞疾病基因療法的創新支付鼓勵措施

美國醫療保險和醫療補助服務中心(Centers for Medicare and Medicaid Services, CMS)於2024年4月10日發布了2025財年(Fiscal year 2025, Oct. 1, 2024, to Sept. 30, 2025)醫療保險醫院住院預期支付系統(Inpatient Prospective Payment System, IPPS)規則草案(proposed rule)。 考量到細胞療法費用高、可近用性低,2025財年規則草案便包含為醫院提供治療鐮狀細胞疾病(Sickle Cell Disease, SCD)基因療法,其新技術附加支付(New Technology Add-on Payment, NTAP)附加百分比從原本的65%提高到75%的創新支付措施。 NTAP方案是2001年由CMS推出,旨在激勵醫院採用新技術和新療法。NTAP規定新的醫療服務或技術必須滿足以下3個標準,才有資格獲得附加支付: 1.新穎性:醫療服務或技術必須是新的。一旦此治療已經被認為不是新技術,附加支付就會結束。 2.費用過高:醫院在使用新技術時,可能會產生成本超出標準的住院病患支付限額,該技術在現有醫療保險嚴重程度診斷相關群組(Medicare Severity Diagnosis-Related Groups, MS-DRG)系統下不足以支付。 3.實質的臨床改善:與目前可用的治療方法相比,使用該技術其臨床資料必須要顯示確實能改善特定病人群體的臨床結果。 NTAP透過提供經濟激勵,支持醫療機構在初期階段採用新技術,從而促進醫療創新並改善患者治療效果。SCD為一種遺傳性疾病,對美國黑人影響嚴重,且治療選擇有限。因此該創新支付鼓勵措施將使醫院可以獲得更多的資金來執行昂貴的SCD基因療法,進一步促進SCD病人獲得最新的治療,且能減少SCD長期醫療照護的相關成本。 本文同步刊載於stli生醫未來式網站(https://www.biotechlaw.org.tw)

政府採購雲端服務新興模式暨資安一體考量之研析

TOP