日亞化學與藍光LED發明人和解

 

 

  日亞化學與前員工、現任美國加州大學教授中村修二(Shuji Maka mura)達成和解,日亞化學要支付中村修二本人8億4400萬日圓的費用,以補償其在日亞化學任內發明藍光LED晶粒技術,並帶給日亞化學日後龐大收入的功勞。


  中村修二去年1月因不甘其在日亞化學工作期間,開發相關藍光LED晶粒技術,為公司帶進3300億餘日圓的收益,但日亞化學卻將專利獨佔,並未支付中村修二合理的費用。中村修二遂向日本地院提出告訴,日本地方法院一審判日亞化學敗訴,需支付200億日圓作為中村修二的補償金。日亞化學不服再向高院上訴,近日傳出雙方已達成和解,以8億4400萬日圓達成和解,其中6億850萬日圓係中村修二在日亞化學工作時開發出藍光LED晶粒後,為公司帶進約3300餘億日圓中屬中村修二的貢獻所得。


  相較於一審判決日亞化學要賠200億日圓來看,此次只需支付8億4000餘萬日圓,替日亞化學省下了一大筆錢,且可早日解決此紛爭,日亞化學在此次官司中不能算輸,還可確立日亞化學日後擁有藍光LED晶粒的所有技術專利,有利日亞化學未來拓展白光LED及藍光晶粒市場。一般認為,日亞化學急於與中村修二達成和解之因,主要是藍光L ED晶粒市場仍在大幅成長中,預估今年全球LED市場需求可達到50億美元,其中白光及藍光LED也佔到一半以上,未來更是以倍數成長。日亞化學如未能快速解決與中村修二的官司,恐影響日亞化學在藍光及白光LED市場上的領先地位。

 

本文為「經濟部產業技術司科技專案成果」

※ 日亞化學與藍光LED發明人和解, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=281&no=57&tp=1 (最後瀏覽日:2025/12/09)
引註此篇文章
你可能還會想看
日本名古屋地方法院強調刑事手段對於營業秘密保護的必要性

  日本名古屋地方法院(下稱法院)在2022年3月18日,對於被控訴違反《不正競爭防止法》的「愛知製鋼」前董事本蔵義信(下稱本蔵)等,宣判無罪。被告本蔵致力研發磁阻抗( Magnetic Impedance, MI)感測器,嗣後對於提高感測器性能及開拓市場等方向,與「愛知製鋼」意見分歧。故於2014年離職另成立マグネデザイン公司,翌年研究發現Giga Spin Rotation (GSR)原理,能製造更小且性能更高的感測器,並取得多項專利。   在2017年,原告「愛知製鋼」以被告本蔵等在2013年的會議中洩露營業秘密等為理由,提起告訴。經過兩次搜查,檢調發現相關會議筆記及白板照片等證據,故向法院提起公訴。法院指出在刑事程序,同樣適用民事上營業秘密法定構成要件,然而本案涉及的技術資訊,屬於工程上一般性、抽象性資訊,不符合秘密性要件。此外,法院認為原告「愛知製鋼」除未落實機密分級,在書面資料上標示「機密」外;且在保密期限屆滿後,亦未與生產商再簽署保密契約,難認為已採取合理保密措施,故不能認定被告本蔵等洩漏營業秘密。   雖然日本經濟產業省已明確指出刑事罰係針對違法性高的行為,且法院對於刑事訴訟的舉證程度,要求必須達到無合理懷疑。同時社會亦有輿論認為調查人員應慎重判斷,避免因不當提起訴訟,造成科學技術發展的負面影響。但在本案中,法院則強調營業秘密對於企業經濟活動的重要性極高,為避免因營業秘密侵害行為,致損害企業競爭力,故採取刑事保護的必要性,越發提高。綜上所述,若企業欲透過刑事罰,保護營業秘密,須採取更嚴謹的管理措施,始能確保藉由刑事訴訟程序,主張權利救濟。   本文同步刊登於TIPS網站(https://www.tips.org.tw)

美國司法部對標準制訂組織所採取之新政策出競爭法上之意見

  美國聯邦貿易委員會(Federal Trade Commission, FTC)於今(2006)年8月做出一項重要處分,認定Rambus Inc對其他標準制訂組織成員隱瞞其研發之多項電腦技術的專利,並打算在標準制訂組織採用特定標準後實施其專利的行為,乃以不法方式獨占市場之行為,違反反托拉斯法。   在FTC作成Rambus 的決定後,標準制訂組織也開始嘗試一些防止Rambus案情形發生的事前因應之道,例如已推動電腦系統互連標準的電腦協會VITA,就採行了一項新的標準制訂政策,該協會要求其參與成員必須承諾,階段性釋出其專利及專利申請的資訊,包括其所設定的最高權利金費率與可能採取的最嚴格的限制性授權條件;另其標準制訂政策也禁止成員間就此等專利的權利金費率或授權條件私下協商。由於有認為這種作法可能會被認為是破壞市場競爭秩序的杯葛行為,故VITA乃向美國司法部反托拉斯局徵詢其意見。   2006年10月30日,美國司法部反托拉斯局(Antitrust Division of the Department of Justice)提出一份商業檢視信函(business review letter, BRL),正式對此問題提出看法。司法部反托拉斯局在BRL中指出,基於以下幾點考量,VITA的標準制訂政策尚無限制競爭的疑慮:(1)共同制訂標準可能可帶來諸多有助於競爭的優點;(2)協會此項政策可使成員在推動制訂標準時,有更為充分的資訊作成決定;(3)專利授權條款的事前揭露可避免標準制訂可能因為事後過高的授權金,導致其導入或取代既有技術之時程被拖延。

馬來西亞個人資料保護法之發展仍有諸多不確定因素

  馬來西亞於2010年6月即通過個人資料保護法,延宕經年,該法終於自2013年底開始正式施行,而數項配套規範亦同步施行。前個資保護部門首長Abu Hassan Ismail則被任命為新設之個資保護專員,受通訊及多媒體部部長之指揮監督。   從規範內容架構觀察,馬國此部個資法之範疇堪稱恢弘,不但包括了諸多的實質行為規定,例如,在行為規範的面向上,馬國個資法要求其所謂的資料使用者(data user) 必須遵守多項個資保護原則並尊重當事人權利;此外,該法亦有不少與個資保護相關之組織及程序規則,例如,該法設有行政救濟法庭,如對個資保護專員之決定有所不服者,即可在此提出救濟。惜該法之適用對象不包括公部門,且在適用情形方面,除排除了純粹因個人或家庭目的而蒐集、處理、利用個人資料外,亦針對諸多情形分別排除該法所設之不同個資保護原則之適用,且更賦予個資保護專員另行指定排除適用情形之權限,因而除將相當程度限制該法影響範圍外,並使該法之適用與發展增加許多不確定之因素。

德國聯邦資訊技術,電信和新媒體協會針對AI及自動決策技術利用提出建議指南

  德國聯邦資訊技術,電信和新媒體協會於2018年2月6日在更安全的網路研討會中針對利用人工智慧及自動決策技術利用提出建議指南(Empfehlungen für den verantwortlichen Einsatz von KI und automatisierten Entscheidungen),旨在提升企業數位化與社會責任,並提升消費者權益保護。 本份指南提出六項建議: 促進企業內部及外部訂定相關準則 例如規定公司在利用演算法和AI時,必須將影響評估列入開發流程,並列為公司應遵守的道德倫理守則,以確保開發的產品或服務符合公平及道德。 提升透明度 使用者如有興趣了解演算法及其含義,企業應協助調查並了解使用者想獲知的訊息,並透過相關訊息管道提升產品及服務透明度。因此,企業應努力使演算法及其操作和含義能夠被使用者理解。此亦涉及即將實施的歐盟一般資料保護規則中的透明度義務。在機器學習或深度學習情況下,可能會增加理解性和可追溯性難度,但有助於分析流程並使其更接近人類理解的方法在科學和商業實踐中,應特別關注並進一步討論。另外,透過教育及使用說明協助及控制功能,教導消費者係建立雙方信任的重要手段。企業應在第一線中說明產品或服務中使用的手段(演算法,機器學習,AI)。除了解釋使用那些技術來改進產品和服務外,應一併解釋如何從技術控制過程中獲得相關知識以及提供那些後援支持。另外,例如透過幫助頁面,儀表板或部落格,解釋發生什麼以及如何做出某些影響深遠的自動化決策,使用戶更了解有關使用自動決策相關訊息。因此建議企業採取強制有效以建立信任的措施,使用戶理解是否及如何使用相關演算法,此可能包括使用自動化決策,使用特定資料組和使用技術的目的,亦即使用戶對演算法,機器學習或AI支持的決策有基本的了解。 為全體利益使用相關技術 人工智慧等新技術之重要性不應被低估,目前在生活和工業等眾多領域皆有廣泛應用。對於個人和集體而言,將可帶來巨大的利益,因此應該充分利用。例如,人工智慧可降低語言障礙,幫助行動不便的人可更加獨立自主生活,改善醫療診斷,提升能源供應效率,甚至是交通規劃和搜索停車位,都只是人工智慧偉大且已被使用的案例。為促進技術發展,應公平地利用其優勢並預留商業應用模式的空間,同時充分解決涉及的具體風險。產業特定的解決方案十分重要,但應兼顧受影響者的利益,並與廣大公眾利益找出妥協平衡點,且應排除不適當的歧視。建議在使用決策支持技術時,應事先檢查相關後果並與其利益比較。例如,可以在資料保護影響評估的框架進行。作為道德準則的一部分,必須確保演算法盡可能量準確地預測結果。 開發安全的資料基礎 資料係人工智慧支援決策的基礎。與人為決策者相同,資料不完整或錯誤,將導致做出錯誤的決定。因此決策系統的可靠性仍取決資料的準確性。但資料質量和資料來源始終不能追溯到源頭,如果可能的話,只有匯總或非個人資料可用於分析或分類用戶群組。因此,確切細節不可被使用或揭露。因此建議企業應考慮要使用的資料、資料的類別和在使用AI系統前仔細檢查資料使用情況,特別是在自我學習系統中資料引入的標準,並根據錯誤來源進行檢查,且儘可能全面記錄,針對個人資料部分更應謹慎處理。 解決機器偏差問題 應重視並解決所謂機器偏差和演算法選擇和模型建立領域的相關問題。解釋演算法,機器學習或AI在基層資料選擇和資料庫時所產生決策偏見相當重要,在開發預期用途的演算法時必須納入考量,對員工應針對道德影響進行培訓,並使用代表性紀錄來創建可以識別和最小化偏差的方法。企業並應該提高員工的敏感度並培訓如何解決並減少機器偏見問題,並特別注意資料饋送,以及開發用於檢測模式的內、外部測試流程。 適合個別領域的具體措施和文件 在特別需要負責的決策過程,例如在車輛的自動控制或醫療診斷中,應設計成由責任主體保留最終的決策權力,直到AI的控制品質已達到或高於所有參與者水平。對類人工智慧的信任,並非透過對方法的無條件追踪來實現,而是經過仔細測試,學習和記錄來實現

TOP