日亞化學與藍光LED發明人和解

 

 

  日亞化學與前員工、現任美國加州大學教授中村修二(Shuji Maka mura)達成和解,日亞化學要支付中村修二本人8億4400萬日圓的費用,以補償其在日亞化學任內發明藍光LED晶粒技術,並帶給日亞化學日後龐大收入的功勞。


  中村修二去年1月因不甘其在日亞化學工作期間,開發相關藍光LED晶粒技術,為公司帶進3300億餘日圓的收益,但日亞化學卻將專利獨佔,並未支付中村修二合理的費用。中村修二遂向日本地院提出告訴,日本地方法院一審判日亞化學敗訴,需支付200億日圓作為中村修二的補償金。日亞化學不服再向高院上訴,近日傳出雙方已達成和解,以8億4400萬日圓達成和解,其中6億850萬日圓係中村修二在日亞化學工作時開發出藍光LED晶粒後,為公司帶進約3300餘億日圓中屬中村修二的貢獻所得。


  相較於一審判決日亞化學要賠200億日圓來看,此次只需支付8億4000餘萬日圓,替日亞化學省下了一大筆錢,且可早日解決此紛爭,日亞化學在此次官司中不能算輸,還可確立日亞化學日後擁有藍光LED晶粒的所有技術專利,有利日亞化學未來拓展白光LED及藍光晶粒市場。一般認為,日亞化學急於與中村修二達成和解之因,主要是藍光L ED晶粒市場仍在大幅成長中,預估今年全球LED市場需求可達到50億美元,其中白光及藍光LED也佔到一半以上,未來更是以倍數成長。日亞化學如未能快速解決與中村修二的官司,恐影響日亞化學在藍光及白光LED市場上的領先地位。

 

本文為「經濟部產業技術司科技專案成果」

※ 日亞化學與藍光LED發明人和解, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=281&no=55&tp=1 (最後瀏覽日:2026/01/29)
引註此篇文章
你可能還會想看
歐盟執委會發表數位政府有助於因應COVID-19疫情之說明

  歐盟執委會(European Commission, EC)於2020年3月24日發表新聞稿,說明在COVID-19疫情期間,各國政府要求人民保持社交距離甚或自我隔離;人民無法會面互動下,數位政府政策成為維持正常生活的解套方式。歐盟於新聞稿中重申先前建構「歐盟內部市場電子交易之電子身分認證與信賴服務規則」(REGULATION EU No 910/2014 OF THE EUROPEAN PARLIAMENT AND OF THE COUNCIL of 23 July 2014 on electronic identification and trust services for electronic transactions in the internal market and repealing Directive 1999/93/EC,以下簡稱 eIDAS)、電子識別(electronic identification, eID)以及發展信任服務(trust services)的必要性,例如電子戳記(eTimestamps)、電子圖章(eSeals)、電子簽章(eSignatures)、網站認證(Website authentication)等均屬之。歐盟公民無須離開住宅,即可和公部門互動。   除了公部門,信任服務可以支援歐盟企業(特別是疫情嚴重地區的中小型企業)遠端執行業務,維持業務連續性。例如金融服務對交易、認證、安全性及防洗錢等領域發展數位化:eID識別客戶身分、整合同一客戶的海外金融帳戶服務、遠端驗證防洗錢要求;電子簽章可與客戶遠端簽署金融服務契約;電子註冊交付服務(electronic registered delivery service)則作為安全交換重要文件或契約之機制。   在零售業而言,安全的電子交易對於線上業務尤為重要。例如eID可對購買酒類等管制商品或藝術品等高價商品之消費者進行更嚴格的身分檢查;電子簽章和電子戳記則強化文件及流程追蹤機制,降低追蹤成本。 在運輸部門,以汽車共享服務為例,eID可用於證明客戶的身份,提供安全登錄,並允許客戶進行遠端車輛解鎖。而貨運及物流產業,若在不同營運商運送之間遇有延遲,則電子戳記可使責任歸屬更加明確。另外,對重要文件使用電子圖章,可證明文件完整性、有效性並減少對紙本文件的依賴,並降低疫情期間會面之風險。

人權組織向法國最高行政法院提交申訴,要求政府停止使用歧視性演算法

.Pindent{text-indent: 2em;} .Noindent{margin-left: 2em;} .NoPindent{text-indent: 2em; margin-left: 2em;} .No2indent{margin-left: 3em;} .No2Pindent{text-indent: 2em; margin-left: 3em} .No3indent{margin-left: 4em;} .No3Pindent{text-indent: 2em; margin-left: 4em} 國際特赦組織(Amnesty International)與法國數位隱私權倡議團體La Quadrature du Net(LQDN)等組織於2024年10月15日向法國最高行政法院提交申訴,要求停止法國國家家庭津貼基金機構(Caisse nationale des allocations familiales,CNAF)所使用的歧視性風險評分演算法系統。 CNAF自2010年起即慣於使用此系統識別可能進行福利金詐欺的對象,該系統演算法對獲取家庭與住房補助的對象進行0至1之間的風險評分,分數越接近1即越可能被列入清單並受調查,政府當局並宣稱此系統將有助於提升辨識詐欺與錯誤的效率。 LQDN取得該系統的原始碼,並揭露其帶有歧視性質。該等組織說明,CNAF所使用的評分演算法自始即對社會邊緣群體如身心障礙者、單親家長,與低收入、失業、居住於弱勢地區等貧困者表現出懷疑態度,且可能蒐集與系統原先目的不相稱的資訊量,這樣的方向直接違背了人權標準,侵犯平等、非歧視與隱私等權利。 依據歐盟《人工智慧法》(Artificial Intelligence Act,下稱AIA),有兩部分規定: 1. 用於公機關評估自然人是否有資格獲得基本社會福利或服務,以及是否授予、減少、撤銷或收回此類服務的人工智慧系統;以及用於評估自然人信用或建立信用評分的人工智慧系統,應被視為高風險系統。 2. 由公機關或私人對自然人進行社會評分之人工智慧系統可能導致歧視性結果並排除特定群體,從此類人工智慧總結的社會分數可能導致自然人或其群體遭受不當連結或程度不相稱的不利待遇。因此應禁止涉及此類不可接受的評分方式,並可能導致不當結果的人工智慧系統。 然而,AIA並未針對「社會評分系統」明確定義其內涵、組成,因此人權組織同時呼籲,歐盟立法者應針對相關禁令提供具體解釋,惟無論CNAF所使用的系統為何種類型,因其所具有的歧視性,公機關皆應立即停止使用並審視其具有偏見的實務做法。

美國法院推翻過去電子郵件監視案件之判決立場

  美國上訴法院於八月於判決中指出,電子郵件服務提供者未經使用者同意對於其傳送、接收之電子郵件加以監視,應為犯罪行為,即使服務提供者僅利用使用者經由其伺服器傳送郵件時的自動暫存過程進行監視,亦構成未經使用者同意的「攔截」 (intercept) 行為,違反監聽法 (Wiretap Act) ,而構成犯罪,推翻該國法院過去所建立「電子郵件服務提供者未經使用者同意監視使用者電子郵件通訊,不屬違反監聽法之犯罪行為」的立場。   被上訴人 Bradford C. Councilman 是從事珍貴與絕版書籍網路建擋列表服務之 Interloc Inc. 的副總裁,該公司給與其顧客含有 "interloc.com" 網域名稱之電子郵件地址作為服務的一部份,並且提供如同電子郵件服務提供者之服務行為,本案起因於 1998 年 Bradford 指示該公司雇員透過修改郵件接收程序之方式,攔截並拷貝所有服務使用者與其競爭對手亞馬遜網路書店 (Amazon.com) 間的電子郵件通訊,亦即,所有來自 Amazon.com 的信件到達伺服器時,由於程式的運作,該信件於寄至使用者信箱前會先行複製,由 Interloc 公司員工加以閱讀。   本上訴法院之判決,乃針對電子郵件的傳送是否屬於監聽法中所謂的電子通訊 (electronic communication) 以及該公司之行為是否構成「攔截」皆作成肯定之解釋,對於電子郵件使用者隱私權之保護有指標性的影響。

英國發布「人工智慧:機會與未來決策影響」政策報告,並聚焦人工智慧運用及管理

  英國科學辦公室於2016年11月9日,發布一份政策報告:「人工智慧:機會與未來決策影響(Artificial intelligence: opportunities and implications for the future of decision making)」,介紹人工智慧對於社會及政府的機會和影響,此份政策報告並提出以下各項重要建議: (一)關於人工智慧及應用界定與發展   人工智慧是指由人工製造系統所表現出來的智慧。不僅是將現有的流程自動化,還包含制定目標,並利用電腦程式實現這些目標,常見案例包括線上翻譯、語音辨識、搜尋引擎篩選排序、垃圾郵件過濾、透過用戶回饋改善線上服務、預測交通流量、環境或社會經濟趨勢發展觀察等。 (二)未來對社會及政府利益及衝擊   人工智慧針對提高生產力有巨大的潛力,最明顯的就是幫助企業或個人更有效地運用資源,並簡化大量資料的處理,例如Ocado 及 Amazon這樣的公司正充份利用人工智慧改善倉儲及銷售網路系統,使得客戶可便利快速購得網購商品。   目前,政府也日益增加相關技術的運用,以提高公共服務效率,使資源達到最佳化分配;減少決策者被誤導的可能;使政府決策透明化;確保各部門更了解人民的意見。然政府在利用人工智慧及巨量資料時,應遵守倫理使用指南,並遵守英國資料保護法及歐盟一般資料保護規則等相關法規。   在巨量資料、機器人、自動系統對於勞動市場的衝擊一直都是關注的議題,對於面臨未來工作結構的轉型及相關技術人員的進修及培養,應及早規劃,以適應未來的轉變。 (三)關於相關道德及法律風險管理課題   人工智慧可能潛在相關道德倫理問題。許多專家認為政府應積極管理並降低風險發生可能性,可從以下兩個面向思考: (1)研究機器學習與個人資料運用結合時,對個人自由、隱私和同意等概念的影響。 (2)調適由人工智慧作決策行為時的歸責概念和機制。   有關實際案例之研究,則包括,執法單位在應用預測技術時,應避免以種族、國籍、地址作為標準,並嚴守無罪推定原則,以防止民眾受到歧視或不公平的指控;透過人工智慧可從公開資料推測出某些私人訊息或其親朋好友的消息,此訊息即可能超出原先個人同意披露的內容;原先匿名化及去識別化的訊息,因人工智慧功能加強,導至可能被重新識別,故須定期檢視該保護措施是否足夠。另外,人工智慧的演算偏差可能導致偏見的風險,為了降低這種風險,技術人員應採取對應措施。   針對責任及疏失的判斷,目前尚無太多的實務案例,但為保持對使用人工智慧的信任,仍需有明確的歸責制,可能有必要讓首席執行長或高級主管對人工智慧做出的決策負最終責任。許多專家也建議,部分技術內容須保持透明度,以確定技術使用時是否有盡到相關注意義務。   人工智慧已成為未來發展趨勢之一,對於社會整體層面影響將越來越深,新的技術除了可提升生產力,帶來便利的生活,同樣也會帶來衝擊。為促進相關產業發展及推展新技術的使用,應打造技術發展友善環境,並對於公眾安全進行相關風險評估,如果風險屬於現有監管制度範圍,應評估是否可充分解決風險,或是須要做相對應的調適。另外,在人工智慧融入現實世界同時,相關業者應注意相關產品安全性、隱私權保護和從業人員的倫理教育,以提高大眾對新技術的接受及信賴,並確保對於未來挑戰及轉變已做好萬全準備。

TOP