美國Farmers Insurance Group在加州以竊取營業秘密為由控告前員工以及Automobile Club of Michigan

  2017年10月,美國知名保險公司Farmers Insurance Group(下稱Farmers)在加州法院提訴,控告前員工Venkatesh Kamath(下稱Kamath)、前資訊長Shohreh Abedi(下稱Abedi)和競爭對手American Automobile Association(下稱AAA協會)旗下的Automobile Club of Michigan(下稱Auto Club)竊取營業秘密。

  Farmers聲稱,於2015年起使用Guidewire Software(下稱Guidewire),以更新其理賠處理和保險服務系統。Kamath因Guidewire業務,接觸到Farmers高度敏感與機密資訊。Abedi前為Kamath上司,曾監督Guidewire計畫初期階段。之後Abedi至Auto Club任職,協助Auto Club轉換使用Guidewire,並挖角包括Kamath在內許多Farmers員工。Kamath離職前,從Farmers電腦中拷貝超過6400份檔案,其中包括與Guidewire計畫及Famers核心業務相關的營業秘密資訊。

  Farmers控訴Kamath、Abedi及Auto Club違反加州營業秘密法(California Trade Secret Act)、從事不公平競爭、違反忠實義務及其他事由,除訴請賠償外,也請求法院禁止被告使用其營業秘密。

  本案非Farmers與AAA協會首次因營業秘密事宜而對訟。2010年間,Farmers曾控告AAA協會旗下Auto Club Group竊取其投保客戶機密資訊,惟該案當時經法院以Farmers未能證明有何損失或損害為由,駁回其訴。Farmers公司於2017年10月對Auto Club提起的本件訴訟,法院實務的發展為何,值得後續觀察。

相關連結
你可能會想參加
※ 美國Farmers Insurance Group在加州以竊取營業秘密為由控告前員工以及Automobile Club of Michigan, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=7953&no=66&tp=1 (最後瀏覽日:2026/02/19)
引註此篇文章
你可能還會想看
德國新修正稅法將加重電子商務營運商之責任

  德國政府於2018年8月1日通過「2018年稅法」(Jahressteuergesetzes 2018),新規範將於2019年生效。「2018年稅法」修正內容包括所得稅、公司稅、貿易稅及增值稅等多項稅收法規。其中增值稅(Umsatzsteuer)之修正主要目的係為了避免德國境外之電子商務業者在與德國民眾進行電子商務交易時,未繳增值稅(Umsatzsteuerausfällen)之情況發生,為了確保相關之稅收繳納,透過本次修法加強了電子商務平台營運商之管理義務,平台營運商將有義務提供德國政府在其平台交易之賣家(包括企業與個人)相關資訊並確保其支付相關稅負。   德國增值稅(英文為:Value Added Tax)適用對象為德國境內所發生的進口、商業及服務交易行為,從歐盟以外地區進口到德國的貨物或向德國消費者提供跨境銷售皆需要繳納19%的增值稅。但據德國稅務局的資料顯示,德國的跨境電子商務交易每年約有5億歐元的增值稅未能被徵收。因此,德國政府修正的稅法中,大幅增加了平台營運商之義務(第22f款UStG)及實際責任(第25e款UStG)。修正之稅法要求平台營運商必須記錄下列事項,且若利用該平台之賣家未繳稅款,其平台營運商則須為該賣家繳交必要的增值稅: 賣家的全名和地址; 企業賣家之德國稅號及增值稅識別號碼;(個人賣家則為含有生日的身分證件) 上述稅務證明之有效日期; 每筆交易的發貨地址及收貨地址; 銷售時間及銷售額。   新修正稅法可大幅避免跨境電商逃漏稅收,同時也保護了德國境內的零售商。因為過去若國外電子商務賣家逃漏增值稅,則會與德國境內零售商所賣之貨物產生約兩成價差(稅率為19%),進而形成不公平競爭,而新法旨在消弭這樣不公平的情況。但這樣的方式對於平台營運商之責任及營運成本皆加重,故新法對於電子商務平台方的影響,有待未來進一步觀察。

科研資源整合之跨國合作趨勢研析與比較

英國發佈具有決定性的基因體醫藥報告

  正當英國衛生部門(Department of Heath)計畫建構一個受命與提供資金的機構來進行癌症分子研究時,一個著重於基因藥物使用的英國政府諮詢組織-人類基因體策略團體(Human Genomics Strategy Group)提出報告要求英國健康照護服務(National Health Service, NHS)以多面向的方式來開發潛在性基因體科技。   人類基因體策略團體所提供的報告建置出了英國就基因體藥物於臨床應用可行性的相關步驟,該等步驟可提昇英國臨床醫師決定疾病的風險與傾向、從事正確的診斷與預知,以及培養個人醫療的能力。除此之外,該報告亦開展了人類基因體於臨床與診斷照護上的創新應用,並且提供英國政府關於基因資料之處理、公共健康議題與教育等措施資訊,以用來支持基因體科技的應用。   該報告建議,有鑑於英國已擁有強健的研究文化與資源,現階段英國已經準備好基因體藥物研究的初期階段。然而,在開始基因體藥物的研究之前,英國政府應該先在基因體技術廣泛使用於臨床照護與診斷的面向上作出更多的努力,其中包括建制出一套對於基因體與臨床基因檢驗的清楚標準,用以發展出一般性的程序來幫助健康照護專業人員來取得檢驗並分析結果。除此之外,為了防止前述一般性程序產生各項倫理道德性爭議,該報告亦建議英國政府應該發展出一套法制規範來處理關於基因藥物是否具有利用性的挑戰議題,並且以該規範來防範各種基因體資料可能被濫用的問題。   而除了建置基因體計畫法制面的規範,為了讓基因體技術能更廣泛的應用於臨床照護與診斷的範疇,此報告亦建議英國NHS應該規劃採用基因體科技的計畫、發展中央基因體儲存網絡來處理大量由基因體藥物所產生的生物資訊,以及開展出針對基因體科技所發展的受命計畫和服務傳遞模型。同時,考量英國國民與健康照護人員對於促進基因體藥物亦有所幫助,該報告也建議英國NHS應該持續提供相關教育與訓練課程來提高前述人員對於基因體藥物的認知與其帶來的益處。   有鑑於基因體醫藥報告對於英國未來從事基因實驗、臨床研究與基因藥物的研發具有決定性的影響,然該報告僅建構出具體的大方向,對於細節部分尚未有大量的著墨。因此,英國官方部門如何將此份報告於法制面和技術面加以具體落實,實值得繼續就相關內容作後續的追蹤。

歐盟議會發布《可信賴人工智慧倫理準則》

  2019年4月9日,歐盟議會發布《可信賴人工智慧倫理準則》(Ethics Guidelines for Trustworthy AI)。此次內容大致延續歐盟人工智慧高階專家小組(High-level Expert Group on Artificial Intelligence)於2018年12月18日發布的《可信賴人工智慧倫理準則草案》(Draft Ethics Guidelines for Trustworthy Artificial Intelligence)之內容,要求人工智慧須遵守行善(do good)、不作惡(do no harm)、保護人類(preserve human Agency)、公平(be fair)與公開透明(operate transparency)等倫理原則;並在4月9日發布的正式內容中更加具體描述可信賴的人工智慧的具體要件,共計七面向概述如下: 人類自主性和監控(Human agency and oversight):AI係為強化人類能力而存在,使人類使用者能夠做出更明智的決策並培養自身的基礎能力。同時,AI應有相關監控機制以確保AI系統不會侵害人類自主性或是引發其他負面效果。本準則建議,監控機制應可透過人機混合(一種整合人工智慧與人類協作的系統,例如human-in-the-loop, human-on-the-loop, and human-in-command)的操作方法來實現。 技術穩健性和安全性(Technical Robustness and safety):為防止損害擴張與確保損害最小化,AI系統除需具備準確性、可靠性和可重複性等技術特質,同時也需在出現問題前訂定完善的備援計劃。 隱私和資料治理(Privacy and data governance):除了確保充分尊重隱私和資料保護之外,還必須確保適當的資料治理機制,同時考慮到資料的品質和完整性,並確保合法近用資料為可行。 透明度(Transparency):資料、系統和AI的商業模型應該是透明的。可追溯性機制(Traceability mechanisms)有助於實現這一目標。此外,應以利害關係人能夠理解的方式解釋AI系統的邏輯及運作模式。人類參與者和使用者需要意識到他們正在與AI系統進行互動,並且必須了解AI系統的功能和限制。 保持多樣性、不歧視和公平(Diversity, non-discrimination and fairness):AI不公平的偏見可能會加劇對弱勢群體的偏見和歧視,導致邊緣化現象更為嚴重。為避免此種情況,AI系統應該設計為所有人皆可以近用,達成使用者多樣性的目標。 社會和環境福祉(Societal and environmental well-being):AI應該使包含我們的後代在內的所有人類受益。因此AI必須兼顧永續發展、環境友善,並能提供正向的社會影響。  問責制(Accountability):應建立機制以妥當處理AI所導致的結果的責任歸屬,演算法的可審計性(Auditability)為關鍵。此外,應確保補救措施為無障礙設計。

TOP