精品珠寶業者攻防戰-卡地亞控訴蒂芙尼竊取營業秘密

  今(2022)年2月28日卡地亞(Cartier)控訴精品珠寶領域的競爭對手蒂芙尼(Tiffany & Co.),聲稱其在卡地亞前員工的幫助下,竊取獨家商品的營業秘密。

  歷峰北美公司(Richemont North America Inc.)旗下的卡地亞今年2月28日於美國紐約州法院起訴蒂芙尼和卡地亞前襄理(Junior Manager)梅根瑪莉諾(Megan Marino),控訴瑪莉諾於跳槽前下載卡地亞的高級珠寶業務機密資訊, 並於去年11月加入蒂芙尼後將資訊傳送給新同事。蒂芙尼發言人發出否認聲明,卡地亞的指控毫無根據。

  根據訴訟聲明,蒂芙尼聘請瑪莉諾負責包括單價高達1000萬美元(約新台幣2.8億)的高級珠寶系列,蒂芙尼法律部門從卡地亞獲得通報後,於今年2月份解僱瑪莉諾,但卡地亞聲稱,蒂芙尼的高階主管已經獲得大量的卡地亞機密和營業秘密資訊。

  這並非卡地亞第一次指控跳槽至蒂芙尼的前員工試圖竊取營業機密。2014年,卡地亞起訴一名前廣告主管,據稱其試圖讓她的前助理隨身攜帶機密資訊一同加入蒂芙尼,該訴訟於次年和解。

  本文同步刊登於TIPS網站(https://www.tips.org.tw

相關連結
你可能會想參加
※ 精品珠寶業者攻防戰-卡地亞控訴蒂芙尼竊取營業秘密, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8807&no=0&tp=1 (最後瀏覽日:2025/12/13)
引註此篇文章
你可能還會想看
技術進步、資訊流通、隱私保障

科技產業申請租稅減免 國稅局:申報浮濫

  高科技企業申請促產條例相關租稅減免浮濫,尤其是在可享高額抵減的研發項目上,爭議最多。實務上,人才培育的投資抵減減稅空間較少,頂多幾十萬元或幾百萬元,但研發投資抵減最高可達幾十億元,因此常見的爭議也最多。由於研發費用可提列為費用、又可抵稅,對企業來說效益很高,因此很多公司都先申報為研發費用,等被國稅局查到再說;另將製造、銷售費用列為研發費用的情形不勝枚舉。   依照公司研究與發展及人才培訓支出適用投資抵減辦法審查要點第1點附表,研發支出只有包括全職研發人員薪資等九種支出才能抵減,而且業者須附薪資表及證明文件證明,才能減稅。但因為研發誘因優渥,企業總是先報再說,因此行政法院投資抵減的相關訴訟,十之八九都是國稅局勝訴。根據公司研究與發展及人才培訓支出適用投資抵減辦法第5條規定,公司的研發支出,在同一課稅年度內得按百分之三十抵減當年度應納營所稅額;支出總金額超過前二年度研發經費平均數者,超過部份得按百分之五十抵減當年度應納營所稅,當年度營所稅額不足抵減者,得在以後四年度營所稅額抵減。   國稅局提醒,申請研發減免企業必須提供研究計畫等證明,否則舉證不足反將被國稅局要求補稅,恐衝擊公司當年獲利。一般來說,適用投抵減稅金額愈高的公司,也愈常被選案查核,確保公司沒有僥倖逃稅心理。如果投抵項目涉及大陸地區,像是人才培訓支出,則應依臺灣地區與大陸地區人民關係條例第24、25、25條之1條等法令規定,經主管機關核准,否則也將遭國稅局剔除補稅。

一名挪威學生提供違法音樂下載連結被判侵權

  一名挪威學生,因執行校內某項計畫而在2001年架設了一個名為Napster.no的網站。該網站和知名的Napster.com並無關聯。由於Napster.no提供了可免費下載MP3音樂的連結,因而使該名學生遭到Universal Music AS等的著作權侵權指控,並被判賠15900美元。案經上訴,日前挪威最高法院已做出判決,下級法院的判決仍被維持。

美國國家標準暨技術研究院規劃建立「人工智慧風險管理框架」,並徵詢公眾對於該框架之意見

  美國國家標準暨技術研究院(National Institute of Standards and Technology, NIST)為管理人工智慧對於個人、組織以及社會所帶來之風險,於2021年7月29日提出將建立「人工智慧風險管理框架」(Artificial Intelligence Risk Management Framework, AI RMF)之規畫並徵詢公眾意見,截止日為9月15日,並預計於10月發布正式報告。   依照NIST說明,公眾所建議之人工智慧風險管理框架,可促進人工智慧之可信賴性,其中包含如何應對並解決人工智慧於設計、發展及使用過程中所遭遇之「精確度」(accuracy)、「可解釋性」(explainability)、「偏見」(bias)等議題。此外,上開管理框架預計為非強制性、供企業自願性使用於人工智慧設計、發展、使用、衡量及評估之人工智慧標準。   依現有公眾意見徵詢結果,其中DeepMind公司建議於人工智慧設計初期,必須預先構思整體系統之假設是否符合真正社會因果關係。舉例言之,當設計一套可預測民眾健保需求程度之系統時,如輸入參數僅考量民眾於醫療上的花費,將使僅有可負擔較高醫療費用之民眾被歸類為健保需求程度較高者,從而導致健保制度排擠經濟負擔程度較差之公民,故在設計系統時,應從預先設定之假設事實反面(counter-factual)思考並驗證是否會產生誤差或公平性之問題(例如預先思考並驗證「醫療費用支出較低之民眾是否即可被正確歸類為健保需求度低之民眾」)。惟進行上述驗證需要大量社會資料,因此DeepMind也建議NIST應建立相關機制,使這些社會資料可以被蒐集、使用。   此外,亦有民眾建議管理框架應有明確之衡量方法以及數值指標,以供工程界遵循。同時鑒於人工智慧發展極為快速,未來可能有不同於以往之人工智慧類型出現,故亦建議NIST應思考如何在「建構一套完整且詳細之人工智慧治理框架」與「保持人工智慧治理框架之彈性與靈活性」之間取得平衡。   最後,目前也有許多徵詢意見指出,許多人工智慧治理之目標會相互衝突。舉例言之,當NIST要求人工智慧系統應符合可解釋性,則人工智慧公司勢必需要經常抽取人工智慧系統中之「數據軌跡」(audit logs),惟數據軌跡可能被認為是使用者之個人資料,因此如何平衡或完善不同治理框架下之目標,為未來應持續關注之議題。

TOP