New Balance在中國大陸一審獲判商標侵權賠償

  美國紐百倫公司(以下稱New Balance)去年控告中國大陸當地三家製鞋商侵害其中N字logo商標。其中一位被告為已在美國科羅拉多州成立公司的新百倫體育用品有限公司(USA New Bai Lun Sporting Goods Group Inc)。近日,中國大陸蘇州中級人民法院判決在一審判決中判處這三名被告侵害New Balance商標權,應支付New Balance人民幣一千萬元(即美金一百五十萬元)之損害賠償。

  一名美國律師指出,此賠償數額以國際標準而言不算高,但這是中國大陸外企至今在商標侵權爭議案件中獲得的最大一筆賠償金,對在中國大陸的外企而言是一大鼓舞。New Balance品牌保護經理Angela Shi表示,此案的勝訴讓New Balance更有信心繼續在中國大陸開展品牌保護的工作。

  根據中國大陸當地律師指出,過去中國大陸各地方人民法院由於必須考量當地就業及社會穩定等因素,較不傾向做出有利於外企的判決。在本判決之前,美國總統川普曾簽屬一份備忘錄,要求調查中國大陸竊取美國企業智慧財產權之問題,而中國大陸國家主席習近平近期亦曾公開表示要嚴懲侵害智慧財產權者。本次New Balance的勝訴,除了對外企而言有標竿性的作用外,也展現了中國大陸政府解決仿冒問題的決心。

相關連結
你可能會想參加
※ New Balance在中國大陸一審獲判商標侵權賠償, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=7878&no=57&tp=1 (最後瀏覽日:2026/04/02)
引註此篇文章
你可能還會想看
IEA 發表「德國能源政策 2013 年檢閱報告」

新加坡網路安全局發布人工智慧系統安全指南,以降低AI系統潛在風險

新加坡網路安全局(Cyber Security Agency of Singapore, CSA)於2024年10月15日發布人工智慧系統安全指南(Guidelines on Securing AI Systems),旨在強化AI系統安全,協助組織以安全之方式運用AI,降低潛在風險。 該指南將AI系統生命週期分成五個關鍵階段,分別針對各階段的安全風險,提出相關防範措施: (1)規劃與設計:提高AI安全風險認知能力,進行安全風險評估。 (2)開發:提升訓練資料、模型、應用程式介面與軟體庫之供應安全,確保供應商遵守安全政策與國際標準或進行風險管理;並辨識、追蹤及保護AI相關資產(例如模型、資料、輸入指令),以確保AI開發環境安全。 (3)部署:適用標準安全措施(例如存取控制、日誌記錄),並建立事件管理程序。 (4)運作與維護:持續監控AI系統的輸入和輸出,偵測異常與潛在攻擊,並建立漏洞揭露流程。 (5)壽命終期:應根據相關行業標準或法規,對資料與模型進行適當之處理、銷毀,防止未經授權之存取。 CSA期待該指南發布後,將有助於預防供應鏈攻擊(supply chain attacks)、對抗式機器學習攻擊(Adversarial Machine Learning attacks)等安全風險,確保AI系統的整體安全與穩定運行。

歐盟網路接取與互連之規範現況與發展

美國國家標準暨技術研究院發布「人工智慧風險管理框架:生成式AI概況」

  美國國家標準暨技術研究院(National Institute of Standard and Technology, NIST)2024年7月26日發布「人工智慧風險管理框架:生成式AI概況」(Artificial Intelligence Risk Management Framework: Generative Artificial Intelligence Profile),補充2023年1月發布的AI風險管理框架,協助組織識別生成式AI(Generative AI, GAI)可能引發的風險,並提出風險管理行動。GAI特有或加劇的12項主要風險包括: 1.化學、生物、放射性物質或核武器(chemical, biological, radiological and nuclear materials and agents, CBRN)之資訊或能力:GAI可能使惡意行為者更容易取得CBRN相關資訊、知識、材料或技術,以設計、開發、生產、使用CBRN。 2.虛假內容:GAI在回應輸入內容時,常自信地呈現錯誤或虛假內容,包括在同一情境下產出自相矛盾的內容。 3.危險、暴力或仇恨內容:GAI比其他技術能更輕易產生大規模煽動性、激進或威脅性內容,或美化暴力內容。 4.資料隱私:GAI訓練時需要大量資料,包括個人資料,可能產生透明度、個人資料自主權、資料違法目的外利用等風險。 5.環境影響:訓練、維護和運行GAI系統需使用大量能源而影響碳排放。 6.偏見或同質化(homogenization):GAI可能加劇對個人、群體或社會的偏見或刻板印象,例如要求生成醫生、律師或CEO圖像時,產出女性、少數族群或身障人士的比例較低。 7.人機互動:可能涉及系統與人類互動不良的風險,包括過度依賴GAI系統,或誤認GAI內容品質比其他來源內容品質更佳。 8.資訊完整性:GAI可能無意間擴大傳播虛假、不準確或誤導性內容,從而破壞資訊完整性,降低公眾對真實或有效資訊的信任。 9.資訊安全:可能降低攻擊門檻、更輕易實現自動化攻擊,或幫助發現新的資安風險,擴大可攻擊範圍。 10.智慧財產權:若GAI訓練資料中含有受著作權保護的資料,可能導致侵權,或在未經授權的情況下使用或假冒個人身分、肖像或聲音。 11.淫穢、貶低或虐待性內容:可能導致非法或非自願性的成人私密影像或兒童性虐待素材增加,進而造成隱私、心理、情感,甚至身體上傷害。 12.價值鏈和組件整合(component integration):購買資料集、訓練模型和軟體庫等第三方零組件時,若零組件未從適當途徑取得或未經妥善審查,可能導致下游使用者資訊不透明或難以問責。   為解決前述12項風險,本報告亦從「治理、映射、量測、管理」四大面向提出約200項行動建議,期能有助組織緩解並降低GAI的潛在危害。

TOP