LV賣炸雞?南韓炸雞店仿作LV名稱及圖騰遭控商標侵權

  一名南韓金姓男子以「LOUIS VUITON DAK」為名開設炸雞店,於2015年9月遭法國精品品牌Louis Vuitton Malletier(以下簡稱LV)提起商標侵權訴訟,法院判決金姓男子應停止使用與LV近似的商標和圖騰。近日(2016年4月)法院認為金姓男子未遵從禁令,仍持續使用與LV商標近似的店名,判決金姓男子賠償1450萬韓元(約41萬元台幣)。

  金姓男子以韓文全雞「tongdak」的諧音,將炸雞店命名為「LOUIS VUITON DAK」,並於炸雞外帶餐盒及紙巾上,印製使用與LV商標圖騰極為相似的圖案。此舉引來LV的不滿,於2015年9月向南韓法院提起訴訟,認為金姓男子使用LV的近似名稱販賣炸雞,將對LV的品牌形象帶來嚴重損害。2015年10月,法院要求金姓男子立即停止使用近似LV的商標圖騰及店名,否則將處以一日50萬韓元的罰款。金姓男子後將店名改為「chaLouisvui tondak」,然而LV仍認為該店名與其商標有部分雷同。法院同意LV的主張,認為金姓男子雖更改了店名拼法,但其讀音仍與「LOUIS VUITON DAK」幾乎相同,因此以一日50萬韓元的罰款金額,計算使用新店名的29日,判決金姓男子須向LV賠償1450萬韓元。

【本文同步刊登於TIPS網站(http://www.tips.org.tw)】

相關連結
※ LV賣炸雞?南韓炸雞店仿作LV名稱及圖騰遭控商標侵權, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=7223&no=64&tp=1 (最後瀏覽日:2026/05/10)
引註此篇文章
你可能還會想看
日本發布《資料品質管理指引》,強調歷程存證與溯源,建構可信任AI透明度

2025年12月,日本人工智慧安全研究所(AI Safety Institute,下稱AISI)與日本獨立行政法人情報處理推進機構(Information-technology Promotion Agency Japan,下稱IPA)共同發布《資料品質管理指引》(Data Quality Management Guidebook)。此指引旨於協助組織落實資料品質管理,以最大化資料與AI的價值。指引指出AI加劇了「垃圾進,垃圾出(Garbage in, Garbage out)」的難題,資料品質將直接影響AI的產出。因此,為確保AI服務的準確性、可靠性與安全性,《資料品質管理指引》將AI所涉及的資料,以資料生命週期分為8個階段,並特別強調透過資料溯源,方能建立透明且可檢核的資料軌跡。 1.資料規劃階段:組織高層應界定資料蒐集與利用之目的,並具體說明組織之AI資料生命週期之各階段管理機制。 2.資料獲取階段:此步驟涉及生成、蒐集及從外部系統或實體取得資料,應優先從可靠的來源獲取AI模型的訓練資料,並明確記錄後設資料(Metadata)。後設資料指紀錄原始資料及資料歷程之相關資訊,包含資料的創建、轉檔(transformation)、傳輸及使用情況。因此,需要記錄資料的創建者、修改者或使用者,以及前述操作情況發生的時間點與操作方式。透過強化來源透明度,確保訓練資料進入AI系統時,即具備可驗證的信任基礎。 3.資料準備階段:重點在於AI標註(Labeling)品質管理,標註若不一致,將影響AI模型的準確性。此階段需執行資料清理,即刪除重複的資料、修正錯誤的資料內容,並持續補充後設資料。此外,可添加浮水印(Watermarking)以確保資料真實性與保護智慧財產權。 4.資料處理階段(Data Processing):建立即時監控及異常通報機制,以解決先前階段未發現的資料不一致、錯漏等資料品質問題。 5.AI系統建置與運作階段:導入RAG(檢索增強生成)技術,檢索更多具參考性的資料來源,以提升AI系統之可靠性,並應從AI的訓練資料中排除可能涉及個人資料或機密資訊外洩的內容。 6. AI產出之評估階段(Evaluation of Output):為確保產出內容準確,建議使用政府公開資料等具權威性資料來源(Authoritative Source of Truth, ASOT)作為評估資料集,搭配時間戳記用以查核參考資料的時效性(Currentness),避免AI採用過時的資料。 7.AI產出結果之交付階段(Deliver the Result):向使用者提供機器可讀的格式與後設資料,以便使用者透過後設資料檢查AI產出結果之來源依據,增進透明度與使用者信任。 8.停止使用階段(Decommissioning):當資料過時,應明確標示停止使用,若採取刪除,應留存刪除紀錄,確保留存完整的資料生命週期紀錄。 日本《資料品質管理指引》強調,完整的資料生命週期管理、強化溯源為AI安全與創新的基礎,有助組織確認內容準確性、決策歷程透明,方能最大化AI所帶來的價值。而我國企業可參考資策會科法所創意智財中心發布之《重要數位資料治理暨管理制度規範(EDGS)》,同樣強調從源頭開始保護資料,歷程存證與溯源為關鍵,有助於組織把控資料品質、放大AI價值。 本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。 本文同步刊登於TIPS網站(https://www.tips.org.tw)

英國發布「科學技術框架」2024最新施政進度,積極推動創新技術發展

英國科技創新部(Department for Science, Innovation & Technology, DSIT)於2024年2月9日發布「科學技術框架」(Science and Technology Framework)最新施政進度,相關重點如下: (1)此框架旨在強化國家科技競爭力,聚焦五項關鍵技術領域:人工智慧、工程生物學、未來通訊、半導體和量子技術。 (2)擬實現十項關鍵措施:辨識關鍵技術、對國內外展示英國科技實力,吸引優秀人才及投資、促進公私部門投資新興科技、發揮英國多樣化技能、技術和創業人才優勢、為新創產業提供資金補助、促進公部門採購轉型、戰略性參與國際事務提升話語權、建立數位基礎設施優化研發環境、制定創新法規與全球標準、鼓勵公共部門建立支持創新文化,改善服務等。 (3)提出五大戰略領域發展策略,並由「英國研究創新(UK Research and Innovation, UKRI)資金」鉅額資助,並吸引私部門企業、慈善單位共同投資。 (4)提出「支持創新技術監管建議」(Recommendations from the Pro-innovation Regulation of Technologies Review):由政府首席科學顧問群對跨領域前沿技術、先進製造、創意產業、生命科學、數位技術及綠色產業等領域提出監管建議。 (5)推動「退休基金改革措施」(Mansion House Reforms):於2023年7月10日提出,政府支持運用退休金投資創新企業,除可提高退休金持有人之收益外,亦增加新創資金流動性,並促其於英國設立公司及上市。

澳洲提出《2023年法定聲明修正法案》,將正式認可數位化法定聲明的效力

澳洲眾議院在2023年9月提出了《2023年法定聲明修正法案》(Statutory Declarations Amendment Bill 2023),法定聲明(statutory declaration)是大英國協法體系中的一種法律行為,效力相當於宣誓,以確認聲明人聲明內容為真。如受雇者可以法定聲明的方式聲明自己的工作經歷屬實,以做為受雇資料不全時的補充。該修正案將使數位方式(digital execution)進行的法定聲明和傳統書面形式具有相同效力。 澳洲政府在Covid-19期間,為了因應疫情對於整個社會的衝擊,在實體接觸困難的社會環境下導入大量臨時措施,但是這些臨時措施將會於2023年12月31日時效到期後失去效力。 本次的修正案除了將允許電子簽名(electronic signature)和視訊見證(video-link witnessing)等數位形式作為進行法定聲明的方式外,亦進一步規定只有在經過核可並且授權的數位平臺(如myGov)才可以進行有效的數位法定聲明。除此之外,使用者也需通過這些線上平臺的身分驗證(如myGovID)後才能使用這一服務,以確認法定聲明發表人的身份並確保該聲明之效力。 為了確保透明和釐清平臺的責任歸屬,該法案除了對數位平臺進行隱私、資安和防詐騙的規範外,亦禁止數位平臺儲存或保留使用者法定聲明的副本,因為這些法定聲明可能都含有高度敏感的個人資訊。 該法案的目的並非要完全取代傳統書面紙張在法定聲明中的地位,而是為了澳洲人民在做成法定聲明時提供另一個不受到地理、實體限制的選擇,這種改變讓個人和企業藉由數位化平臺快速且不受實體距離影響完備所需的法律文件,使他們能夠便捷的享有那些需要法定聲明的政府服務。 澳洲政府為了因應社會變遷及數位時代的來臨,在法律體系中賦予數位形式明確效力,並且嘗試建立起可信賴的數位平臺與路徑,其制度設計及後續影響,可以作為我國推動國家數位轉型時的參考。

美國科羅拉多州通過《人工智慧消費者保護法》

2024年5月17日,科羅拉多州州長簽署了《人工智慧消費者保護法》(Consumer Protections for Artificial Intelligence Act,Colorado AI Act,下簡稱本法),其內容將增訂於《科羅拉多州修訂法規》(Colorado Revised Statutes,簡稱CRS)第6篇第17部分,是美國第一部廣泛對AI規範的法律,將於2026年2月1日生效。 本法旨在解決「高風險人工智慧系統」的演算法歧視(Algorithmic Discrimination)的問題 ,避免消費者權益因為演算法之偏見而受到歧視。是以,本法將高風險AI系統(High-risk Artificial Intelligence System)定義為「部署後作出關鍵決策(Consequential Decision)或在關鍵決策中起到重要作用的任何AI系統」。 而後,本法藉由要求AI系統開發者(Developers)與部署者(Deployers)遵守「透明度原則」與「禁止歧視原則」,來保護消費者免受演算法歧視。規定如下: (一)系統透明度: 1.開發者應向部署者或其他開發者提供該系統訓練所使用的資料、系統限制、預期用途、測試演算法歧視之文件以及其他風險評估文件。 2.部署者應向消費者揭露高風險人工智慧系統的預期用途,也應在高風險人工智慧系統做出決策之前向消費者提供聲明,聲明內容應該包含部署者之聯絡方式、該系統的基本介紹、部署者如何管理該系統可預見之風險等資訊。 (二)禁止歧視: 1.開發者應實施降低演算法歧視之措施,並應協助部署者理解高風險人工智慧系統。此外,開發者也應該持續測試與分析高風險人工智慧系統可能產生之演算法歧視風險。若開發者有意修改該系統,應將更新後的系統資訊更新於開發者網站,並須同步提供給部署者。 2.部署者應該實施風險管理計畫,該風險管理計畫應包含部署者用於識別、紀錄降低演算法歧視風險之措施與負責人員,且風險管理計畫應定期更新。在制定風險管理計畫時,必須參考美國商務部國家標準暨技術研究院(National Institute of Standards and Technology, NIST)的《人工智慧風險管理框架》(AI Risk Management Framework, AI RMF 2.0)與ISO/IEC 42001等風險管理文件。 美國普遍認為科羅拉多州的《人工智慧消費者保護法》為目前針對人工智慧系統最全面之監管法規,可作為其他州有關人工智慧法規的立法參考,美國各州立法情況與作法值得持續關注。

TOP