歐盟普通法院駁回可口可樂曲線瓶商標註冊

  可口可樂公司於2011年向內部市場協調局(Office for Harmonisation in the Internal Market, OHIM)申請註冊流線型立體瓶身商標。經OHIM審議後,於2014年3月以本項商標缺乏顯著特徵不具商品區隔性為由,予以駁回申請。為此,可口可樂向歐盟普通法院(EU General Court)提出上訴。

  惟法院於日前(2016年2月)做出說明,其判決結果認為立體瓶身並不具備與市場上其他可樂瓶區隔的具體特徵,根據共同體商標條例第7(1)(b)條「若商標缺乏顯著特徵則不允許註冊」。並質疑其所做的市場調查研究,無法證明該瓶身於市場上具有明顯的商品獨特性,不能讓消費者得以一眼看出是可口可樂產品,不符合同條例第7(3)條(足以使商品或服務之相關消費者認識為指示商品或服務來源,得與他人之商品或服務相區別者)排除7(1)(b)之適用條件,基於上述理由判決可口可樂公司敗訴。

  透過此案件,一定程度呈現OHIM與歐盟法院在立體商標認定上相對審慎的態度。

  在歐盟有關外觀設計與商標的聲請,係依照歐盟「共同體商標條例」(Council Regulation (EC) No. 207/2009)所規範。經申請通過之歐洲共體商標(CTM)註冊,得使產品或服務於全歐盟境內28個會員國享有排他性權利。而過往以販售之商品外觀或形狀申請註冊商標是具有難度的,必須係該外觀及形狀為增加其商品本身的價值或生產技術上所必要的結果,始得有商標註冊的可能。

  「本文同步刊登於TIPS網站(https://www.tips.org.tw)」

相關連結
※ 歐盟普通法院駁回可口可樂曲線瓶商標註冊, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=7177&no=57&tp=1 (最後瀏覽日:2026/03/20)
引註此篇文章
你可能還會想看
「聯合國2017年年度隱私報告聚焦政府監督行為」

  聯合國人權理事會(Human Rights Council)於2016年3月8日依據28/16號「數位時代下之隱私權」(Right to Privacy in the Digital Age)決議,設立隱私特別報告員(Special Rapporteur on Privacy, SRP),專責調查各國隱私保護情形並每年定期向人權理事會和聯合國大會提交隱私報告(Report of the Sepcial Rapporteur on the right to privacy)。   2017年年度隱私報告(A/HRC/34/60)於2月24日提出,報告除延續第一年報告中所列出的五大隱私優先課題 (跨國界隱私認知、安全與監督、巨量資料與開放資料、健康資料、企業擔任資料管理者議題等),主題聚焦於「情報蒐集」行為的監督,將政府監督行為歸類為十項: 基於使用國際化、標準化的術語和語言而有監督必要; 基於了解國家體系、體系比較之監督必要,以秘密(secretive)或公開形式進行; 促進、保護基本人權之相關措施; 保障與救濟措施(隱私特別報告員建議採國際性層次); 責任與透明度; 為蒐集、討論實務實踐狀況; 對政府監督行為之進一步討論; 尋求與公民溝通管道; 基於放寬安全部門、執法機關秘密性監督之必要; 基於對政府監督議題之公共論壇需求。   期中報告對現階段政府監督行為以隱私友善(privacy-friendly)立場出發,總結後續推動方向如下: 為何民粹主義(polulism)、隱私兩議題與安全議題會產生衝突; 國家如何透過監督情報增進隱私保護; 誰有權主張隱私權,隱私權的普世性(universality)於政府監督行為具特別意義; 隱私權如何透過內國法、國際法的推動而更加落實; 透過更廣泛討論,關於監督的法律文件及相關國際法規範可期待成熟發展。

日本發布《資料品質管理指引》,強調歷程存證與溯源,建構可信任AI透明度

2025年12月,日本人工智慧安全研究所(AI Safety Institute,下稱AISI)與日本獨立行政法人情報處理推進機構(Information-technology Promotion Agency Japan,下稱IPA)共同發布《資料品質管理指引》(Data Quality Management Guidebook)。此指引旨於協助組織落實資料品質管理,以最大化資料與AI的價值。指引指出AI加劇了「垃圾進,垃圾出(Garbage in, Garbage out)」的難題,資料品質將直接影響AI的產出。因此,為確保AI服務的準確性、可靠性與安全性,《資料品質管理指引》將AI所涉及的資料,以資料生命週期分為8個階段,並特別強調透過資料溯源,方能建立透明且可檢核的資料軌跡。 1.資料規劃階段:組織高層應界定資料蒐集與利用之目的,並具體說明組織之AI資料生命週期之各階段管理機制。 2.資料獲取階段:此步驟涉及生成、蒐集及從外部系統或實體取得資料,應優先從可靠的來源獲取AI模型的訓練資料,並明確記錄後設資料(Metadata)。後設資料指紀錄原始資料及資料歷程之相關資訊,包含資料的創建、轉檔(transformation)、傳輸及使用情況。因此,需要記錄資料的創建者、修改者或使用者,以及前述操作情況發生的時間點與操作方式。透過強化來源透明度,確保訓練資料進入AI系統時,即具備可驗證的信任基礎。 3.資料準備階段:重點在於AI標註(Labeling)品質管理,標註若不一致,將影響AI模型的準確性。此階段需執行資料清理,即刪除重複的資料、修正錯誤的資料內容,並持續補充後設資料。此外,可添加浮水印(Watermarking)以確保資料真實性與保護智慧財產權。 4.資料處理階段(Data Processing):建立即時監控及異常通報機制,以解決先前階段未發現的資料不一致、錯漏等資料品質問題。 5.AI系統建置與運作階段:導入RAG(檢索增強生成)技術,檢索更多具參考性的資料來源,以提升AI系統之可靠性,並應從AI的訓練資料中排除可能涉及個人資料或機密資訊外洩的內容。 6. AI產出之評估階段(Evaluation of Output):為確保產出內容準確,建議使用政府公開資料等具權威性資料來源(Authoritative Source of Truth, ASOT)作為評估資料集,搭配時間戳記用以查核參考資料的時效性(Currentness),避免AI採用過時的資料。 7.AI產出結果之交付階段(Deliver the Result):向使用者提供機器可讀的格式與後設資料,以便使用者透過後設資料檢查AI產出結果之來源依據,增進透明度與使用者信任。 8.停止使用階段(Decommissioning):當資料過時,應明確標示停止使用,若採取刪除,應留存刪除紀錄,確保留存完整的資料生命週期紀錄。 日本《資料品質管理指引》強調,完整的資料生命週期管理、強化溯源為AI安全與創新的基礎,有助組織確認內容準確性、決策歷程透明,方能最大化AI所帶來的價值。而我國企業可參考資策會科法所創意智財中心發布之《重要數位資料治理暨管理制度規範(EDGS)》,同樣強調從源頭開始保護資料,歷程存證與溯源為關鍵,有助於組織把控資料品質、放大AI價值。 本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。 本文同步刊登於TIPS網站(https://www.tips.org.tw)

少年受好萊塢電影影響,網路詐騙超過25萬英謗

  電影「神鬼交鋒」(Catch Me If You Can)中,李奧納多飾演的法蘭克阿巴內二世,從16歲開始喬裝為飛機副駕駛、醫師及律師等專業人士,並利用偽造的支票,在數年之間詐取了數百萬美元。電影中所描繪的場景,如今卻在網路世界中真實上演。英國一名現年16歲的青少年,從13歲開始透過網路招搖撞騙,三年來得手的金額高達25萬英鎊。在其落網之後,少年表示之所以從事詐騙,正是受到好萊塢電影的影響。   住在英國的16歲少年,13歲時憑藉著母親遺留的16000英鎊,虛設了第一家網路公司,並對外販售遠低於市場行情甚多的電漿電視。由於網友訂單踴躍,少年還進一步在倫敦市區承租辦公室,並聘請了兩名員工處理訂單。然而大批的買家從未收到訂購的電漿電視,少年除一聲不響地捲走了全部的貨款外,還積欠了所有的辦公室租金及員工薪水。   在食髓知味之下,少年緊接著承租第二間辦公室欲再次如法泡製,但在得手後溜之大吉前為房東報警查獲,不可思議的是少年獲得交保後隨即於網路上開設另一家虛擬文具行繼續詐騙,直到最近終於為警方逮捕。總計少年在這些年來詐騙所得超過25萬英鎊,遭其詐騙者,甚至包括了英國知名的哈洛德百貨(Harrods)。目前少年正面臨詐欺及其他罪名的控訴。

歐盟執委會提出「具可信度之人工智慧倫理指引」

  歐盟執委會人工智慧高級專家小組(High-Level Expert Group on Artificial Intelligence)於2019年4月8日公布「具可信度之人工智慧倫理指引」(Ethics Guidelines For Trustworthy AI)。該指引首先指出,具可信度之人工智慧需具備三個關鍵特徵:(1)合法(Lawful):應遵守所有適用於人工智慧之法規;(2)合乎倫理(Ethical):確保人工智慧符合倫理原則與價值;(3)健全(Robust):自技術與社會層面觀之,避免人工智慧於無意間造成傷害。   該指引並進一步指出人工智慧應遵守以下四項倫理原則: (1) 尊重人類之自主權(Respect for Human Autonomy):歐盟之核心價值在於尊重人類之自由與自主,與人工智慧系統互動之個人,仍應享有充分且有效之自我決定空間。因此,人工智慧之運用,不應脅迫、欺騙或操縱人類,人工智慧應被設計為輔助與增強人類之社會文化技能與認知。 (2) 避免傷害(Prevention of Harm):人工智慧不應對人類造成不利之影響,亦不應加劇既有的衝突或傷害。人工智慧之系統運行環境應具備安全性,技術上則應健全,且確保不會被惡意濫用。此外,弱勢族群應於人工智慧運用中受到更多關注,並被視為服務對象。 (3) 公平(Fairness):人工智慧系統之開發、布建與利用,必須具備公平性。除了透過實質承諾與規範,進行平等與公正之利益與成本分配外,亦須透過救濟程序確保個人或特定族群不受到歧視與偏見之侵害,並可對人工智慧之自動化決策結果提出質疑,且獲得有效之補救。 (4) 可解釋性(Explicability):人工智慧應盡量避免黑箱(Black Box)決策,其系統處理程序須公開透明,並盡可能使相關決策結果具備可解釋性,分析特定訊息可能導致之決策結果,此外亦需具備可溯性且可接受審核。

TOP