澳洲聯邦法院於2023年11月16日宣告著名速食餐飲公司McD Asia Pacific LLC (後稱McDonald's)指控Hungry Jack's Pty Ltd(Burger King Corporation特許經營者,後稱Hungry Jack's)商標侵權的審判結果,確認Hungry Jack's的「BIG JACK」和「MEGA JACK」商標與McDonald's的「BIG MAC」和「MEGA MAC」商標並無誤導性之近似性,考量商標之間的外觀、發音和含義等具有顯著性差異且能夠避免對消費者造成混淆,而判決Hungry Jack's的商標使用並未侵犯McDonald's的商標權。
美國漢堡巨頭McDonald's自1971年開始在澳洲運營並銷售「BIG MAC」漢堡。這起案件始於McDonald's公司於2020年提出的指控,聲稱Hungry Jack's於該年推出並使用的「BIG JACK」和「MEGA JACK」商標與其註冊的「BIG MAC」和「MEGA MAC」商標極為相似,可能導致消費者混淆,損害其商標權益。然而,Hungry Jack's反駁了這一指控,主張其商標「BIG JACK」和「MEGA JACK」在外觀、聲音和涵義上與McDonald's的「BIG MAC」和「MEGA MAC」存在顯著差異,並提出了獨特的市場定位和行銷策略。
聯邦法院指出,McDonald's公司聲稱Hungry Jack's的「BIG JACK」和「MEGA JACK」商標使用侵犯了其商標權,但卻未能提供足夠的證據來支持這一主張。法院特別關注商標在外觀、聲音和含義上的差異,並考慮了它們在市場上的實際使用情況。雖然兩者可能在某些方面顯示出相似性,例如名稱中都包含了「BIG」與「MEGA」,但綜合考慮後,法院發現Hungry Jack's的「BIG JACK」和「MEGA JACK」商標與McDonald's的「BIG MAC」和「MEGA MAC」商標之間,包括外觀風格、字體設計和商業標識等方面存在顯著差異,並未達到引起混淆或誤導的程度。因此,基於對雙方商標相似性的詳細分析和法律準則的適用,最終判定Hungry Jack's的「BIG JACK」和「MEGA JACK」商標使用未對McDonald's商標構成侵權。
本案突顯商標管理在品牌企業發展中的關鍵性。企業應定期檢視品牌商標使用情形與辨識侵權他人或被他人侵權等潛在風險,並適合維權等管制措施以及時保護自身的商標權益,確保品牌在市場中的競爭力。
本文同步刊登於TIPS網站(https://www.tips.org.tw/)
美國運輸部(Department of Transportation)於2018年10月4日公布「自駕車3.0政策文件」(Preparing for the Future of Transportation: Automated Vehicles 3.0)」,提出聯邦政府六項自駕車策略原則: 安全優先:運輸部將致力於確認可能之安全風險,並促進自駕車可帶來之益處,並加強公眾信心。 技術中立:運輸部將會依彈性且技術中立之策略,促進自駕車競爭與創新。 法令的與時俱進:運輸部將會檢討並修正無法因應自駕車發展之交通法令,以避免對自駕車發展產生不必要之阻礙。 法令與基礎環境的一致性:運輸部將致力於讓法規環境與自駕車運作環境於全國具備一致性。 主動積極:運輸部將主動提供各種協助,以建構動態且具彈性之自駕車未來,亦將針對車聯網等相關補充性技術進行準備。 保障並促進自由:運輸部將確保美國民眾之駕駛自由,並支持透過自駕科技來增進安全與弱勢族群之移動便利,進而促進個人自由。 「自駕車3.0政策文件」並建立五個策略,包括利益相關人參與、典範實務(best practice)、自願性標準、目標研究(Targeted research)與規範現代化等,配合以上原則進行。美國運輸部並肯認其先前提出之「安全願景2.0(A Vision for Safety)」中之安全性架構,並鼓勵技術與服務開發商持續遵循自願性之安全評估,並重申將依循自我認證(self-certification)而非特定認證管制途徑,以促進規範之彈性。
內政部、經濟部發佈「新建建築物節約能源設計標準」,自七月一日施行 簡介日本「u-Japan政策」 歐盟提出人工智慧法律調和規則草案歐盟執委會(European Commission)於2021年4月21日提出「人工智慧法律調和規則草案」(Proposal for a Regulation Laying Down Harmonised Rules on Artificial Intelligence (Artificial Intelligence Act) and Amending Certain Union Legislative Acts)(簡稱AI規則草案),旨在平衡「AI運用所帶來的優勢」與「AI對個人或社會所帶來的潛在負面衝擊」,促使會員國在發展及運用AI時,能採取協調一致的態度及方法,共同維護歐洲公民基本權利與歐盟價值。 歐盟自2019年起即倡議發展「值得信賴的AI」(Trustworthy AI)。AI規則草案之提出,除了落實執委會2019年至2024年之政策願景外,亦呼應2020年歐洲議會(European Parliament)之建議—針對AI應用之機會與利益採取立法行動,並確保合乎倫理原則。惟鑒於歐盟在環境、健康、公共事務、金融、交通、農業等領域對AI應用之高度需求,以及企業仰賴AI技術提升競爭優勢等因素,執委會係以「風險為基礎」之概念取向(risk-based approach)制定AI規則草案,避免對新技術發展造成不必要的限制或阻礙。 本規則草案將AI系統,依其「對歐盟基本權利或價值所創造的風險程度」,分為下列三種類型,並施以不同程度的監理方式: 一、不可接受之風險:原則上禁止使用此類型AI系統或使其進入歐盟市場。例如:利用潛意識技術操控個人、在公共場合利用「即時遠端生物辨識系統」進行執法、公務機關普遍對個人進行社會評分等。 二、高風險:於附錄中列出所謂高風險AI系統,要求高風險AI系統之提供者遵循風險管理、資料治理、文件紀錄保存、透明性與資訊揭露、人為監督、健全性、準確性與資安等要求;且AI系統進入歐盟市場前,需進行符合性評估(conformity assessment),進入市場後,則需持續監控。 三、非不可接受之風險亦非高風險:鼓勵AI系統提供者或使用者,自願建立行為準則(codes of conduct)。 AI規則草案亦鼓勵會員國建立AI監理沙盒(regulatory sandbox)機制,且以中小企業、新創公司為優先對象,使創新AI系統進入市場之前,能於可控環境中依明確計畫進行開發、測試與驗證。