美國零售商Kroger聲稱零售商Lidl註冊之新商標有混淆Kroger的知名商標之虞

  Kroger成立於1883年,在美國擁有近3000家分店,為美國最大食品雜貨零售店,其註冊商標“Private Selection”相當知名,被廣泛使用在超市、便利商店及其他各種零售商店約20多年。然而在全球擁有超過10000家分店的歐洲零售店巨頭Lidl,亦於2016年9月19日於美國註冊與“Private Selection”近似的商標“Preferred Selection”。

  對此,Kroger於Lidl在美國開立新門市不久之後,即於今(2017)年6月30日對Lidl起訴,主張Lidl的“Preferred Selection”與Kroger的“Private Selection”品牌商標太相似,Lidl於德國是以低價折扣作定位之連鎖超市,且產品曾被認定為劣質。Lidl的行為意圖混淆“Preferred Selection”與“Private Selection”,將稀釋Kroger的品牌知名度,不僅侵害商標亦將損及商譽,甚至從中牟取不當利益,導致不公平競爭。故Kroger據以向美國維吉尼亞州地方法院請求禁止Lidl販售使用“Preferred Selection”商標的產品。

  Lidl反駁認為其商標註冊已有一段時間,Kroger卻故意選其展店亮相後才大肆攻擊Lidl的新品牌,嚴重干擾Lidl的宣傳效益,更何況兩者商標名稱不同,標誌圖形的設計也不同。今年7月25日,美國維吉尼亞州地方法院法官表示,儘管品牌標誌看起來相似,但兩者並無相同或相似的含意,拒絕授予Kroger聲請之禁令。惟兩造於今年9月達成協議,請求法院駁回訴訟,而Lidl最終於今年9月12日放棄“Preferred Selection”商標權。

相關連結
你可能會想參加
※ 美國零售商Kroger聲稱零售商Lidl註冊之新商標有混淆Kroger的知名商標之虞, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=7915&no=67&tp=1 (最後瀏覽日:2026/01/03)
引註此篇文章
你可能還會想看
美國加州「Asilomar人工智慧原則決議」

  美國加州議會於2018年9月7日通過Asilomar人工智慧原則決議(23 Asilomar AI Principles, ACR-215),此決議表達加州對於「23條Asilomar人工智慧原則」之支持,以作為產業或學界發展人工智慧、政府制定人工智慧政策之指標,並提供企業開發人工智慧系統時可遵循之原則。依此法案所建立之重要指標如下: (1)於研究原則上,人工智慧之研究應以建立對於人類有利之人工智慧為目標。 (2)於研究資助上,人工智慧之研究資助應著重幾個方向,如:使人工智慧更加健全且可抵抗外界駭客干擾、使人工智慧促進人類福祉同時保留人類價值以及勞動意義、使法律制度可以順應人工智慧之發展。 (3)於科學政策之連結上,人工智慧研究者與政策擬定者間應有具有建設性且健全之資訊交流。 (4)於研究文化上,人工智慧研究者應保持合作、互信、透明之研究文化。 (5)於安全性上,人工智慧研究團隊應避免為了研究競爭而忽略人工智慧應具備之安全性。 (6)人工智慧系統應該於服務期間內皆具備安全性及可檢視性。 (7)人工智慧系統之編寫,應可使外界於其造成社會損失時檢視其出錯原因。 (8)人工智慧系統如應用於司法判斷上,應提供可供專門人員檢視之合理推論過程。 (9)人工智慧所產生之責任,應由設計者以及建造者負擔。 (10)高等人工智慧內在價值觀之設計上,應符合人類社會之價值觀。 (11)高等人工智慧之設計應可與人類之尊嚴、權利、自由以及文化差異相互調和。 (12)對於人工智慧所使用之資料,其人類所有權人享有擷取、更改以及操作之權利。 (13)人工智慧之應用不該限制人類「客觀事實上」或「主觀知覺上」之自由。 (14)人工智慧之技術應盡力滿足越多人之利益。 (15)人工智慧之經濟利益,應為整體人類所合理共享。 (16)人類對於人工智慧之內在目標應享有最終設定權限。 (17)高等人工智慧所帶來或賦予之權力,對於人類社會之基本價值觀應絕對尊重。 (18)人工智慧所產生之自動化武器之軍備競賽應被禁止。 (19)政策上對於人工智慧外來之發展程度,不應預設立場。 (20)高等人工智慧系統之研發,由於對於人類歷史社會將造成重大影響,應予以絕對慎重考量。 (21)人工智慧之運用上,應衡量其潛在風險以及可以對於社會所帶來之利益。 (22)人工智慧可不斷自我循環改善,而可快速增進運作品質,其安全標準應予以嚴格設定。 (23)對於超人工智慧或強人工智慧,應僅為全體人類福祉而發展、設計,不應僅為符合特定國家、組織而設計。

歐洲議會近日通過《數位營運韌性法案》,堅守數位金融市場安全

  為因應金融產業數位化及鼓勵金融業創新,並在打造歐盟金融業競爭之同時,確保消費者之保護及金融市場之穩定,歐盟執委會於2020年9月間通過「數位金融整體計畫」(Digital Finance Package),該計劃包含之項目十分廣泛,建構了歐盟未來對於數位金融市場之整體性立法框架。   而2022年11月甫通過之「數位營運韌性法案」 (Digital Operational Resilience Act, DORA)便是數位金融整體計畫中之一分支,該法案預計將於2025年生效。有鑑於過去歐盟會員國各自對資通安全事件行動效果有限,且國家措施之不同調導致重疊、不一致、重複之要求而產生高昂之行政和法遵成本,此情況分裂了單一市場,破壞了歐盟金融機構之穩定性和完整性,並危及消費者和投資者保護,遂有本法案之誕生。   本法案主要之訂定目的在於建立資通安全事件之要求標準及通報流程機制以加強銀行、保險業、投信投顧等金融業者之資通安全,使其面臨網路攻擊時,能保有韌性及恢復力,並維持正常之營運狀態。具體而言,本法案為促金融業者達成高度數位經營韌性之統一要求,遂要求金融業者採取以下手段:   (一)資通風險管理監控   (二)資通事件之報告及建立於自願基礎上之重大網路威脅通報   (三)向主管機關通報重大營運或支付安全有關之事件   (四)數位營運韌性檢測   (五)有關網路威脅或漏洞有關之資訊情報共享   (六)健全控管對第三方資通技術供應者之機制。   總地而論,本法案透過建立歐盟統一之資通安全事件通報原則及營運韌性檢測標準等方式加強歐盟之眾金融機構在受網路攻擊之應對能力,且將可避免過去各國間無法取得共識,金融機構於發生資通安全事件時手足無措之窘境,值得讚許,或可為我國未來借鏡採納。

美國加州日前開始審查輕量自動駕駛運輸載具應用之測試申請

  美國加州行政法辦公室(the Office of Administrative Law)於2019年12月17日宣布,根據日前通過之修訂規範,該州車輛管理局(the Department of Motor Vehicles)將審查州內公共道路上進行輕型自動駕駛(下稱自駕)運輸服務商業化應用測試之申請,換言之,業者如取得車輛管理局之核准,可以測試重量未達10,001磅之自駕運輸車輛(如一般客車、中型貨車、可載運雜貨類商品的客貨兩用車等)服務。另外,業者如欲就該自駕運輸服務收取運輸費用,則必須另向車輛管理局申請佈署(deployment)許可,即商業化或供公眾使用之許可。   不論何種自駕運輸車輛服務之測試,均須遵循現行測試、佈署之申請程序要求,並根據車輛管理局的核准內容進行有或無安全性駕駛人(safety driver)的自駕運輸服務測試,簡要整理不同規範要求如下: 如為有安全性駕駛人之測試與應用,有以下要求: 證明車輛已經曾在符合應用目的之情境(如駕駛環境)下進行測試。 維持測試駕駛人(test driver)的培訓規劃,並且證明每位測試駕駛人均完成培訓。 確保測試駕駛人維持潔淨(clean)的駕駛記錄。 確保測試駕駛人在測試期間乘坐在駕駛座上監控車輛的運行狀況,並在有需要的時候可以即時接管車輛。 須提交年度脫離(或譯為解除自駕)報告(disengagement report),且如有發生碰撞,須於10日內提交碰撞報告予車輛管理局。   如為無安全性駕駛人之測試與應用,有以下要求: 提供測試自駕運輸服務所在地方當局之書面通知以茲證明。 證明自駕測試車輛符合以下要求:   (1)車輛與遠端遙控操作者間具有通訊連結。 (2)車輛與執法部門間的通訊方式。 (3)製造商將如何監控測試車輛之說明 提交一份與執法部門如何互動交流的計畫。 證明自駕測試車輛符合聯邦機動車輛安全標準(FMVSS),或提供國家公路交通安全管理局(NHTSA)之豁免監管證明。 證明自駕測試車輛可以在沒有駕駛人存在的情況下可以自主運行,並屬於美國汽車工程師協會(SAE)標準等級4、等級5之車輛。 證明測試車輛已經曾在符合應用目的之情境(如駕駛環境)下進行測試。 通知車輛管理局將要測試營運的區域範圍。 維持遠端遙控操作相關培訓規劃,並證明每位遠端遙控操作者均完成培訓。 須提交年度脫離報告,且如有發生碰撞,須於10日內提交碰撞報告予車輛管理局。   如自駕運輸服務擬商業化或供公眾使用,申請佈署之相關要求如下: 證明車輛:   (1)配備自駕車輛資料紀錄器,此技術是根據加州車輛法規(California Vehicle Code)設計來偵測並反應道路實際狀況 (2)符合聯邦機動車輛安全標準或提供國家公路交通安全管理局之豁免監管證明。 (3)符合現行關於網路攻擊、非經授權侵入或錯誤車輛控制指令之防護、偵測與回應等產業標準。 (4)製造商曾進行測試與驗證,並有足夠信心將車輛佈署於公用道路上。 提交一份與執法部門如何互動交流的計畫複本。 如果車輛不需要駕駛員,製造商必須證明其他事項:   (1) 車輛與遠端遙控操作者間具有通訊連結。 (2) 當碰撞事故發生時,車輛可以顯示或傳輸相關資訊予車輛所有人或操作員。   綜上所述,若要在加州進行自駕運輸車輛服務測試,須視其服務型態及是否涉及佈署,以遵循不同規範要求,申言之,服務採行有無安全性駕駛人與是否商業化或供公眾使用,二者為併行關係,舉例來說,如業者擬佈署有安全性駕駛人之商業運輸服務,則須同時符合有安全性駕駛人之測試與應用以及佈署等要求。加州對於自駕車輛運輸服務商業化之措舉,值得我國借鏡以完善自駕車輛運輸應用之推動。

演算法歧視將適用於《紐澤西州反歧視法》

2025年1月9日美國紐澤西州檢查總長與民權部(Division of Civil Rights, DCR)聯合發布「演算法歧視指引」(Guidance on Algorithmic Discrimination and the New Jersey Law Against Discrimination),指出《紐澤西州反歧視法》(the New Jersey Law Against Discrimination, LAD)亦適用於基於演算法所衍生的歧視。 隨著AI技術日趨成熟,社會各領域已大量導入自動化決策工具,雖然它們能提高決策效率但也增加了歧視發生之風險。指引的目的在於闡述自動化決策工具在AI設計、訓練或部署階段可能潛藏的歧視風險,亦列舉出在各類商業實務情境中常見的自動化決策工具,並說明它們可能會如何產生演算法歧視。以下分別說明《紐澤西州反歧視法》適用範圍,以及與演算法歧視有關的行為樣態。 一、《紐澤西州反歧視法》之適用主體及適用客體 《紐澤西州反歧視法》禁止在就業、住房及公共場所等領域所發生的一切歧視行為,其適用主體相當廣泛,包含但不限於下列對象:雇主、勞工組織、就業仲介機構、房東、房地產經紀人、公共場所之經營或管理者、以及任何教唆或協助歧視行為之個人;而該法之適用客體亦有明確定義,為具有受保護特徵(如性別、族裔、身心障礙等)之自然人或法人。 此外指引特別說明,即便適用主體無意歧視、或其所使用之自動化決策工具係由第三方所開發,只要發生歧視行為依然違反《紐澤西州反歧視法》。這是因為《紐澤西州反歧視法》係針對歧視所帶來的影響進行規範,儘管無意歧視,其所帶來的影響並不一定比故意歧視還要輕微。 二、 歧視行為的三種樣態 1.差別待遇歧視 差別待遇歧視係指適用主體基於受保護特徵而對適用客體施予不同對待。舉例而言,若房東使用自動化決策工具來評估黑人潛在租戶,但不評估其他族裔的潛在租戶,則會因為其選擇性使用自動化決策工具而構成歧視。 2.差別影響歧視 差別影響歧視係指適用主體的政策或行為對適用客體造成不成比例的負面影響,且該政策或行為未能證明具有正當性、非歧視性、或不存在較少歧視性的替代方案,則該政策或行為構成歧視。例如,某商店利用臉部辨識技術來偵測過去曾有偷竊紀錄的顧客,但該系統對配戴宗教頭巾的顧客較容易產生誤判,此亦可能構成歧視。 3.未提供合理調整 合理調整係指身心障礙者、宗教信仰者、懷孕者以及哺乳者,在不會對適用主體造成過度負擔的前提下,得向其提出合理請求,以符合自身的特殊需求。以身心障礙員工為例,若雇主使用了自動化決策工具來評估員工的工作表現(例如監測員工的休息時間是否過長),在未考量合理調整的情況下,該工具可能會過度針對身心障礙員工進而構成歧視。 為減少演算法歧視發生頻率,「演算法歧視指引」特別闡述自動化決策工具可能會出現的歧視行為及歧視樣態。此份指引的另一個意義在於,縱使目前紐澤西州並沒有一部監管AI的專法,但仍可以利用現行的法律去處理AI帶來的種種問題,以利在既有的法律架構內擴充法律的解釋來回應新科技的挑戰,並達到實質管制AI的效果。

TOP