美國流行歌手Katy Perry遭澳洲時尚設計師Katie Perry控訴侵犯其澳洲商標權

  澳洲時尚設計師Katie Perry(婚後從夫姓為Katie Taylor,後稱為設計師Katie)於2006年推出休閒服飾品牌,並以本名「Katie Perry」作為文字商標於2008年9月29日提出澳洲商標申請,儘管在申請過程中設計師Katie曾接獲美國知名流行歌手Katy Perry律師所提出之異議,企圖讓設計師Katie撤回該商標申請,然而最終設計師Katie仍取得該商標權。

  此爭議之關鍵在歌手Katy Perry(後稱為歌手Katy)於2009年推出以「Katy Perry Collections」為名之流行服飾與鞋品等系列產品,並於澳洲Myer百貨及Target賣場等通路販售。設計師Katie認為歌手Katy忽視其澳洲商標權並於澳洲持續販售非法商品,因此於近期對歌手Katy(本名為Kathryn Elizabeth Hudson)及其所屬公司Killer Queen LLC提出告訴,同時澳洲聯邦法院於今(2019)年11月21日進行初審。

  過去,在音樂界也曾有類似「撞名」的事件發生,例如:傑克·懷特(Jack White)所屬樂團「The Raconteurs」在2006年發行專輯後,發現「撞名」澳洲同名爵士樂團,便自行將在澳洲當地發行唱片或巡迴時所使用之團名改為「The Saboteurs」;此外,在1978年美國蘋果電腦(Apple Computers)受到英國樂團The Beatles成立之音樂公司─蘋果集團(Apple Corps)所提出之商標侵權訴訟,該爭議在三年後蘋果電腦以美金$80,000庭外和解作為持續使用公司名字之代價,且同意往後不會將業務擴及音樂相關事業;然而多年後,蘋果電腦發展數位音樂並推出iTunes等業務,再度於2006年掀起兩蘋果公司之訴訟,不斷演進的市場環境將成為兩公司交易條件之依據,或許這也能作為歌手Katy律師團借鏡之案例。

「本文同步刊登於TIPS網站(https://www.tips.org.tw)」

相關連結
你可能會想參加
※ 美國流行歌手Katy Perry遭澳洲時尚設計師Katie Perry控訴侵犯其澳洲商標權, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8353&no=67&tp=1 (最後瀏覽日:2026/01/25)
引註此篇文章
你可能還會想看
歐盟考慮設立中央網路犯罪防制機構

  歐盟部長理事會(Council of Ministers)已於今(2010)年4月27日要求執委會檢視其網路犯罪防制目標,並調查是否有需要設立一中央機構,以儘速達成下列幾項目標,包括:提高調查人員、檢察官、法官及法院相關人員的專業標準、鼓勵各國警方資訊分享以及協調歐盟27個會員國間打擊網路犯罪所採取之方式。   部長理事會提議由執委會進行設立專責機構之可行性調查研究,擬由該專責機構負責前述目標之達成,亦須評估並監督預防性與調查性措施之實行。該調查研究中應特別考量欲設立專責機構之目的、範圍及可能的經費來源,另外亦需考慮是否將其設置於位於海牙的歐盟刑警組織(European Police Office, Europol)中。考量網路犯罪跨國界之特性,為使打擊網路犯罪之相關措施更有效,必須有良好的國際合作及司法執行互助配合。部長理事會認為藉由專責機構之設立,不僅能夠協助培訓法官、警方及檢察官,亦能做為聯繫網路使用者、受害者組織及其他私部門的常設機構。   本部長理事會將歐盟現有之網路犯罪防制相關計畫分成短、中、長期計畫,要求執委會定期追蹤各項相關計畫之執行情況,亦將設立網路犯罪防制專責機構列入執委會後續四年所持續執行有關犯罪與安全治理的斯德哥爾摩計畫(Stockholm Programme)中。   此外,部長理事會也呼籲歐盟各國追蹤用於網路犯罪之IP位置及網域名稱,同時要求執委會協助建立共通的廢止機制,以進行網路犯罪防制。   位於希臘的歐盟網路與資訊安全機構(European Network and Information Security Agency, ENISA),是現階段歐盟網路犯罪防治的研究機構,其進行資訊安全威脅行為之調查,並提供相關建議,但僅是資訊服務單位,未實際投入打擊犯罪行動。

歐盟會員國要求分享DNA資料庫

  歐盟十五個會員國為強化對抗恐怖攻擊、跨邊境犯罪及非法遷徙之國際合作,於2007年3月28日提出有關資料分享的立法草案,以期歐盟能夠建立一套資料分享的機制與架構。立法草案明確規範了各成員國就資料保護所應給予的等級,其必須保證個人資料保護必須達到與1980年歐洲理事會(Council of Europe)通過的「保護自動化處理個人資料公約(Convention for the Protection of Individuals with Regard to Automatic Processing of Personal Data)」及其於2001年通過的附加議定書相同等級。   該立法草案係根據「Prüm條約」而來,其條約簽署背景為2004年馬德里的恐怖組織炸彈攻擊事件,有鑑打擊恐怖攻擊及跨國犯罪之國際合作,歐盟七個會員國於2005年5月27日在德國、比利時及盧森堡邊境的城市Prüm,簽訂了該條約。條約中規定,簽署國之警察及刑事追訴機關執法於恐怖攻擊及跨邊境犯罪時,得向他簽署國處理相關資料之單位請求有關DNA之分析資料、指紋及相關車籍資料。   目前,歐盟資料保護監督機構(European Data Protection Supervisor)已背書支持建立該機制與架構,並且聲明表示,該架構之建立,仍應注意資料保護的相關事項,在追求資料分享更為便利的同時,應給予人民更為足夠的保護,再者,資料處理的權責單位對於不同的資料類型,也應以不同的方式處理之,越敏感性的資料越應限制其使用目的,並且讓越少人得以接觸。

美國白宮呼籲採取行動,打擊利用AI生成影像進行之性虐待行為

美國白宮於2024年5月23日公開呼籲採取行動以打擊利用AI生成性影像,及未經當事人同意傳播真實影像的性虐待行為。此次呼籲源自白宮「解決線上騷擾與虐待問題工作小組」(Task Force to Address Online Harassment and Abuse)相關行動、總統第14110號行政命令-「安全、可靠且可信任之AI開發及利用」(Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence),以及尖端AI公司自願管理AI風險之承諾(Voluntary AI Commitments)。 白宮指出,迄今為止生成式AI已淪為性虐待的主要工具,同時,涉及未經同意散布或威脅散布私人性影像,亦將對受害者造成嚴重的心理傷害。白宮呼籲相關利害關係人透過自願性承諾,預防與減輕性虐待影像之影響,如: (1)阻止性虐待影像獲利: 對於從事性虐待影像業務的網站或應用程式,支付平臺與金融機構可限制或拒絕對其提供支付服務。 (2)停止創建深偽性虐待影像 : 對於可透過AI生成性影像之網路服務或應用程式,雲端服務供應商與應用程式商店得減少此類網路服務或應用程式運作。此外,應用程式商店可要求應用程式開發人員採取措施,防止使用者製作非經當事人同意的AI生成性影像。 (3)防止散播性虐待影像: 應用程式與作業系統開發人員可啟用技術保護措施,以保護數位裝置上儲存之內容,防止未經當事人同意分享其影像。 (4)支援並參與為受害者提供有效補救措施之服務: 平臺與利害關係人可選擇與相關組織合作,使性虐待影像受害者可輕鬆且安全地從線上平臺中刪除未經同意之內容。此外,白宮亦呼籲國會修訂於2022年重新授權之「婦女暴力防制法」(Violence Against Women Act Reauthorization),延續並加強原有法律保護效力,同時為AI生成之性虐待影像的受害者提供關鍵援助資源。

經濟合作與發展組織發布《促進AI可歸責性:在生命週期中治理與管理風險以實現可信賴的AI》

經濟合作與發展組織(Organisation for Economic Co-operation and Development, OECD)於2023年2月23日發布《促進AI可歸責性:在生命週期中治理與管理風險以實現可信賴的AI》(Advancing accountability in AI: Governing and managing risks throughout the lifecycle for trustworthy AI)。本報告整合ISO 31000:2018風險管理框架(risk-management framework)、美國國家標準暨技術研究院(National Institute of Standards and Technology, NIST)人工智慧風險管理框架(Artificial Intelligence Risk Management Framework, AI RMF)與OECD負責任商業行為之盡職調查指南(OECD Due Diligence Guidance for Responsible Business Conduct)等文件,將AI風險管理分為「界定、評估、處理、治理」四個階段: 1.界定:範圍、背景、參與者和風險準則(Define: Scope, context, actors and criteria)。AI風險會因不同使用情境及環境而有差異,第一步應先界定AI系統生命週期中每個階段涉及之範圍、參與者與利害關係人,並就各角色適用適當的風險評估準則。 2.評估:識別並量測AI風險(Assess: Identify and measure AI risks)。透過識別與分析個人、整體及社會層面的問題,評估潛在風險與發生程度,並根據各項基本價值原則及評估標準進行風險量測。 3.處理:預防、減輕或停止AI風險(Treat: Prevent, mitigate, or cease AI risks)。風險處理考慮每個潛在風險的影響,並大致分為與流程相關(Process-related)及技術(Technical)之兩大處理策略。前者要求AI參與者建立系統設計開發之相關管理程序,後者則與系統技術規格相關,處理此類風險可能需重新訓練或重新評估AI模型。 4.治理:監控、紀錄、溝通、諮詢與融入(Govern: Monitor, document, communicate, consult and embed)。透過在組織中導入培養風險管理的文化,並持續監控、審查管理流程、溝通與諮詢,以及保存相關紀錄,以進行治理。治理之重要性在於能為AI風險管理流程進行外在監督,並能夠更廣泛地在不同類型的組織中建立相應機制。

TOP