宣傳板畫上商標及「即將開業」 Chanel控訴藝術展侵權

  奢侈品牌Chanel即將在加拿大郊區開設新的據點?在2014.05,一個嶄新的Chanel即將在此營業的招牌顯立在加拿大東丹佛區。

  原來,這是一個名為丹佛藝術節(Art of the Danforth)即將於2014.05.11展開,在東丹佛舉辦、超過20個展覽作品的大型免費的公眾藝術活動。藝術節總監Asad Raza表示,這個展品由藝術家Mahmood Popal負責構思,期望能藉此探討「去高檔化」議題,並透過展品「抓住第一間奢侈品店進入尋常百姓家的一刻」。因此,在一塊黑色大型展板上,畫上Chanel的商標和名稱,並寫上「即將開業」字樣。而這樣的表現方式,並未有實際銷售或與Chanel競爭的目的,僅僅是作為一個豎立在地面上的裝置藝術。

  對此,Chanel加拿大發言人表示,Chanel即代表了其品牌精神、價值及形象,如果任何人有需要使用,應事先知會Chanel,並獲得Chanel授權同意:「我們希望在使用前應要向我們提出詢問,主要是為了確保這樣的使用方式或內容符合Chanel的品牌價值、形象、及企業願景。此外,Chanel標識之使用有一定的規範,從不會以其他的變動方式去使用Chanel標識,避免發生減損Chanel的品牌形象的情況。舉例來說,我們從來不使用這個標誌的方式與雙“C”以上的香奈兒標誌。如果使用人在用之前,可以事先與我們做溝通,我們也可以進行相關的控制,並使它看起來更真實。」

  針對本件的使用,Chanel加拿大發言人事後表示,當確定是公共藝術的使用時,就未採取相關的訴訟措施,但如果未獲授權使用品牌Chanel的商標而有侵權情形時,將會考慮提起訴訟。

相關連結
※ 宣傳板畫上商標及「即將開業」 Chanel控訴藝術展侵權, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=6550&no=67&tp=1 (最後瀏覽日:2026/05/12)
引註此篇文章
你可能還會想看
歐盟資通安全局發布《物聯網安全準則-安全的物聯網供應鏈》

  歐盟資通安全局(European Union Agency for Cybersecurity, ENISA)於2020年11月發布《物聯網安全準則-安全的物聯網供應鏈》(Guidelines for Securing the IoT – Secure Supply Chain for IoT),旨在解決IoT供應鏈安全性的相關資安挑戰,幫助IoT設備供應鏈中的所有利害關係人,在構建或評估IoT技術時作出更好的安全決策。   本文件分析IoT供應鏈各個不同階段的重要資安議題,包括概念構想階段、開發階段、生產製造階段、使用階段及退場階段等。概念構想階段對於建立基本安全基礎非常重要,應兼顧實體安全和網路安全。開發階段包含軟體和硬體,生產階段涉及複雜的上下游供應鏈,此二階段因參與者眾多,觸及的資安議題也相當複雜。例如駭客藉由植入惡意程式,進行違背系統預設用途的其他行為;或是因為舊版本的系統無法隨技術的推展進行更新,而產生系統漏洞。於使用階段,開發人員應與使用者緊密合作,持續監督IoT設備使用安全。退場階段則需要安全地處理IoT設備所蒐集的資料,以及考慮電子設備回收可能造成大量汙染的問題。   總體而言,解決IoT資安問題,需要各個利害關係人彼此建立信賴關係,並進一步培養網路安全相關專業知識。在產品設計上則須遵守現有共通的安全性原則,並對產品設計保持透明性,以符合資安要求。

智慧城市-「智慧城市世界大會展覽」暨歐盟政策

  今年11月17日到19日為期三天的第五屆「智慧城市世界大會展覽(Smart City Expo World Congress)-都會平台(Urban Platforms):串聯資料數據以及城市之間的連結」於西班牙巴塞隆納舉行。該大會凝聚了世界500個城市、450個參展單位,以及400位講者於一堂,主要觸及了城市如何因應大量成長的數據、從新的管理方式中,要如何以及在哪裡得到價值,以及在加速城市中的都會平台過程中,要付出什麼樣的代價等議題。   今年度的大會展覽令人耳目一新的創新作品包括:綠色環保無人駕駛小公車、提醒視力受損者,道路上有障礙物的智慧應用程式、能夠辨識在範圍內的射擊,並且精準地指出事件發生地點的麥克風系統,還有其他諸如無人飛機、物流和都會區內遞送服務等等創意新點子。   「智慧城市」一詞,意味著一個能夠合於未來發展的都會,同時轉變為一個可以在提升資源以及能源效率的同時,還能夠減少對於生態衝擊的環境。而歐洲的智慧城市發展,主要是在「歐洲2020戰略」(Europe 2020)中,由歐盟執行委員會所實施的「歐洲創新夥伴計畫」(The European Innovation Partnership, EIP)帶領歐洲倡議都會平台於以下三個交互運作的活動以及發展:(一)以城市需求為導向的發展,使得能快速地適應都會平台;(二)由備忘錄(Memorandum of Understanding, MoU)所鞏固的供給導向發展;(三)在信任的基礎上所建立的標準化導向發展。   歐盟於2011年6月公布的「智慧城市與社群歐洲創新夥伴計畫」(The European Innovation Partnership on Smart Cities and Communities, EIP-SCC)目的是為了要將城市、企業與市民結合起來,共同藉由永續的解決方案,來改善都會城市現有的問題,並提升城市的整體生活。此計畫期許以資通訊科技(Information and Communication Technology, ICT)、能源與交通管理的結合,共同提出創新的解決方案,為今日歐洲城市面對來自於環境、社會與健康等挑戰進行解套,計畫發展核心包含開放資料(Open Data)、商業模式(Business Models)、政策與法規(Policy and Regulation)、能源效率與低碳解決方案(Energy Efficiency and Low Carbon Solutions)、財政金融與採購(Finance and Procurement)、都會移動(Urban Mobility)、能源整合網絡(Integrated Energy Networks)等。   從歐盟所發展的大戰略計畫,到今年第五年的「智慧城市世界大會展覽」,明顯嶄露出歐盟在積極推動經濟發展的同時,帶著永續環境的思維,這是之所以歐盟能持續引領歐洲,甚至世界未來發展趨勢的關鍵原因。

歐洲議會近日通過《數位營運韌性法案》,堅守數位金融市場安全

  為因應金融產業數位化及鼓勵金融業創新,並在打造歐盟金融業競爭之同時,確保消費者之保護及金融市場之穩定,歐盟執委會於2020年9月間通過「數位金融整體計畫」(Digital Finance Package),該計劃包含之項目十分廣泛,建構了歐盟未來對於數位金融市場之整體性立法框架。   而2022年11月甫通過之「數位營運韌性法案」 (Digital Operational Resilience Act, DORA)便是數位金融整體計畫中之一分支,該法案預計將於2025年生效。有鑑於過去歐盟會員國各自對資通安全事件行動效果有限,且國家措施之不同調導致重疊、不一致、重複之要求而產生高昂之行政和法遵成本,此情況分裂了單一市場,破壞了歐盟金融機構之穩定性和完整性,並危及消費者和投資者保護,遂有本法案之誕生。   本法案主要之訂定目的在於建立資通安全事件之要求標準及通報流程機制以加強銀行、保險業、投信投顧等金融業者之資通安全,使其面臨網路攻擊時,能保有韌性及恢復力,並維持正常之營運狀態。具體而言,本法案為促金融業者達成高度數位經營韌性之統一要求,遂要求金融業者採取以下手段:   (一)資通風險管理監控   (二)資通事件之報告及建立於自願基礎上之重大網路威脅通報   (三)向主管機關通報重大營運或支付安全有關之事件   (四)數位營運韌性檢測   (五)有關網路威脅或漏洞有關之資訊情報共享   (六)健全控管對第三方資通技術供應者之機制。   總地而論,本法案透過建立歐盟統一之資通安全事件通報原則及營運韌性檢測標準等方式加強歐盟之眾金融機構在受網路攻擊之應對能力,且將可避免過去各國間無法取得共識,金融機構於發生資通安全事件時手足無措之窘境,值得讚許,或可為我國未來借鏡採納。

用ChatGPT找法院判決?從Roberto Mata v. Avianca, Inc.案淺析生成式AI之侷限

用ChatGPT找法院判決?從Roberto Mata v. Avianca, Inc.案淺析生成式AI之侷限 資訊工業策進會科技法律研究所 2023年09月08日 生成式AI是透過研究過去資料,以創造新內容和想法的AI技術,其應用領域包括文字、圖像及影音。以ChatGPT為例,OpenAI自2022年11月30日發布ChatGPT後,短短二個月內,全球月均用戶數即達到1億人,無疑成為民眾日常生活中最容易近用的AI科技。 惟,生成式AI大量使用後,其中的問題也逐漸浮現。例如,ChatGPT提供的回答僅是從所學習的資料中統整歸納,無法保證資料的正確性。Roberto Mata v. Avianca, Inc.案即是因律師利用ChatGPT撰寫訴狀,卻未重新審視其所提供判決之正確性,以致後續引發訴狀中所描述的判決不存在爭議。 壹、事件摘要 Roberto Mata v. Avianca, Inc.案[1]中,原告Roberto Mata於2019年8月搭乘哥倫比亞航空從薩爾瓦多飛往紐約,飛行過程中膝蓋遭空服員的推車撞傷,並於2022年2月向法院提起訴訟,要求哥倫比亞航空為空服員的疏失作出賠償;哥倫比亞航空則主張已超過《蒙特婁公約》(Montreal Convention)第35條所訂之航空器抵達日起兩年內向法院提出損害賠償之請求時效。 R然而,法院審理過程中發現原告訴狀內引用之六個判決無法從判決系統中查詢,進而質疑判決之真實性。原告律師Steven A. Schwartz因而坦承訴狀中引用的六個判決是ChatGPT所提供,並宣稱針對ChatGPT所提供的判決,曾多次向ChatGPT確認該判決之正確性[2]。 貳、生成式AI應用之潛在風險 雖然運用生成式AI技術並結合自身專業知識執行特定任務,可能有助於提升效率,惟,從前述Roberto Mata v. Avianca, Inc.案亦可看出,依目前生成式AI技術之發展,仍可能產生資訊正確性疑慮。以下彙整生成式AI應用之8大潛在風險[3]: 一、能源使用及對環境危害 相較於傳統機器學習,生成式AI模型訓練將耗費更多運算資源與能源。根據波士頓大學電腦科學系Kate Saenko副教授表示,OpenAI的GPT-3模型擁有1,750億個參數,約會消耗1,287兆瓦/時的電力,並排放552噸二氧化碳。亦即,每當向生成式AI下一個指令,其所消耗的能源量相較於一般搜尋引擎將可能高出4至5倍[4]。 二、能力超出預期(Capability Overhang) 運算系統的黑盒子可能發展出超乎開發人員或使用者想像的隱藏功能,此發展將會對人類帶來新的助力還是成為危險的阻力,則會隨著使用者之間的相互作用而定。 三、輸出結果有偏見 生成式AI通常是利用公開資料進行訓練,若輸入資料在訓練時未受監督,而帶有真實世界既存的刻板印象(如語言、種族、性別、性取向、能力、文化等),據此建立之AI模型輸出結果可能帶有偏見。 四、智慧財產權疑慮 生成式AI進行模型訓練時,需仰賴大量網路資料或從其他大型資料庫蒐集訓練資料。然而,若原始資料來源不明確,可能引發取得資料未經同意或違反授權條款之疑慮,導致生成的內容存在侵權風險。 五、缺乏驗證事實功能 生成式AI時常提供看似正確卻與實際情形不符的回覆,若使用者誤信該答案即可能帶來風險。另外,生成式AI屬於持續動態發展的資訊生態系統,當產出結果有偏誤時,若沒有大規模的人為干預恐難以有效解決此問題。 六、數位犯罪增加與資安攻擊 過去由人工產製的釣魚郵件或網站可能受限於技術限制而容易被識破,然而,生成式AI能夠快速建立具高度說服力的各種擬真資料,降低詐騙的進入門檻。又,駭客亦有可能在不熟悉技術的情況下,利用AI進一步找出資安弱點或攻擊方法,增加防禦難度。 七、敏感資料外洩 使用雲端服務提供商所建立的生成式AI時,由於輸入的資料存儲於外部伺服器,若要追蹤或刪除有一定難度,若遭有心人士利用而導致濫用、攻擊或竄改,將可能產生資料外洩的風險。 八、影子AI(Shadow AI) 影子AI係指開發者未知或無法控制之AI使用情境。隨著AI模型複雜性增加,若開發人員與使用者未進行充分溝通,或使用者在未經充分指導下使用 AI 工具,將可能產生無法預期之風險。 參、事件評析 在Roberto Mata v. Avianca, Inc.案中,法院關注的焦點在於律師的行為,而非對AI技術使用的批判。法院認為,隨著技術的進步,利用可信賴的AI工具作為協助用途並無不當,惟,律師應踐行其專業素養,確保所提交文件之正確性[5]。 當AI科技發展逐漸朝向自主與獨立的方向前進,仍需注意生成式AI使用上之侷限。當個人在使用生成式AI時,需具備獨立思考判斷的能力,並驗證產出結果之正確性,不宜全盤接受生成式AI提供之回答。針對企業或具高度專業領域人士使用生成式AI時,除確認結果正確性外,更需注意資料保護及治理議題,例如建立AI工具合理使用情境及加強員工使用相關工具之教育訓練。在成本能負擔的情況下,可選擇透過企業內部的基礎設施訓練AI模型,或是在訓練模型前確保敏感資料已經加密或匿名。並應注意自身行業領域相關法規之更新或頒布,以適時調整資料使用之方式。 雖目前生成式AI仍有其使用之侷限,仍應抱持開放的態度,在技術使用與風險預防之間取得平衡,以能夠在技術發展的同時,更好地學習新興科技工具之使用。 [1]Mata v. Avianca, Inc., 1:22-cv-01461, (S.D.N.Y.). [2]Benjamin Weiser, Here’s What Happens When Your Lawyer Uses ChatGPT, The New York Times, May 27, 2023, https://www.nytimes.com/2023/05/27/nyregion/avianca-airline-lawsuit-chatgpt.html (last visited Aug. 4, 2023). [3]Boston Consulting Group [BCG], The CEO’s Roadmap on Generative AI (Mar. 2023), https://media-publications.bcg.com/BCG-Executive-Perspectives-CEOs-Roadmap-on-Generative-AI.pdf (last visited Aug. 29, 2023). [4]Kate Saenko, Is generative AI bad for the environment? A computer scientist explains the carbon footprint of ChatGPT and its cousins, The Conversation (May 23, 2023.), https://theconversation.com/is-generative-ai-bad-for-the-environment-a-computer-scientist-explains-the-carbon-footprint-of-chatgpt-and-its-cousins-204096 (last visited Sep. 7, 2023). [5]Robert Lufrano, ChatGPT and the Limits of AI in Legal Research, National Law Review, Volume XIII, Number 195 (Mar. 2023), https://www.natlawreview.com/article/chatgpt-and-limits-ai-legal-research (last visited Aug. 29, 2023).

TOP