作為鄉村音樂發源地的美國田納西州,有著蓬勃的音樂產業,匯聚來自各路的表演藝術工作者,因而對相關從業者的個人公開權(Right of Publicity)保障尤為重視,早在1984年即制訂《個人權利保護法》(Personal Rights Protection Act),確保該權利不會因權利人死亡而消滅,屬於可由他人繼承之財產權,允許繼承人自由轉讓和授權,包含其姓名(Name)、肖像(Image)、形象(Likeness)之權利主張,但被繼承人之聲音仍不在權利主張的範疇。
惟現今AI深偽仿聲技術所生成之音樂亦可能侵害音樂人及藝術家的智慧財產權,因而於2024年3月21日由州長簽署《確保肖像、聲音和圖像安全法案》(Ensuring Likeness Voice and Image Security Act),簡稱貓王法案(ELVIS Act),該法案於3月7日獲得州議會兩黨一致支持,首度明確將個人公開權得主張之範圍擴及至表演者的聲音(NIL+V),其目的是為了應對AI生成音樂的突破性進展,以保護音樂創作人及表演藝術家之權利免受AI技術侵害,這是全美首部禁止他人未經授權使用或重製權利人的聲音以供訓練AI模型或生成深偽內容所制定的法律(註:加州雖已將聲音作為權利保護客體但非針對AI技術之侵害),明確規定第三人在未得本人之同意下,若意圖利用AI深偽技術生成經仿製、偽造或變造的圖片、影音、聲音等數位檔案,而後續冒用本人名義進行公開發表或公開演出詞曲創作人及表演藝術工作者之聲音或影像的行為,則須承擔相應的民事侵權行為責任,以及構成歸類在微罪的刑事犯罪,刑期最高可處11個月又29天的監禁或2,500美元以下的罰金,該法案預計於今年7月1日生效,且僅適用於在田納西州境內的工作者。
該法案所保護之主體除音樂創作人及表演藝術家外,亦包含動畫配音員及串流媒體盛行下廣播與網路節目的播音員(俗稱播客),以確保這類主要仰賴聲音維生的工作者能免於AI仿聲技術而減損其專業價值;另外若有與詞曲創作人或表演藝術工作者締結專屬合約之唱片公司或經紀公司亦為訴訟程序的適格當事人,可代理公司旗下的工作者尋求救濟管道;最後,若利用權利人的姓名(Name)、肖像(Image)、形象(Likeness)或聲音(Voice)屬於法案中列舉的合理使用行為,如基於公益目的、新聞播報、轉化性使用、偶然入鏡或著作之附帶性利用等,則應屬美國憲法第一修正案之保障範圍而非在該法案的規範射程。
除田納西州之外,美國尚有其他39個州提出或正在推動相似的法案,但全美目前仍欠缺統一性的立法;聯邦政府仍尚在研擬如何保護表演藝術工作者個人公開權的階段,日前在田納西州政府今年1月時提出貓王法案的草案後不久,由美國眾議院議員組成的跨黨派小組曾公佈《禁止人工智慧偽造和未經授權的重製法案》(或稱為《禁止人工智慧詐欺法案》),旨在推動建立聯邦層級的框架性立法,以確保個人的聲音或肖像權屬美國憲法第一修正案的保障範圍,而該提案據稱是針對美國參議院去年10月提出的《鼓勵原創、培育藝術和維繫安全娛樂法案》(或稱為《禁止仿冒法案》)的更新及補充,以維護公共利益,創造具有原創性、正當性及安全性的休閒娛樂環境。
歷經多年的討論與僵持後,歐盟各國領袖於2012年6月29日宣布同意建立歐盟單一專利制度,並決定將單一專利法院分別設置於巴黎、倫敦與慕尼黑三個城市。 專利法院的設置地點一直為建立歐盟單一專利制度的最後爭議點,包括英國、德國與法國一直積極爭取單一專利法院設立在他們國家,最後於6月29日終於達成妥協,將單一專利法院分成三個地點:第一審法院中央部門之主要位置將設立於法國巴黎,而法院的第一任院長也將會由法國人擔任,英國倫敦及德國慕尼黑也將分別設立部門,以因應專利訴訟案件的特殊性質,英國倫敦將負責處理跟化學藥學生命科學相關之專利案件,德國慕尼黑則負責處理跟機械工程相關之專利案件。而歐盟單一專利的核發將由歐洲專利局(European Patent Office)負責。 單一專利制度協議僅有25個歐盟國家同意,西班牙及義大利目前選擇不加入,原因是這兩個國家不滿西班牙文及義大利文都沒有被納入為單一專利制度之官方語言,只有法文、德文及英文被訂為單一專利制度之官方語言,西班牙及義大利認為這樣的安排將為位於法國德國及英國的企業帶來不公平的優勢。 此項協議現在將進入歐盟議會進行表決,預計於2014年就可以開始核發歐盟單一專利。
歐盟通過化妝品上市與安全新規則,惟德國對內含奈米物質產品標示規範表達不同意見於去年(2009)年11月20日,歐盟會員國通過了一項關於化妝品上市與安全相關的新規則(REGULATION OF THE EUROPEAN PARLIAMENT AND OF THE COUNCIL on cosmetic products,以下簡稱化妝品規則),該項規則也將歐盟過往用以規範化妝品的55項指令化整為零,成為一項單一且更具法律拘束力之規範。 化妝品規則中前言中也特別肯認奈米物質於化妝品之應用為未來趨勢,而有必要於消費者保護、貨物自由流通以及對於製造商之法律確定性之間取得一衡平作法。針對此種內含奈米物質化妝品之管理,該規則也十分重視對產品內含奈米物質之事實提供資訊之義務。以標示為例,化妝品規則第19條針對此等化妝品,要求以「nano」字樣標明於包裝上之成分標示。值得注意的是,德國針對是項條款於去年(2009)年11月17日於歐盟理事會之官方文件中表達不同意見。認為此種標示可能被消費者誤解為一警告標示,且亦強調市售的化妝品皆屬通過嚴格的安全測試者,此也表示對內含奈米級物質之化妝品不應再給予額外的檢視。其也認為消費者對於奈米物質所關切之重點,應為此等奈米物質對產品之特性所生之改變,而非產品中是否含有奈米物質。 在歐盟綠黨成員和環保遊說團體針對奈米科技刻正鼓吹「沒有數據,就不得上市」原則之際,該項原則將加重業者證明自身產品安全無虞之舉證責任,業者也擔心該項原則將導致市面上有數百種產品自市場中下架,而德國上述聲明的意見,似乎較傾向於業者以奈米物質之功能而非以物質本身作為標示基礎之意見。
運動品牌Puma成功撤銷波蘭Sinda Poland鞋廠的歐洲共同體近似商標申請歐盟普通法院(The General Court of the European Union)於今年(2016)2月25日針對運動品牌Puma SE(以下簡稱Puma)提出之商標異議做出了判決。本判決認為,Puma所擁有的美洲獅商標(詳參圖1、圖2),與其異議之波蘭鞋廠Sinda Poland Corporation sp.(以下簡稱Sinda Poland)(詳參圖3)申請中的商標確有相似。此判決翻轉了歐盟內部市場協調局(Office for Harmonization in the Internal Market,以下簡稱OHIM) 所作出兩商標不近似之決議。本判決中,歐盟普通法院判決認為,OHIM應撤銷Sinda Poland之商標申請,並命令Sinda Poland及OHIM支付Puma相關訴訟費用。 本爭議起始於2012年,波蘭鞋廠Sinda Poland申請一歐洲共同體商標(Community Trade Mark,簡稱CTM),該商標為一跳躍的貓科動物形狀(詳參圖3),並指定使用於鞋類及運動鞋類產品。OHIM於2012年9月公告Sinda Poland申請的商標,同年11月Puma向OHIM提起異議,表示Sinda Poland之商標(詳參圖3)與Puma之美洲獅商標(詳參圖1、圖2)過於近似,有令消費者混淆商品或服務來源之虞。然而,OHIM於2014年決議認為,Sinda Poland之商標係兩種跳躍動物之結合,形成獨特的動物圖案設計,與Puma之美洲獅商標不相似,應不具有混淆消費者的疑慮。 Puma向歐盟普通法院上訴,認為法院應撤銷Sinda Poland之商標申請,並要求Sinda Poland支付相關訴訟費用。歐盟普通法院於今年2月25日做出決議,認為Sinda Poland侵害了Puma之商標權,並指出OHIM未將系爭兩商標在視覺上及概念上之整體相似度列入考量。該法院認為「Puma與Sinda Poland之商標皆為黑色的動物剪影,兩商標之動物背部及腹部弧度雖有所不同,但兩商標無法否認地有相似之處。」 經過為期將近四年的爭訟,Puma成功撤銷了Sinda Poland近似商標之申請。對國際知名運動品牌如Puma而言,近似商標的存在將會造成品牌知名度及商譽的打擊。如何藉由排除近似商標之申請以鞏固品牌形象及消費者認同,對品牌企業而言是必須面對的重要課題。本案中,Sinda Poland之近似商標仍在申請階段時Puma即提起異議。Puma積極的維權行動,是品牌廠商能夠藉以參照的模範。 圖1 Puma跳躍美洲獅商標(註冊於尼斯分類第1-42類)(圖片來源:歐盟普通法院判決) 圖2 Puma跳躍美洲獅商標(註冊於尼斯分類第18、25、28類)(圖片來源:歐盟普通法院判決) 圖3 Sinda Poland欲申請之商標(註冊於尼斯分類第25類) (圖片來源:歐盟普通法院判決) 「本文同步刊登於TIPS網站(https://www.tips.org.tw)」
落實完善數位資料管理機制,有助於降低AI歧視及資料外洩風險落實完善數位資料管理機制, 有助於降低AI歧視及資料外洩風險 資訊工業策進會科技法律研究所 2023年07月07日 近年來,科技快速發展,AI(人工智慧)等技術日新月異,在公私部門的應用日益廣泛,而且根據美國資訊科技研究與顧問公司Gartner在2023年5月發布的調查指出,隨著由OpenAI開發的ChatGPT取得成功,更促使各領域對於AI應用的高度重視與投入[1],與此同時,AI歧視及資料外洩等問題,亦成為社會各界的重大關切議題。 壹、事件摘要 目前AI科技發展已牽動全球經濟發展,根據麥肯錫公司近期發布的《生成式人工智慧的經濟潛力:下一個生產力前沿(The next productivity frontier)》研究報告指出,預測生成式AI(Generative AI)有望每年為全球經濟增加2.6兆至4.4兆的經濟價值[2]。同時在美國資訊科技研究與顧問公司Gartner對於超過2500名高階主管的調查中,45%受訪者認為ChatGPT問世,增加其對於AI的投資。而且68%受訪者認為AI的好處大於風險,僅有5%受訪者認為風險大於好處[3]。然而有社會輿論認為AI的判斷依賴訓練資料,將可能複製人類偏見,造成AI歧視問題,而且若程式碼有漏洞或帳戶被盜用時,亦會造成資料外洩問題。 貳、重點說明 首先,關於AI歧視問題,以金融領域為例,近期歐盟委員會副主席Margrethe Vestager強調若AI用於可能影響他人生計的關鍵決策時,如決定是否能取得貸款,應確保申請人不受性別或膚色等歧視[4],同時亦有論者認為若用於訓練AI的歷史資料,本身存有偏見問題,則可能導致系統自動拒絕向邊緣化族群貸款,在無形之中加劇,甚至永久化對於特定種族或性別的歧視[5]。 其次,關於資料外洩問題,資安公司Group-IB指出因目前在預設情況下,ChatGPT將保存使用者查詢及AI回應的訊息紀錄,若帳戶被盜,則可能洩露機敏資訊。據統計在2022年6月至2023年5月間,在亞太地區有近41000個帳戶被盜,而在中東和非洲地區有近25000個帳戶被盜,甚至在歐洲地區也有近17000個帳戶被盜[6]。另外在2023年3月時,ChatGPT除了發生部分用戶能夠檢視他人聊天紀錄標題的問題外,甚至發生個人資料外洩問題,即用戶可能知悉他人的姓名、電子郵件,付款地址,信用卡到期日及號碼末四碼等資料[7]。 參、事件評析 對於AI歧視及資料外洩等問題,應透過落實完善數位資料治理與管理機制,以降低問題發生的風險。首先,在收集訓練資料時,為篩選適合作為模型或演算法基礎的資料,應建立資料評估或審查機制,減少或避免使用有潛在歧視問題的資料,以確保分析結果之精確性。 其次,不論對於訓練資料、分析所得資料或用戶個人資料等,均應落實嚴謹的資料保密措施,避免資料外洩,如必須對於資料進行標示或分類,並依照不同標示或分類,評估及採取適當程度的保密措施。同時應對於資料進行格式轉換,以無法直接開啟的檔案格式進行留存,縱使未來可能不慎發生資料外洩,任意第三人仍難以直接開啟或解析資料內容。甚至在傳送帳戶登入訊息時,亦應採取適當加密傳送機制,避免遭他人竊取,盜取帳戶或個人資料。 財團法人資訊工業策進會科技法律研究所長期致力於促進國家科技法制環境完善,於2021年7月發布「重要數位資料治理暨管理制度規範(Essential Data Governance and Management System,簡稱EDGS)」,完整涵蓋數位資料的生成、保護與維護,以及存證資訊的取得、維護與驗證的流程化管理機制,故對於不同公私部門的AI相關資料,均可參考EDGS,建立系統性數位資料管理機制或強化既有機制。 本文同步刊登於TIPS網站(https://www.tips.org.tw) [1]Gartner, Gartner Poll Finds 45% of Executives Say ChatGPT Has Prompted an Increase in AI Investment (May 3, 2023), https://www.gartner.com/en/newsroom/press-releases/2023-05-03-gartner-poll-finds-45-percent-of-executives-say-chatgpt-has-prompted-an-increase-in-ai-investment (last visited June 30, 2023). [2]McKinsey, The economic potential of generative AI: The next productivity frontier (June 14, 2023), https://www.mckinsey.com/capabilities/mckinsey-digital/our-insights/the-economic-potential-of-generative-AI-the-next-productivity-frontier#introduction (last visited June 30, 2023). [3]Gartner, supra note 1. [4]Zoe Kleinman, Philippa Wain & Ashleigh Swan, Using AI for loans and mortgages is big risk, warns EU boss (June 14, 2023), https://www.bbc.com/news/technology-65881389 (last visited June 30, 2023). [5]Ryan Browne & MacKenzie Sigalos, A.I. has a discrimination problem. In banking, the consequences can be severe (June 23, 2023), https://www.cnbc.com/2023/06/23/ai-has-a-discrimination-problem-in-banking-that-can-be-devastating.html (last visited June 30, 2023). [6]Group-IB, Group-IB Discovers 100K+ Compromised ChatGPT Accounts on Dark Web Marketplaces; Asia-Pacific region tops the list (June 20, 2023), https://www.group-ib.com/media-center/press-releases/stealers-chatgpt-credentials/ (last visited June 30, 2023). [7]OpenAI, March 20 ChatGPT outage: Here’s what happened (Mar. 24, 2023),https://openai.com/blog/march-20-chatgpt-outage (last visited June 30, 2023).