或許因為一般人對於文創就是有品味不俗的印象,因此許多東西都掛上「文創」,像是文創的蛋糕、肥皂、餐廳,甚至是文創夜市。以致於從文創法立法施行以來,什麼是文創、文創事業、文創產業的爭議從無間斷。每一陣子就有中央與地方、立委與主管機關為文化創意產業園區是不是過度向營利與娛樂傾斜、誰可以進駐文創園區的問題爭執不下。根據我國文化創意產業發展法的定義,文化創意產業指源自創意或文化積累,透過智慧財產之形成及運用,具有創造財富與就業機會之潛力,並促進全民美學素養,使國民生活環境提升產業。該法除了例示視覺藝術、音樂及表演藝術產業、文化資產應用及展演設施等十五項產業別外,同時加上可由中央主管機關指定納入特定產業。既然文創法已經定義並列出文創產業,為何需要再賦予中央主管機關可指定的彈性?
其實我國目前與文化相關的法規主要有「文化資產保存法」、「文化藝術獎助條例」及「文化創意產業發展法」,前二者的重點在於文化藝術的保存和發展,至於文創法則很明顯的不同於前二者,其主要區別在於發展「產業」。文化當然是它必要元素,但文化的保存與發展應由前二者來承擔,文創法並非不必考量文化發展,因為文化是它的基石,但它的立法初衷並非發揚、促進文化,而是透過文化的創意運用產生獲利,透過營收挹注提供再次文化創造的正向循環。觀諸我國於108年6月5日公布、揭示文化政策最高指導原則的文化基本法,該法第15條明定──「國家應促進文化經濟之振興,致力「以文化厚實經濟發展」之基礎…」,其實已忠實反映政府的文化經濟推動理念,映證文化創意產業發展法目的是運用文化創造經濟效益。不論是產業的文化化與文化的產業化,所有產業只要能運用文化創意創造或提升價值,就是它的標的。因此,文化創意產業在既有文化、又是產業,廣泛跨界且有無限可能的情況下,必須在適用對象上保有政策扶植的彈性。
既然文創法的立法目的在於透過文化的創意運用產生獲利,則文創法所要扶植的對象、標的,就是有以文創產品或服務獲利潛力的相關事業,它的宗旨「錦上添花」而非「雪中送炭」,標的是有獲利潛力的文創產品或服務,對象是相關生產提供的事業。那什麼是生產提供文創產品或服務的文創產業?從文創產業的字面意義,可知道它必須有文化、創意、產業三個元素,但它是文化產業、創意產業、文化與創意產業,亦或是文化創意產業?這三個元素是交集、還是聯集?這個問題,有人從本質或其他國家的定義來討論,但文創產業的定義,涉及的並非只是是否符合社會認知、邏輯性、合理性,而是政府的產業扶助資源的分配對象,它決定了誰「有機會」獲得政府的獎補助、甚至租稅優惠(當然資源有限,即使已認定是文創事業,也不是不一定就會有,申請資格要件本即可再做限制)。
那麼什麼是文化創意產業,答案就呼之欲出了。不管是產業文化化或文化產業化,不論是蛋糕、肥皂、餐廳,甚至是夜市,只要其產品或服務係能運用文化元素來創造或提昇附加價值,它就是屬於文化創意產業。或者我們應該更精確的說,並沒有所謂的文化創意產業,政府要推動、發展的是文創經濟而非特定產業。所以對文創產業的定義與範圍界定應該是原則性、建立認定要件、盡可能開放彈性的,而非採取逐一條列的形式且可配合政策需求涵括其支援或相關連的產業。所以,是否不應什麼東西都可以掛上「文創」、文化創意產業園區不應向營利與娛樂傾斜、不應有「其他」經指定文創產業、創意生活不應是文創產業?在下定論之前,我們應該要思考的並非是否符合文創產業定義這種形式上的爭論,而是我們為什麼要發展文創產業?發展什麼文創產業?
2012年3月,Google 公告使用者的新網路隱私權政策條款,這項措施將Google 所提供的各項服務適用同一個隱私權政策,並整合多項服務於同一帳號之中,隨著隱私權政策的變動,使用者條款也一併更新,這項措施並同時透過電子郵件通知所有的使用者。然而,Google 此項新政策在歐洲地區實施時卻碰到困難,歐盟表示該隱私權條款適法性受到質疑,將可能受到有關單位的調查。 歐盟資料保護相關指令乃建構基礎架構規制網路使用者個人的隱私,相關機構與業者都必須遵守。關於此項Google 新隱私權政策條款,規定使用者的資料可以合併使用於各個不同的服務中,將可能造成使用者的個人資料將可能透過不同的服務而洩漏,並且遭受第三人使用,而有違反歐盟資料保護指令之虞。針對此問題,法國資料保護管理機構(The Commission Nationale de l'Informatique, CNIL)已對Google 提出詢問,詢問的內容包含Google是如何保存使用者的資料;如何將使用者於不同服務中揭露的資訊加以整合等問題。由於既存的使用者若要繼續使用Google相關服務,就必須同意該新訂隱私權政策條款,因此CNIL也透過此次機會了解使用者退出資料不被揭露的機制內容,以避免使用者在未經同意下個人隱私受到侵害。不過,屆至目前為止,包含英國在內的歐洲各國仍普遍認為,該隱私權政策條款並未充分賦予使用者掌握個人資料的權限。 相較於歐盟,美國聯邦交易委員會(Federal Trade Commission, FTC)對於使用者於使用網路時隱私權的保護,著重於業者隱私權保護的承諾;亦即歐盟著重於隱私權為個人基本權利,而美國普遍要求網路業者能於條款中,明確承諾保護使用者使用網路時的各項權利。無論如何,各國對於保護使用者使用網路服務的原則與概念雖然不同,但對於使用者資訊揭露的透明化要求均為一致。
新搜尋技術將改變數位內容產業的版圖美國麻省理工學院企業論壇 (MIT Enterprise Forum) 日前在紐約市舉行了專家座談會,與會專家指出,新的網路搜尋技術,將改變數位內容產業的版圖。一個最重要的技術躍進,在於突破目前以文字為搜尋條件的限制,未來,透過新的技術,使用者將可以圖像、聲音甚至影片來進行搜尋。如此,數位內容產業的傳播將會更具效率,整個產業的發展也會更迅速,消費者也能更快速地享受到各種數位內容。且讓我們拭目以待。
歐洲專利局(EPO)專利申請案件數量持續增加歐洲專利申請案件於2015再次創下新高,達到279,000件之多,較2014年多了近5000件,前五名的國家分別是;美國、德國、日本、法國、荷蘭。當中,向European Patent Office (EPO,歐洲專利局)提出專利申請的就有160,00o件(2014年為152700件),其中美國以及中國的專利申請案件數量頗具貢獻,較2014年增加了16.4%以及22.2%。此數據顯示了全球商業對於專利保護的重視。 EPO 負責人Benoît Battistelli 對此表示,這代表著歐洲不儘有著高度吸引力的科技市場使企業以及研發者爭相投入,更是全球創新能量的核心。 像是義大利和西班牙是在他們近四年來表現最好的一年,專利申請案件分別成長了9%、3.8%;同時,比利時為5.9%、英國為5.7%、荷蘭為3.3%、瑞士為2.6%。甚至也有大幅成長的國家,波蘭成長17.8%、立陶宛成長62.5%。不過,部分國家專利申請案件數量卻是持續下滑,德國下降了3.2%、芬蘭下降8.3%、丹麥下降2.7%。 另外,值得一提的是,不僅是非歐洲當地企業在歐洲的專利申請案件數量有所增加,歐洲當地企業或是研發者於歐洲以外地區的專利申請案件數量也有亮眼的表現,再次顯現了歐洲的創新潛力。 以產業別觀之,醫學科技相關專利申請案數量再次位於EPO中的第一名,成長了11%,引擎相關專利成長18%、 藥學相關專利成長10%、電腦相關專利成長8%。 然而,這樣的成長都與接下來在歐盟會員國之間要實施的單一專利政策有著高度關聯性。單一專利目前由EPO執行,相關的準備已於2015年就緒,包含內部結構的調整,以達到高效率高品質的專利審查過程(去年僅有48%的申請案成功取得歐洲專利)。 當中還有統一專利法庭的設置(United Patent Court),而真正的落實就等德國和英國國內進一步批准United Patent Court Agreement 。EPO對此表示樂觀的態度,認為2016年將會完成所有程序。 最後,歐洲專利開始在歐洲以外地區生效,版圖逐漸擴大。摩洛哥和摩爾多瓦在去年3月、11月都陸續成為非EPO會員卻簽署EPO相關協議,使得該協議法律效果於其國內產生效力。相信這樣的單一專利體制將會對我國有意進入歐洲市場的企業有所助益。 本文同步刊登於TIPS網站(https://www.tips.org.tw)。
用ChatGPT找法院判決?從Roberto Mata v. Avianca, Inc.案淺析生成式AI之侷限用ChatGPT找法院判決?從Roberto Mata v. Avianca, Inc.案淺析生成式AI之侷限 資訊工業策進會科技法律研究所 2023年09月08日 生成式AI是透過研究過去資料,以創造新內容和想法的AI技術,其應用領域包括文字、圖像及影音。以ChatGPT為例,OpenAI自2022年11月30日發布ChatGPT後,短短二個月內,全球月均用戶數即達到1億人,無疑成為民眾日常生活中最容易近用的AI科技。 惟,生成式AI大量使用後,其中的問題也逐漸浮現。例如,ChatGPT提供的回答僅是從所學習的資料中統整歸納,無法保證資料的正確性。Roberto Mata v. Avianca, Inc.案即是因律師利用ChatGPT撰寫訴狀,卻未重新審視其所提供判決之正確性,以致後續引發訴狀中所描述的判決不存在爭議。 壹、事件摘要 Roberto Mata v. Avianca, Inc.案[1]中,原告Roberto Mata於2019年8月搭乘哥倫比亞航空從薩爾瓦多飛往紐約,飛行過程中膝蓋遭空服員的推車撞傷,並於2022年2月向法院提起訴訟,要求哥倫比亞航空為空服員的疏失作出賠償;哥倫比亞航空則主張已超過《蒙特婁公約》(Montreal Convention)第35條所訂之航空器抵達日起兩年內向法院提出損害賠償之請求時效。 R然而,法院審理過程中發現原告訴狀內引用之六個判決無法從判決系統中查詢,進而質疑判決之真實性。原告律師Steven A. Schwartz因而坦承訴狀中引用的六個判決是ChatGPT所提供,並宣稱針對ChatGPT所提供的判決,曾多次向ChatGPT確認該判決之正確性[2]。 貳、生成式AI應用之潛在風險 雖然運用生成式AI技術並結合自身專業知識執行特定任務,可能有助於提升效率,惟,從前述Roberto Mata v. Avianca, Inc.案亦可看出,依目前生成式AI技術之發展,仍可能產生資訊正確性疑慮。以下彙整生成式AI應用之8大潛在風險[3]: 一、能源使用及對環境危害 相較於傳統機器學習,生成式AI模型訓練將耗費更多運算資源與能源。根據波士頓大學電腦科學系Kate Saenko副教授表示,OpenAI的GPT-3模型擁有1,750億個參數,約會消耗1,287兆瓦/時的電力,並排放552噸二氧化碳。亦即,每當向生成式AI下一個指令,其所消耗的能源量相較於一般搜尋引擎將可能高出4至5倍[4]。 二、能力超出預期(Capability Overhang) 運算系統的黑盒子可能發展出超乎開發人員或使用者想像的隱藏功能,此發展將會對人類帶來新的助力還是成為危險的阻力,則會隨著使用者之間的相互作用而定。 三、輸出結果有偏見 生成式AI通常是利用公開資料進行訓練,若輸入資料在訓練時未受監督,而帶有真實世界既存的刻板印象(如語言、種族、性別、性取向、能力、文化等),據此建立之AI模型輸出結果可能帶有偏見。 四、智慧財產權疑慮 生成式AI進行模型訓練時,需仰賴大量網路資料或從其他大型資料庫蒐集訓練資料。然而,若原始資料來源不明確,可能引發取得資料未經同意或違反授權條款之疑慮,導致生成的內容存在侵權風險。 五、缺乏驗證事實功能 生成式AI時常提供看似正確卻與實際情形不符的回覆,若使用者誤信該答案即可能帶來風險。另外,生成式AI屬於持續動態發展的資訊生態系統,當產出結果有偏誤時,若沒有大規模的人為干預恐難以有效解決此問題。 六、數位犯罪增加與資安攻擊 過去由人工產製的釣魚郵件或網站可能受限於技術限制而容易被識破,然而,生成式AI能夠快速建立具高度說服力的各種擬真資料,降低詐騙的進入門檻。又,駭客亦有可能在不熟悉技術的情況下,利用AI進一步找出資安弱點或攻擊方法,增加防禦難度。 七、敏感資料外洩 使用雲端服務提供商所建立的生成式AI時,由於輸入的資料存儲於外部伺服器,若要追蹤或刪除有一定難度,若遭有心人士利用而導致濫用、攻擊或竄改,將可能產生資料外洩的風險。 八、影子AI(Shadow AI) 影子AI係指開發者未知或無法控制之AI使用情境。隨著AI模型複雜性增加,若開發人員與使用者未進行充分溝通,或使用者在未經充分指導下使用 AI 工具,將可能產生無法預期之風險。 參、事件評析 在Roberto Mata v. Avianca, Inc.案中,法院關注的焦點在於律師的行為,而非對AI技術使用的批判。法院認為,隨著技術的進步,利用可信賴的AI工具作為協助用途並無不當,惟,律師應踐行其專業素養,確保所提交文件之正確性[5]。 當AI科技發展逐漸朝向自主與獨立的方向前進,仍需注意生成式AI使用上之侷限。當個人在使用生成式AI時,需具備獨立思考判斷的能力,並驗證產出結果之正確性,不宜全盤接受生成式AI提供之回答。針對企業或具高度專業領域人士使用生成式AI時,除確認結果正確性外,更需注意資料保護及治理議題,例如建立AI工具合理使用情境及加強員工使用相關工具之教育訓練。在成本能負擔的情況下,可選擇透過企業內部的基礎設施訓練AI模型,或是在訓練模型前確保敏感資料已經加密或匿名。並應注意自身行業領域相關法規之更新或頒布,以適時調整資料使用之方式。 雖目前生成式AI仍有其使用之侷限,仍應抱持開放的態度,在技術使用與風險預防之間取得平衡,以能夠在技術發展的同時,更好地學習新興科技工具之使用。 [1]Mata v. Avianca, Inc., 1:22-cv-01461, (S.D.N.Y.). [2]Benjamin Weiser, Here’s What Happens When Your Lawyer Uses ChatGPT, The New York Times, May 27, 2023, https://www.nytimes.com/2023/05/27/nyregion/avianca-airline-lawsuit-chatgpt.html (last visited Aug. 4, 2023). [3]Boston Consulting Group [BCG], The CEO’s Roadmap on Generative AI (Mar. 2023), https://media-publications.bcg.com/BCG-Executive-Perspectives-CEOs-Roadmap-on-Generative-AI.pdf (last visited Aug. 29, 2023). [4]Kate Saenko, Is generative AI bad for the environment? A computer scientist explains the carbon footprint of ChatGPT and its cousins, The Conversation (May 23, 2023.), https://theconversation.com/is-generative-ai-bad-for-the-environment-a-computer-scientist-explains-the-carbon-footprint-of-chatgpt-and-its-cousins-204096 (last visited Sep. 7, 2023). [5]Robert Lufrano, ChatGPT and the Limits of AI in Legal Research, National Law Review, Volume XIII, Number 195 (Mar. 2023), https://www.natlawreview.com/article/chatgpt-and-limits-ai-legal-research (last visited Aug. 29, 2023).