搜尋引擎巨人Google在西班牙施行新著作權法前關閉該國的Google新聞服務。西班牙將於2015年1月正式施行新著作權法,新法中出版商將可向新聞内容聚合平台業者(news aggregator)徵收授權金,且著作權人不得約定不行使該權利。新法中並未明定新聞内容聚合平台業者如Google新聞與Yahoo新聞應支付的授權金額,但卻規定違反此法令的公司需繳付75萬美金的罰款。
近年來,歐盟各國如德國、法國相繼推行新著作權法,讓著作權人得向新聞内容聚合平台業者徵收授權金,而Google則透過與出版商約定不行使該權利作爲因應措施。而由於西班牙此次的新法規定著作權人不得約定不行使該權利,導致Google首次因法規而關閉該國的Google新聞服務。
Google表示此項新法規要求出版商向Google新聞徵收授權金,哪怕它只是一則小小的摘要。Google新聞的總監Richard Gingras表示Google新聞並未含任何廣告亦無實際盈利;相反地,該服務為出版商帶來超過百萬的讀者流量。新法規的施行將增加Google新聞的營運成本,因此才在新法規施行前關閉西班牙版本的Google新聞服務。
此舉將造成當地網路媒體與出版業者的網路流量損失,爲此西班牙新聞媒體組織 (The Spanish Association of Daily Newspaper Publishers, AEDE)發表聲明希望西班牙政府、歐盟當局及反托拉斯聯盟能介入調解此次Google新聞的關閉事件,以保護人民與企業的權利。
新法施行在即,究竟Google新聞的關閉會對此次西班牙新著作權法的施行造成何種影響值得後續關注。
瑞士諾華藥廠成立於1996年,為全球前十大藥廠之一,其首創新藥Entresto,係作用於心臟神經內分泌系統,以對抗心力衰竭症狀,其在美國也取得相關專利(US8101659、US8796331、US8877938和US9388134),專利效期大致落在2023~2027年間。藥品上市後統計至2019年6月,Entresto的全球收入已達約7.78億美元。 印度學名藥廠Macleods、Alembic、Natco公司於2019年9月向美國食品藥品監督管理局(下簡稱FDA)提交Entresto學名藥簡易新藥上市申請(下簡稱ANDA),諾華於2019年9月11日接獲通知後,即於2019年10月24日,針對上述申請ANDA之印度學名藥廠提起專利侵權訴訟,試圖阻止該些印度學名藥廠仿製Entresto。 依照美國規定,當學名藥廠提出ANDA申請時,若專利權人在45天內提出專利訴訟,則會限制美國FDA不得於30個月內核准該ANDA申請。因此,在實務上ANDA從申請到上市,需花費約三年時間,使得學名藥廠往往會選擇在原廠藥物專利尚未到期前,提早申請藥品查驗;而原廠也通常會積極於45天內發起專利訴訟,已鞏固其專利期間之市場地位。 我國西藥專利連結制度業於2019年8月20日正式上路,建議我國相關生醫藥廠商應了解相關制度規範、與國外規定之差異,並提早納入企業內部之智財管理與智財策略規劃。 「本文同步刊登於TIPS網站(https://www.tips.org.tw )」
用ChatGPT找法院判決?從Roberto Mata v. Avianca, Inc.案淺析生成式AI之侷限用ChatGPT找法院判決?從Roberto Mata v. Avianca, Inc.案淺析生成式AI之侷限 資訊工業策進會科技法律研究所 2023年09月08日 生成式AI是透過研究過去資料,以創造新內容和想法的AI技術,其應用領域包括文字、圖像及影音。以ChatGPT為例,OpenAI自2022年11月30日發布ChatGPT後,短短二個月內,全球月均用戶數即達到1億人,無疑成為民眾日常生活中最容易近用的AI科技。 惟,生成式AI大量使用後,其中的問題也逐漸浮現。例如,ChatGPT提供的回答僅是從所學習的資料中統整歸納,無法保證資料的正確性。Roberto Mata v. Avianca, Inc.案即是因律師利用ChatGPT撰寫訴狀,卻未重新審視其所提供判決之正確性,以致後續引發訴狀中所描述的判決不存在爭議。 壹、事件摘要 Roberto Mata v. Avianca, Inc.案[1]中,原告Roberto Mata於2019年8月搭乘哥倫比亞航空從薩爾瓦多飛往紐約,飛行過程中膝蓋遭空服員的推車撞傷,並於2022年2月向法院提起訴訟,要求哥倫比亞航空為空服員的疏失作出賠償;哥倫比亞航空則主張已超過《蒙特婁公約》(Montreal Convention)第35條所訂之航空器抵達日起兩年內向法院提出損害賠償之請求時效。 R然而,法院審理過程中發現原告訴狀內引用之六個判決無法從判決系統中查詢,進而質疑判決之真實性。原告律師Steven A. Schwartz因而坦承訴狀中引用的六個判決是ChatGPT所提供,並宣稱針對ChatGPT所提供的判決,曾多次向ChatGPT確認該判決之正確性[2]。 貳、生成式AI應用之潛在風險 雖然運用生成式AI技術並結合自身專業知識執行特定任務,可能有助於提升效率,惟,從前述Roberto Mata v. Avianca, Inc.案亦可看出,依目前生成式AI技術之發展,仍可能產生資訊正確性疑慮。以下彙整生成式AI應用之8大潛在風險[3]: 一、能源使用及對環境危害 相較於傳統機器學習,生成式AI模型訓練將耗費更多運算資源與能源。根據波士頓大學電腦科學系Kate Saenko副教授表示,OpenAI的GPT-3模型擁有1,750億個參數,約會消耗1,287兆瓦/時的電力,並排放552噸二氧化碳。亦即,每當向生成式AI下一個指令,其所消耗的能源量相較於一般搜尋引擎將可能高出4至5倍[4]。 二、能力超出預期(Capability Overhang) 運算系統的黑盒子可能發展出超乎開發人員或使用者想像的隱藏功能,此發展將會對人類帶來新的助力還是成為危險的阻力,則會隨著使用者之間的相互作用而定。 三、輸出結果有偏見 生成式AI通常是利用公開資料進行訓練,若輸入資料在訓練時未受監督,而帶有真實世界既存的刻板印象(如語言、種族、性別、性取向、能力、文化等),據此建立之AI模型輸出結果可能帶有偏見。 四、智慧財產權疑慮 生成式AI進行模型訓練時,需仰賴大量網路資料或從其他大型資料庫蒐集訓練資料。然而,若原始資料來源不明確,可能引發取得資料未經同意或違反授權條款之疑慮,導致生成的內容存在侵權風險。 五、缺乏驗證事實功能 生成式AI時常提供看似正確卻與實際情形不符的回覆,若使用者誤信該答案即可能帶來風險。另外,生成式AI屬於持續動態發展的資訊生態系統,當產出結果有偏誤時,若沒有大規模的人為干預恐難以有效解決此問題。 六、數位犯罪增加與資安攻擊 過去由人工產製的釣魚郵件或網站可能受限於技術限制而容易被識破,然而,生成式AI能夠快速建立具高度說服力的各種擬真資料,降低詐騙的進入門檻。又,駭客亦有可能在不熟悉技術的情況下,利用AI進一步找出資安弱點或攻擊方法,增加防禦難度。 七、敏感資料外洩 使用雲端服務提供商所建立的生成式AI時,由於輸入的資料存儲於外部伺服器,若要追蹤或刪除有一定難度,若遭有心人士利用而導致濫用、攻擊或竄改,將可能產生資料外洩的風險。 八、影子AI(Shadow AI) 影子AI係指開發者未知或無法控制之AI使用情境。隨著AI模型複雜性增加,若開發人員與使用者未進行充分溝通,或使用者在未經充分指導下使用 AI 工具,將可能產生無法預期之風險。 參、事件評析 在Roberto Mata v. Avianca, Inc.案中,法院關注的焦點在於律師的行為,而非對AI技術使用的批判。法院認為,隨著技術的進步,利用可信賴的AI工具作為協助用途並無不當,惟,律師應踐行其專業素養,確保所提交文件之正確性[5]。 當AI科技發展逐漸朝向自主與獨立的方向前進,仍需注意生成式AI使用上之侷限。當個人在使用生成式AI時,需具備獨立思考判斷的能力,並驗證產出結果之正確性,不宜全盤接受生成式AI提供之回答。針對企業或具高度專業領域人士使用生成式AI時,除確認結果正確性外,更需注意資料保護及治理議題,例如建立AI工具合理使用情境及加強員工使用相關工具之教育訓練。在成本能負擔的情況下,可選擇透過企業內部的基礎設施訓練AI模型,或是在訓練模型前確保敏感資料已經加密或匿名。並應注意自身行業領域相關法規之更新或頒布,以適時調整資料使用之方式。 雖目前生成式AI仍有其使用之侷限,仍應抱持開放的態度,在技術使用與風險預防之間取得平衡,以能夠在技術發展的同時,更好地學習新興科技工具之使用。 [1]Mata v. Avianca, Inc., 1:22-cv-01461, (S.D.N.Y.). [2]Benjamin Weiser, Here’s What Happens When Your Lawyer Uses ChatGPT, The New York Times, May 27, 2023, https://www.nytimes.com/2023/05/27/nyregion/avianca-airline-lawsuit-chatgpt.html (last visited Aug. 4, 2023). [3]Boston Consulting Group [BCG], The CEO’s Roadmap on Generative AI (Mar. 2023), https://media-publications.bcg.com/BCG-Executive-Perspectives-CEOs-Roadmap-on-Generative-AI.pdf (last visited Aug. 29, 2023). [4]Kate Saenko, Is generative AI bad for the environment? A computer scientist explains the carbon footprint of ChatGPT and its cousins, The Conversation (May 23, 2023.), https://theconversation.com/is-generative-ai-bad-for-the-environment-a-computer-scientist-explains-the-carbon-footprint-of-chatgpt-and-its-cousins-204096 (last visited Sep. 7, 2023). [5]Robert Lufrano, ChatGPT and the Limits of AI in Legal Research, National Law Review, Volume XIII, Number 195 (Mar. 2023), https://www.natlawreview.com/article/chatgpt-and-limits-ai-legal-research (last visited Aug. 29, 2023).
聯合國科研創新推動永續發展(STI for SDGs)2015年9月25日,聯合國發布「2030永續發展議程(2030 Agenda for Sustainable Development)」,強調科研創新是推動永續發展願景的核心關鍵(STI for SDGs),透過科學(Science)、技術(Technology)、創新(Innovation)三項STI指標以落實各國永續發展目標(Sustainable Development Goals,簡稱SDGs)。又為達成科研創新推動永續發展目標,必須建立技術促進機制(Technology Facilitation Mechanism, TFM), TFM主要透過聯合國成員國、民間社會、私營部門、科學界及其他利益相關方間的經驗分享與合作,由三部分組成包括:聯合國跨機構任務小組(Inter-Agency Task Team, IATT),科學、技術、創新促進永續發展目標多方利害關係人論壇(Multi-stakeholder Forum on science, technology and innovation for the sustainable development Goals, STI Forum),線上平台(online platform)。 其中,聯合國跨機構任務小組(IATT)於2019年6月擬定的「科學、技術和創新促進永續發展目標路線圖(Science, Technology and Innovation for SDGs Roadmaps, STI for SDG Roadmap)」,邀請各國參與試點計畫,協助國家檢視現有科研創新政策需求、掌握未來科研發展趨勢與可能面臨的挑戰與機會,乃協助政府決策的科技前瞻支援工具,藉此達成STI for SDGs科研創新政策與永續發展目標間之平衡。關於國家科研創新路線圖規畫方法論,可以區分為基礎(Foundation)、調適(Adaptation)、整合(Integration)三部分:盤點各國現有科研創新政策需求,歸納與SDGs間落差;嘗試將SDGs理念注入政策目標,建構符合SDGs的科研創新規範與政策監管標準;運用科技前瞻方法掌握未來發展趨勢,研擬對策並面對挑戰。
歐盟提出通用型人工智慧模型的著作權管理合規措施建議歐盟提出通用型人工智慧模型的著作權管理合規措施建議 資訊工業策進會科技法律研究所 2025年07月23日 為推動以人為本且值得信賴之人工智慧(Artificial Intelligence, AI)應用,同時確保高度保護健康、安全及歐盟《基本權利憲章》所載之基本權利,包括民主、法治及環境保護,防止AI在歐盟境內造成有害影響,並依據歐盟《人工智慧法》(AI Act, AIA)第1條第1項支持創新。歐盟人工智慧辦公室(The European AI Office) 於2025年7月10日提出《人工智慧法案》關於通用型人工智慧的準則(The General-Purpose AI Code of Practice)[1],以下簡稱「GPAI實踐準則」。 該準則由辦公室擬定計劃邀集通用型人工智慧(以下簡稱GPAI)模型提供商、下游提供商、公協會、權利人、專家學者、民間團體組成工作小組,進行討論與草擬。目的在協助GPAI模型的提供者符合AIA要求其應訂定模型技術文件,提供給下游提供者,並應制定著作權政策、發布訓練內容摘要的規定。預計將自 2025 年 8 月 2 日起適用。 壹、事件摘要 歐盟GPAI實踐準則包括透明度、著作權與安全維護(Transparency, Copyright, and Safety and Security)三大章節。為證明符合AIA第53條及第55條所規定義的指導文件(guiding document),並確保GPAI提供者(providers)遵守其在《人工智慧法》下之義務,於該準則於著作權章節提供適用AIA第53條第1項(c)款規定[2]的措施建議。 該準則強調採取相關措施可以證明符合前揭定之義務,但符合歐盟著作權及相關權利法規,並不以遵守該準則為要件,而且也不會影響歐盟著作權及相關權利法規的適用與執行,其權利最終歸屬法院。而著作權人依法保留的權利,以及針對文字與資料探勘(Text and Data Mining, TDM)的例外或限制 (EU 2019/790號指令第4條第1項),仍應在合法條件下適用。 考量到一些GPAI提供者是新創企業,規模有別於一般企業,故該準則亦強調其所要求採取的是相稱措施(proportionate measures),應與提供者之規模相稱且合乎比例(commensurate and proportionate),並充分考量中小企業(SMEs),包括新創公司(startups)之利益。 貳、重點說明 該準則建議GPAI提供者,採取訂定著作權政策、合法重製、尊重權利保留、積極防止侵權、提供問責管道等五大著作權管理措施。 一、訂定、維持並實施著作權政策 為證明已符合AIA第53條第1項(c)款所負之義務,GPAI提供者針對其投放於歐盟市場之通用人工智慧模型,應制定政策以遵守歐盟著作權及相關權利法規。該準則建議提供者應將著作權章節所列措施納入於政策中,公開發布並維持最新狀態其著作權政策摘要,且在組織內部指派負責實施和監督。 二、獲取合法可存取之受著作權保護內容 GPAI提供者進行 EU 2019/790號指令第2條第2項之文字與資料探勘及訓練其通用人工智慧模型進行網際網路內容的重製並擷取時,例如使用網路爬蟲(web-crawlers)或授權他人使用網路爬蟲代其抓取(scrape)或以其他方式編譯資料,應防止或限制對作品及其他受保護標的物之未經授權行為,特別是應尊重訂閱模式(subscription models)或付費牆(paywalls)所施加之任何技術性拒絕或限制存取。而且在進行網路爬取時,應排除歐盟認定為持續且重複大規模商業侵犯著作權及相關權利之網站。 三、識別並遵守權利人的權利保留 GPAI提供者文字與資料探勘及訓練其通用人工智慧模型,其網路爬蟲應識別並遵守EU 2019/790號指第4條第3項的機器可讀(machine-readable)權利保留[3],讀取並遵循機器人排除協議(Robot Exclusion Protocol, robots.txt)。 該協議包括任何經網際網路工程任務組(Internet Engineering Task Force,IETF)證明技術上可行且可由AI提供者和內容提供者(包括權利人)實施之版本,或經國際或歐洲標準化組織採納透過基於資產(asset-based)或基於位置(location-based)之詮釋資料(metadata)等其他方式的機器可讀協議。亦包括通常係透過在歐盟層級經由權利人、AI提供者及其他相關利害關係人參與討論所達成共識的識別方案。 GPAI提供者亦應透過公開該等資訊並提供受影響權利人可在該等資訊更新時自動獲得通知的適當措施,使受影響之權利人能夠取得相關資訊,包括所用的網路爬蟲、所採識別並遵守權利保留之措施。 四、降低著作權侵權輸出之風險 為降低整合GPAI模型的下游人工智慧系統(downstream AI system),生成可能侵害著作權或相關權利的作品或其他標的物GPAI提供者應實施適當且合乎比例之技術保障措施,防止其模型生成以侵權方式重製受歐盟著作權及相關權利法規保護之訓練內容。;同時,在使用政策、條款與條件或其他類似文件中禁止模型用於著作權侵權目的。對於以自由及開源授權(free and open source licenses)發布之GPAI模型,應在隨附文件中請使用者注意禁止模型用於著作權侵權用途。無論是將模型整合至其自身的人工智慧系統,或係依據契約關係提供給他人。 五、提供聯繫受理管道 GPAI提供者應提供與受影響權利人進行連繫的管道與資訊,讓受影響之權利人及其代理人(包括集體管理組織(collective management organizations))以電子方式進行投訴。同時,勤勉、非任意地並在合理時間內處理投訴,除非投訴明顯無根據,或已對同一權利人提出之相同投訴作出回應。 參、事件評析 美國先前於2025年6月23日曾由加州北區聯邦地方法院(United States District Court for the Northern District of California),威廉·阿爾斯法官(Judge William Alsup)針對Andrea Bartz、Charles Graeber、Kirk Wallace Johnson這三位美國作家,對Anthropic公司訓練大型語言模型(Large Language Model, LLM)時使用受其等著作權保護書籍一案,作出AI訓練行為可主張合理使用的簡易裁決(summary judgment)[4]。但法官仍然指出提供AI訓練的合理使用(Fair Use)不代表資料來源的適法性(Legality of Source)獲得合法認定,並不支持盜版一本本來可以在書店購買的書籍對於創建大型語言模型 (LLM) 是合理必要 (reasonably necessary) 的。 這次歐盟的準則更明確指出,GPAI提供者進行文字與資料探勘及訓練其通用人工智慧模型,以網路爬蟲(web-crawlers)進行網際網路內容的擷取,應尊重訂閱模式(subscription models)或付費牆(paywalls)所採取的技術性拒絕或限制存取。而且在進行網路內容爬取時,應排除歐盟認定為持續且重複大規模商業侵犯著作權及相關權利之網站,即訓練資料的取得必須是合法。而且必須積極使用可識別並遵守機器人排除協議(Robot Exclusion Protocol, robots.txt)的技術,更應透過公開該等資訊、提供受影響權利人可在該等資訊更新時自動獲得通知的適當措施,使受影響之權利人能夠及時知悉所用網路爬蟲、所採尊重權利保留之措施。 雖然前揭美國法院案件正在進行審理,但顯然與歐盟的GPAI實踐準則及美國著作權局的合理使用立場[5]一樣,均不認同迴避權利保護施、自盜版網站取得的資料之情況。我國日前發生七法與法源公司之間的著作權訴訟,七法以網路爬蟲爬取法源公司於使用條款限制存取的資料,並非技術創新撞上不合時宜的舊有法律框架,而是創新應用仍應在合理保護權利的前提下進行。 歐盟GPAI實踐準則所揭示的政策制訂、尊重權利保留、積極防止侵權、提供有效且給予合理回應的問責管道等AIA合規要求,已提示GPAI的開發、服務提供,應如何透過公開、揭露措施來配套降低科技創新應用過程對既有權利的影響,也指引其應建立的內部管理與外部溝通重點。對於開發、運用GPAI對外提供服務的企業而言,在爭執訓練資料應有合法空間的同時,或許應該思考是否應先採取歐盟GPAI實踐準則所建議的措施,以尊重既有權利的態度,積極降低權利人的疑慮,始有助於形成互利的合法利用空間。 本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。 本文同步刊登於TIPS網站(https://www.tips.org.tw) [1]The European AI Office, The General-Purpose AI Code of Practice, https://digital-strategy.ec.europa.eu/en/policies/contents-code-gpai。(最後閱覽日:2025/07/21) [2]該條款要求將通用人工智慧模型投放於歐盟市場(Union market)之提供者,必須制定政策以遵守歐盟著作權及相關權利法規,特別是透過最先進之技術,識別並遵守權利人依據《第2019/790號指令》(Directive (EU) 2019/790)第4條第3項所表達之權利保留。 [3]指不接受其著作被用於文字與資料探勘目的之利用。 [4]Bartz et al. v. Anthropic PBC, No. 3:24-cv-05417-WHA, Doc. 231, (N.D. Cal. June 23, 2025),https://cdn.arstechnica.net/wp-content/uploads/2025/06/Bartz-v-Anthropic-Order-on-Fair-Use-6-23-25.pdf。(最後閱覽日:2025/06/25) [5]劉家儀,美國著作權局發布AI著作權報告第三部分:生成式AI訓練-AI訓練是否構成合理使用?https://stli.iii.org.tw/article-detail.aspx?no=0&tp=1&d=9352。