在2012年12月19日,歐盟執委會宣布一項決議,該決議認可紐西蘭為已提供相當於歐盟保護層級之個人資料保護的國家;根據1995年歐盟個人資料保護指令(EU Data Protection Directive of 1995),此決議將使位於歐盟會員國(目前為27國)的事業,可以不必採取額外的防護措施,即可將個人資料自歐盟會員國傳輸到紐西蘭。
根據歐盟個人資料保護指令,個人資料不許被傳輸至歐盟會員國以外的國家,除非這些國家被歐盟執委會認可為,已提供相當於歐盟保護層級的個人資料保護;或此些國家對上述傳輸已採取額外的防護措施,例如已取得當事人之同意,或已於相關契約內附有經歐盟認可之個人資料保護相關契約條款。歐洲經濟區(EuropeanEconomic Area;簡稱EEA)內的另三個國家,亦即挪威、冰島、列支敦士登,亦因EEA條約(Agreement on the European Economic Area)之約束,而須遵行個人資料保護指令。
由於上述認可的過程相當嚴格而繁複,目前已取得歐盟執委會上述認可的非歐洲國家,除了紐西蘭之外,僅有例如,加拿大、阿根廷、以色列、澳洲等少數國家;至於歐洲國家亦僅有例如瑞士、安道爾等數國。
「國家科學技術發展計畫」為政府考量國家發展方向、社會需求情形以及區域均衡發展,而擬定之國家科學技術政策與推動科學技術研究發展之依據。依照《科學技術基本法》第10條之規定,國家科學技術發展計畫之訂定,應參酌中央研究院、科學技術研究部門、產業部門及相關社會團體之意見,並經全國科學技術會議討論後,由行政院核定。 全國科學技術會議每四年召開一次,最近一次會議為2013年的「第九次全國科技會議」,該次會議通過了民國102-105年的「國家科學技術發展計畫」,針對我國科技發展提出7項目標、27項策略及58項重要措施。7項目標包括:提升臺灣的學研地位、做好臺灣的智財布局、推動臺灣永續發展、銜接上游學研與下游產業、推動由上而下的科技計畫、提升臺灣科技產業創新動能、解決臺灣的科技人才危機等。
美國聯邦法官裁決AI「訓練」行為可主張合理使用美國聯邦法官裁決AI「訓練」行為可主張合理使用 資訊工業策進會科技法律研究所 2025年07月07日 確立我國資料創新利用的法制基礎,建構資料開放、共享和再利用的各項機制,滿足民間及政府取得高品質、可信任且易於利用資料的需求,以資料提升我國數位發展的價值,並強化民眾權利的保障,我國於2025年6月16日預告「促進資料創新利用發展條例」,擬推動資料基礎建設,促進更多資料的釋出。 AI發展領先國際的美國,近日首次有聯邦法院對AI訓練資料表達肯定合理使用看法,引發各界關注[1]。我國已開始著力於AI發展所需的資料流通與有效利用,該判決將有助於啟示我國個人資料、著作資料合法使用之法制因應研析。 壹、事件摘要 2025年6月23日美國加州北區聯邦地方法院(United States District Court for the Northern District of California),威廉·阿爾斯法官(Judge William Alsup)針對Andrea Bartz、Charles Graeber、Kirk Wallace Johnson這三位美國作家,對Anthropic公司訓練大型語言模型(Large Language Model, LLM)時使用受其等著作權保護書籍一案,作出指標性的簡易裁決(summary judgment)[2]。 此案被告掃描所購買的實體書籍,以及從盜版網站複製取得的受著作權保護的書籍,儲存在其數位化、可搜尋的檔案中,用來訓練其正在開發的各種大型語言模型。原告主張被當開發Claude AI模型,未經授權使用大量書籍作為訓練資料的行為,為「大規模未經授權利用」。法院則以四要素分析架構,支持合理使用抗辯(Fair Use Defense),強調AI訓練屬於技術發展過程中不可或缺的資料利用,AI公司於模型訓練階段使用著作權書籍,屬於「合理使用」(Fair Use),且具「高度轉化性」(Highly Transformative),包括將購買的實體圖書數位化,但不包括使用盜版,也不及於建立一個永久性的、通用目的的「圖書館(library)」(指訓練資料集)。 貳、重點說明 依美國著作權法第107條(17 U.S.C. § 107)規定,合理使用需綜合考量四要素,法官於本案中認為: 一、使用的目的與性質—形成能力具高度轉化性 AI模型訓練的本質在於學習語言結構、語意邏輯,而非單純複製或重現原著作。AI訓練過程將大量內容作為輸入,經由演算法解析、抽象化、向量化,最終形成轉個彎創造出不同的東西 (turn a hard corner and create something different) 的能力,屬於一種「學習」與「再創造」過程。AI訓練的目的並非為了重現原著作內容,而是為了讓模型具備生成新內容的能力。這種「轉化性」(transformative use)極高,與單純複製或替代原著作的行為有明顯區隔[3]。 另外訓練過程對資料做格式變更本身並未增加新的副本,簡化儲存並實現可搜尋性 (eased storage and enabled searchability),非為侵犯著作權人合法權益目的而進行,亦具有轉化性 (transformative)。原告就所購買的紙本圖書,有權按其認為合適的方式「處置 (dispose)」,將這些副本保存在其資料集中,用於所有一般用途[4]。 二、受保護作品的性質--高度創作性非關鍵因素 法院認同原告所主張的書籍是具有高度創意(creative)的作品理應享有較強的保護。但法院亦認為合理使用的四個要素,須為整體衡量,儘管作品本身具有較高的創意性,但由於使用行為的高度轉化性以及未向公眾直接重製原作表達,整體而言,法院認定用於訓練 LLM 的行為構成合理使用[5]。 三、使用的數量與實質性--巨大數量係轉化所必要 法院認為AI模型訓練需大量內容資料,甚至必須「全書」輸入,看似「大量使用」,但這正是AI技術本質所需。AI訓練是將內容進行抽象化、數據化處理,最終在生成新內容時,並不會原封不動重現原作。所以,雖然訓練過程涉及全部作品,但AI模型的輸出並不會重現原作的具體表達,這與單純複製、重製作品的行為有本質區別[6]。 四、對潛在市場或價值的影響 本案法院明確指出,人工智慧模型(特別是原告的Claude服務)的輸出內容,通常為全新生成內容,並非原作的精確重現或實質模仿冒,而且Claude服務在大型語言模型(LLM)與用戶之間加入額外功能,以確保沒有侵權輸出提供予用戶。因此,此類生成內容不構成對原作的替代,不會削弱原作的銷售市場,也不會造成市場混淆,而且著作權法保護的是原創而非保護作者免於競爭[7]。 不過即便法院支持被告的合理使用主張,肯定AI訓練與著作權法「鼓勵創作、促進知識流通」的立法目的相符。但仍然指出提供AI訓練的合理使用(Fair Use)不代表資料來源的適法性(Legality of Source)獲得合法認定。沒有任何判決支持或要求,盜版一本本來可以在書店購買的書籍對於撰寫書評、研究書中的事實或創建大型語言模型 (LLM) 是合理必要 (reasonably necessary) 的。此類對原本可(合法)取得的圖書進行盜版的行為,即使用於轉化性使用並立即丟棄,「本質上」、「無可救藥地」(inherently、irredeemably)構成侵害[8]。 參、事件評析 一、可能影響我國未來司法判決與行政函釋 我國於現行著作權法第65條規定下,須於個案交予我國法院認定合理使用主張是否能成立。本案判決為美國首個AI訓練行為可主張合理使用的法院見解,對於我國法院未來就對AI訓練資料取得的合法使用看法,顯見將會產生關鍵性影響。而且,先前美國著作權局之報告認為AI訓練過程中,使用受著作權保護作品可能具有轉化性,但利用結果(訓練出生成式AI)亦有可能影響市場競爭,對合理使用之認定較為嚴格,而此裁定並未採取相同的見解。 二、搜取網路供AI訓練資料的合理使用看法仍有疑慮 依據本會科法所創智中心對於美國著作權法制的觀察,目前美國各地法院中有多件相關案件正在進行審理,而且美國著作權局的合理使用立場較偏向有利於著作權利人[9]。相同的是,均不認同自盜版網站取得的資料可以主張合理使用。然而AI訓練所需資料,除來自於既有資料庫,亦多來自網路搜取,如其亦不在可主張範圍,那麼AI訓練的另一重要資料來源可能會受影響,後續仍須持續觀察其他案件判決結果。 三、有效率的資料授權利用機制仍是關鍵 前揭美國著作權局報告認為授權制度能同時促進產業發展並保護著作權,產業界正透過自願性授權解決作品訓練之方法,雖該制度於AI訓練上亦尚未為一完善制度。該裁決也指出,可合理使用資料於訓練AI,並不代表盜版取得訓練資料可以主張合理使用。這對於AI開發而言,仍是須要面對的議題。我國若要發展主權AI, 推動分散串接資料庫、建立權利人誘因機制,簡化資料查找與授權流程,讓AI訓練資料取得更具效率與合法性,才能根本打造台灣主權AI發展的永續基礎。 本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。 本文同步刊登於TIPS網站(https://www.tips.org.tw) [1]相關新聞、評論資訊,可參見:Bloomberg Law, "Anthropic’s AI Book-Training Deemed Fair Use by US Judge", https://news.bloomberglaw.com/ip-law/ai-training-is-fair-use-judge-rules-in-anthropic-copyright-suit-38;Anthropic wins a major fair use victory for AI — but it’s still in trouble for stealing books, https://www.theverge.com/news/692015/anthropic-wins-a-major-fair-use-victory-for-ai-but-its-still-in-trouble-for-stealing-books;Anthropic Scores a Landmark AI Copyright Win—but Will Face Trial Over Piracy Claims, https://www.wired.com/story/anthropic-ai-copyright-fair-use-piracy-ruling/;Anthropic Wins Fair Use Ruling In Authors' AI Copyright Suit, https://www.thehindu.com/sci-tech/technology/anthropic-wins-key-ruling-on-ai-in-authors-copyright-lawsuit/article69734375.ece., (最後閱覽日:2025/06/25) [2]Bartz et al. v. Anthropic PBC, No. 3:24-cv-05417-WHA, Doc. 231, (N.D. Cal. June 23, 2025),https://cdn.arstechnica.net/wp-content/uploads/2025/06/Bartz-v-Anthropic-Order-on-Fair-Use-6-23-25.pdf。(最後閱覽日:2025/06/25) [3]Id. at 12-14. [4]Id. at 14-18. [5]Id. at 30-31. [6]Id. at 25-26. [7]Id. at 28. [8]Id. at 18-19. [9]劉家儀,美國著作權局發布AI著作權報告第三部分:生成式AI訓練-AI訓練是否構成合理使用?https://stli.iii.org.tw/article-detail.aspx?no=0&tp=1&d=9352。
用ChatGPT找法院判決?從Roberto Mata v. Avianca, Inc.案淺析生成式AI之侷限用ChatGPT找法院判決?從Roberto Mata v. Avianca, Inc.案淺析生成式AI之侷限 資訊工業策進會科技法律研究所 2023年09月08日 生成式AI是透過研究過去資料,以創造新內容和想法的AI技術,其應用領域包括文字、圖像及影音。以ChatGPT為例,OpenAI自2022年11月30日發布ChatGPT後,短短二個月內,全球月均用戶數即達到1億人,無疑成為民眾日常生活中最容易近用的AI科技。 惟,生成式AI大量使用後,其中的問題也逐漸浮現。例如,ChatGPT提供的回答僅是從所學習的資料中統整歸納,無法保證資料的正確性。Roberto Mata v. Avianca, Inc.案即是因律師利用ChatGPT撰寫訴狀,卻未重新審視其所提供判決之正確性,以致後續引發訴狀中所描述的判決不存在爭議。 壹、事件摘要 Roberto Mata v. Avianca, Inc.案[1]中,原告Roberto Mata於2019年8月搭乘哥倫比亞航空從薩爾瓦多飛往紐約,飛行過程中膝蓋遭空服員的推車撞傷,並於2022年2月向法院提起訴訟,要求哥倫比亞航空為空服員的疏失作出賠償;哥倫比亞航空則主張已超過《蒙特婁公約》(Montreal Convention)第35條所訂之航空器抵達日起兩年內向法院提出損害賠償之請求時效。 R然而,法院審理過程中發現原告訴狀內引用之六個判決無法從判決系統中查詢,進而質疑判決之真實性。原告律師Steven A. Schwartz因而坦承訴狀中引用的六個判決是ChatGPT所提供,並宣稱針對ChatGPT所提供的判決,曾多次向ChatGPT確認該判決之正確性[2]。 貳、生成式AI應用之潛在風險 雖然運用生成式AI技術並結合自身專業知識執行特定任務,可能有助於提升效率,惟,從前述Roberto Mata v. Avianca, Inc.案亦可看出,依目前生成式AI技術之發展,仍可能產生資訊正確性疑慮。以下彙整生成式AI應用之8大潛在風險[3]: 一、能源使用及對環境危害 相較於傳統機器學習,生成式AI模型訓練將耗費更多運算資源與能源。根據波士頓大學電腦科學系Kate Saenko副教授表示,OpenAI的GPT-3模型擁有1,750億個參數,約會消耗1,287兆瓦/時的電力,並排放552噸二氧化碳。亦即,每當向生成式AI下一個指令,其所消耗的能源量相較於一般搜尋引擎將可能高出4至5倍[4]。 二、能力超出預期(Capability Overhang) 運算系統的黑盒子可能發展出超乎開發人員或使用者想像的隱藏功能,此發展將會對人類帶來新的助力還是成為危險的阻力,則會隨著使用者之間的相互作用而定。 三、輸出結果有偏見 生成式AI通常是利用公開資料進行訓練,若輸入資料在訓練時未受監督,而帶有真實世界既存的刻板印象(如語言、種族、性別、性取向、能力、文化等),據此建立之AI模型輸出結果可能帶有偏見。 四、智慧財產權疑慮 生成式AI進行模型訓練時,需仰賴大量網路資料或從其他大型資料庫蒐集訓練資料。然而,若原始資料來源不明確,可能引發取得資料未經同意或違反授權條款之疑慮,導致生成的內容存在侵權風險。 五、缺乏驗證事實功能 生成式AI時常提供看似正確卻與實際情形不符的回覆,若使用者誤信該答案即可能帶來風險。另外,生成式AI屬於持續動態發展的資訊生態系統,當產出結果有偏誤時,若沒有大規模的人為干預恐難以有效解決此問題。 六、數位犯罪增加與資安攻擊 過去由人工產製的釣魚郵件或網站可能受限於技術限制而容易被識破,然而,生成式AI能夠快速建立具高度說服力的各種擬真資料,降低詐騙的進入門檻。又,駭客亦有可能在不熟悉技術的情況下,利用AI進一步找出資安弱點或攻擊方法,增加防禦難度。 七、敏感資料外洩 使用雲端服務提供商所建立的生成式AI時,由於輸入的資料存儲於外部伺服器,若要追蹤或刪除有一定難度,若遭有心人士利用而導致濫用、攻擊或竄改,將可能產生資料外洩的風險。 八、影子AI(Shadow AI) 影子AI係指開發者未知或無法控制之AI使用情境。隨著AI模型複雜性增加,若開發人員與使用者未進行充分溝通,或使用者在未經充分指導下使用 AI 工具,將可能產生無法預期之風險。 參、事件評析 在Roberto Mata v. Avianca, Inc.案中,法院關注的焦點在於律師的行為,而非對AI技術使用的批判。法院認為,隨著技術的進步,利用可信賴的AI工具作為協助用途並無不當,惟,律師應踐行其專業素養,確保所提交文件之正確性[5]。 當AI科技發展逐漸朝向自主與獨立的方向前進,仍需注意生成式AI使用上之侷限。當個人在使用生成式AI時,需具備獨立思考判斷的能力,並驗證產出結果之正確性,不宜全盤接受生成式AI提供之回答。針對企業或具高度專業領域人士使用生成式AI時,除確認結果正確性外,更需注意資料保護及治理議題,例如建立AI工具合理使用情境及加強員工使用相關工具之教育訓練。在成本能負擔的情況下,可選擇透過企業內部的基礎設施訓練AI模型,或是在訓練模型前確保敏感資料已經加密或匿名。並應注意自身行業領域相關法規之更新或頒布,以適時調整資料使用之方式。 雖目前生成式AI仍有其使用之侷限,仍應抱持開放的態度,在技術使用與風險預防之間取得平衡,以能夠在技術發展的同時,更好地學習新興科技工具之使用。 [1]Mata v. Avianca, Inc., 1:22-cv-01461, (S.D.N.Y.). [2]Benjamin Weiser, Here’s What Happens When Your Lawyer Uses ChatGPT, The New York Times, May 27, 2023, https://www.nytimes.com/2023/05/27/nyregion/avianca-airline-lawsuit-chatgpt.html (last visited Aug. 4, 2023). [3]Boston Consulting Group [BCG], The CEO’s Roadmap on Generative AI (Mar. 2023), https://media-publications.bcg.com/BCG-Executive-Perspectives-CEOs-Roadmap-on-Generative-AI.pdf (last visited Aug. 29, 2023). [4]Kate Saenko, Is generative AI bad for the environment? A computer scientist explains the carbon footprint of ChatGPT and its cousins, The Conversation (May 23, 2023.), https://theconversation.com/is-generative-ai-bad-for-the-environment-a-computer-scientist-explains-the-carbon-footprint-of-chatgpt-and-its-cousins-204096 (last visited Sep. 7, 2023). [5]Robert Lufrano, ChatGPT and the Limits of AI in Legal Research, National Law Review, Volume XIII, Number 195 (Mar. 2023), https://www.natlawreview.com/article/chatgpt-and-limits-ai-legal-research (last visited Aug. 29, 2023).
循環型採購(Circular Procurement)相較於綠色採購(Green public procurement, GPP)所揭櫫的於採購產品、服務或勞務時選擇於其生命週期中對於環境造成衝擊較小者,循環型採購(Circular Procurement)可說是在綠色採購的基礎上,加入循環經濟(Circular Economy)強調最大化資源利用效率的概念,使對於環境的影響與衝擊並非唯一的標準,而應考量產品、服務或勞務對資源的利用效益。 歐盟執委會於2017年10月發布《循環經濟公共採購範例與指引》(Public Procurement for A Circular Economy: Good Practice and Guidance),其中指出循環型採購的意義在於促進歐盟邁向循環經濟轉型,藉由循環型採購所創造的需求,達成循環經濟所強調封閉資源循環(Closing the Loop)以最大化資源利用效率的概念,並肯認政府採購為推動循環經濟轉型的重要誘因之一。 具體的循環型採購做法,包含選擇具高度資源循環利用性的產品,例如可維修、再利用或利於回收再循環的產品,以及以採購服務代替採購硬體等,透過循環型採購對於資源利用效率的重視,支持符合循環經濟概念的產品設計、研發技術與商業模式等創新成果,與提出這些解決方案的企業或團隊,進而達成促進社會邁向循環經濟轉型與永續發展的目標。