內閣官房副長官於2019年12月18日召集國土交通省、警察廳、經濟產業省、防衛省等相關主管機關,召開第9次「小型無人機相關府省廳聯絡會議」(小型無人機に関する関係府省庁連絡会議),並決議由內閣於2020年向國會提交《小型無人機於重要設施周邊地區上空飛行禁止法》(重要施設の周辺地域の上空における小型無人機等の飛行の禁止に関する法律,以下簡稱「小型無人機等飛行禁止法」)修正案,將重要國際機場及其周邊地區列為小型無人機的永久禁航區。
《小型無人機等飛行禁止法》之目的係禁止小型無人機於國家重要設施上空飛行,以防患於未然,並維護國政中樞機能和良好國際關係,以及確保公共安全。依該法第2條、第9條第1項之規定,小型無人機之禁航區域包含國會議事堂、內閣總理大臣官邸、其他國家重要設施等、外國領事館等、國防相關設施和核能電廠,以及設施周邊經指定之地區。
而在機場部分,為預防危險並確保大會能順利準備及營運,日本已透過《世界盃橄欖球賽特別措施法》(ラグビーW杯特措法)及《東京奧運暨帕運特別措施法》(東京五輪・パラリンピック特措法),將國土交通大臣指定之機場及其周圍300米地區增列為小型無人機禁航區,但僅為大會期間的暫時性措施。內閣考量小型無人機之飛行可能會影響機場功能運行,甚至對經濟帶來重大不良影響,欲透過《小型無人機等飛行禁止法》修正案,將該暫時性措施改為永久措施。
本文為「經濟部產業技術司科技專案成果」
美國拜杜法雖下放政府補助研發成果給予執行單位,但基於針對受補助者行使研發成果時若未能妥適授權運用,政府得行使「介入權」(march-in rights)。所謂的介入權,是指補助機關事後可以因為執行單位授權或運用不當,而選擇強制介入調整其授權內容。但補助機關採用介入權是有前提要件的,35 U.S.C. § 203規定:「受補助者在適當的合理期間內,未能採取有效的措施以達到該創新的實際應用或使用…」或者強制授權是「其他聯邦法律規定的保護公共健康、安全需要或公共使用」所必要者。相對我國則有經濟部於「經濟部科學技術研究發展成果歸屬及運用辦法」第21條規定政府介入權發動之要件,其與美國法制有異曲同工之妙。
美國加州通過綠色化學法規由於完善控管機制迄今仍付之闕如,而市面上諸多含有危險化學物質的產品,尚無法立即要求廠商將之下架或提出解決方案,因此引起消費大眾、學界人士及公共健康倡議團體對於消費安全之關切;美國加州為有別於僅針對危險化學物質逐項管理的一般法令,轉而採取整體規範之包裹立法方式,於2008年9月底通過AB 1879與SB 509兩項綠色化學法規,增訂於「健康與安全法典(Health and Safety Code)」,促使商品在設計階段減少毒性物質之接觸。 根據AB 1879法令,由加州環保署(California Environmental Protection Agency) 所管轄之毒性物質控制部門(Department of Toxic Substances Control),現行除具備管理危險材料之儲存、使用與廢棄等法定職責外,另新增計畫如下: (1) 應於2011年1月1日前修改法規,優先針對引發關切的危險化學物質進行生命週期評估,並將評估結果遞交加州環境政策議會(California Environmental Policy Council);此外,毒性物質控制部門應研發潛在替代品,研擬減低或避免化學物質暴露之方法。 (2) 於2009年7月1日前成立綠絲帶科學小組(Green Ribbon Science Panel),用以管理奈米科技、風險分析、公眾健康等十五項與危險性化學物質相關之題材,並為日後政策修訂提供具科學基礎之建議。 (3) 除非另有法規限制,應要求業界呈報管理化學物質之詳細資料,公開作為民眾參考之用;如涉及商業機密,應有程序上之保障。 再者,SB 509法令要求環境健康風險評估辦公室(Office of Environmental Health Hazard Assessment)彙整危險化學物質之特性,並由毒性物質控制部門建立線上資料庫,使民眾便於查詢危險化學物質之相關資訊。 綜上所述,綠色化學法規的訂立,係回應消費大眾對於市售產品之疑慮,因而植基於科學界與現實生活,著重危險化學物質運用及暴露時所為之風險評估,並期於2011年前得以有效掌握化學物質,進而維持勞動環境安全、減少處理毒性廢棄物之成本,達成保護生態與民眾健康之目標。
美國聯邦法官裁決AI「訓練」行為可主張合理使用美國聯邦法官裁決AI「訓練」行為可主張合理使用 資訊工業策進會科技法律研究所 2025年07月07日 確立我國資料創新利用的法制基礎,建構資料開放、共享和再利用的各項機制,滿足民間及政府取得高品質、可信任且易於利用資料的需求,以資料提升我國數位發展的價值,並強化民眾權利的保障,我國於2025年6月16日預告「促進資料創新利用發展條例」,擬推動資料基礎建設,促進更多資料的釋出。 AI發展領先國際的美國,近日首次有聯邦法院對AI訓練資料表達肯定合理使用看法,引發各界關注[1]。我國已開始著力於AI發展所需的資料流通與有效利用,該判決將有助於啟示我國個人資料、著作資料合法使用之法制因應研析。 壹、事件摘要 2025年6月23日美國加州北區聯邦地方法院(United States District Court for the Northern District of California),威廉·阿爾斯法官(Judge William Alsup)針對Andrea Bartz、Charles Graeber、Kirk Wallace Johnson這三位美國作家,對Anthropic公司訓練大型語言模型(Large Language Model, LLM)時使用受其等著作權保護書籍一案,作出指標性的簡易裁決(summary judgment)[2]。 此案被告掃描所購買的實體書籍,以及從盜版網站複製取得的受著作權保護的書籍,儲存在其數位化、可搜尋的檔案中,用來訓練其正在開發的各種大型語言模型。原告主張被當開發Claude AI模型,未經授權使用大量書籍作為訓練資料的行為,為「大規模未經授權利用」。法院則以四要素分析架構,支持合理使用抗辯(Fair Use Defense),強調AI訓練屬於技術發展過程中不可或缺的資料利用,AI公司於模型訓練階段使用著作權書籍,屬於「合理使用」(Fair Use),且具「高度轉化性」(Highly Transformative),包括將購買的實體圖書數位化,但不包括使用盜版,也不及於建立一個永久性的、通用目的的「圖書館(library)」(指訓練資料集)。 貳、重點說明 依美國著作權法第107條(17 U.S.C. § 107)規定,合理使用需綜合考量四要素,法官於本案中認為: 一、使用的目的與性質—形成能力具高度轉化性 AI模型訓練的本質在於學習語言結構、語意邏輯,而非單純複製或重現原著作。AI訓練過程將大量內容作為輸入,經由演算法解析、抽象化、向量化,最終形成轉個彎創造出不同的東西 (turn a hard corner and create something different) 的能力,屬於一種「學習」與「再創造」過程。AI訓練的目的並非為了重現原著作內容,而是為了讓模型具備生成新內容的能力。這種「轉化性」(transformative use)極高,與單純複製或替代原著作的行為有明顯區隔[3]。 另外訓練過程對資料做格式變更本身並未增加新的副本,簡化儲存並實現可搜尋性 (eased storage and enabled searchability),非為侵犯著作權人合法權益目的而進行,亦具有轉化性 (transformative)。原告就所購買的紙本圖書,有權按其認為合適的方式「處置 (dispose)」,將這些副本保存在其資料集中,用於所有一般用途[4]。 二、受保護作品的性質--高度創作性非關鍵因素 法院認同原告所主張的書籍是具有高度創意(creative)的作品理應享有較強的保護。但法院亦認為合理使用的四個要素,須為整體衡量,儘管作品本身具有較高的創意性,但由於使用行為的高度轉化性以及未向公眾直接重製原作表達,整體而言,法院認定用於訓練 LLM 的行為構成合理使用[5]。 三、使用的數量與實質性--巨大數量係轉化所必要 法院認為AI模型訓練需大量內容資料,甚至必須「全書」輸入,看似「大量使用」,但這正是AI技術本質所需。AI訓練是將內容進行抽象化、數據化處理,最終在生成新內容時,並不會原封不動重現原作。所以,雖然訓練過程涉及全部作品,但AI模型的輸出並不會重現原作的具體表達,這與單純複製、重製作品的行為有本質區別[6]。 四、對潛在市場或價值的影響 本案法院明確指出,人工智慧模型(特別是原告的Claude服務)的輸出內容,通常為全新生成內容,並非原作的精確重現或實質模仿冒,而且Claude服務在大型語言模型(LLM)與用戶之間加入額外功能,以確保沒有侵權輸出提供予用戶。因此,此類生成內容不構成對原作的替代,不會削弱原作的銷售市場,也不會造成市場混淆,而且著作權法保護的是原創而非保護作者免於競爭[7]。 不過即便法院支持被告的合理使用主張,肯定AI訓練與著作權法「鼓勵創作、促進知識流通」的立法目的相符。但仍然指出提供AI訓練的合理使用(Fair Use)不代表資料來源的適法性(Legality of Source)獲得合法認定。沒有任何判決支持或要求,盜版一本本來可以在書店購買的書籍對於撰寫書評、研究書中的事實或創建大型語言模型 (LLM) 是合理必要 (reasonably necessary) 的。此類對原本可(合法)取得的圖書進行盜版的行為,即使用於轉化性使用並立即丟棄,「本質上」、「無可救藥地」(inherently、irredeemably)構成侵害[8]。 參、事件評析 一、可能影響我國未來司法判決與行政函釋 我國於現行著作權法第65條規定下,須於個案交予我國法院認定合理使用主張是否能成立。本案判決為美國首個AI訓練行為可主張合理使用的法院見解,對於我國法院未來就對AI訓練資料取得的合法使用看法,顯見將會產生關鍵性影響。而且,先前美國著作權局之報告認為AI訓練過程中,使用受著作權保護作品可能具有轉化性,但利用結果(訓練出生成式AI)亦有可能影響市場競爭,對合理使用之認定較為嚴格,而此裁定並未採取相同的見解。 二、搜取網路供AI訓練資料的合理使用看法仍有疑慮 依據本會科法所創智中心對於美國著作權法制的觀察,目前美國各地法院中有多件相關案件正在進行審理,而且美國著作權局的合理使用立場較偏向有利於著作權利人[9]。相同的是,均不認同自盜版網站取得的資料可以主張合理使用。然而AI訓練所需資料,除來自於既有資料庫,亦多來自網路搜取,如其亦不在可主張範圍,那麼AI訓練的另一重要資料來源可能會受影響,後續仍須持續觀察其他案件判決結果。 三、有效率的資料授權利用機制仍是關鍵 前揭美國著作權局報告認為授權制度能同時促進產業發展並保護著作權,產業界正透過自願性授權解決作品訓練之方法,雖該制度於AI訓練上亦尚未為一完善制度。該裁決也指出,可合理使用資料於訓練AI,並不代表盜版取得訓練資料可以主張合理使用。這對於AI開發而言,仍是須要面對的議題。我國若要發展主權AI, 推動分散串接資料庫、建立權利人誘因機制,簡化資料查找與授權流程,讓AI訓練資料取得更具效率與合法性,才能根本打造台灣主權AI發展的永續基礎。 本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。 本文同步刊登於TIPS網站(https://www.tips.org.tw) [1]相關新聞、評論資訊,可參見:Bloomberg Law, "Anthropic’s AI Book-Training Deemed Fair Use by US Judge", https://news.bloomberglaw.com/ip-law/ai-training-is-fair-use-judge-rules-in-anthropic-copyright-suit-38;Anthropic wins a major fair use victory for AI — but it’s still in trouble for stealing books, https://www.theverge.com/news/692015/anthropic-wins-a-major-fair-use-victory-for-ai-but-its-still-in-trouble-for-stealing-books;Anthropic Scores a Landmark AI Copyright Win—but Will Face Trial Over Piracy Claims, https://www.wired.com/story/anthropic-ai-copyright-fair-use-piracy-ruling/;Anthropic Wins Fair Use Ruling In Authors' AI Copyright Suit, https://www.thehindu.com/sci-tech/technology/anthropic-wins-key-ruling-on-ai-in-authors-copyright-lawsuit/article69734375.ece., (最後閱覽日:2025/06/25) [2]Bartz et al. v. Anthropic PBC, No. 3:24-cv-05417-WHA, Doc. 231, (N.D. Cal. June 23, 2025),https://cdn.arstechnica.net/wp-content/uploads/2025/06/Bartz-v-Anthropic-Order-on-Fair-Use-6-23-25.pdf。(最後閱覽日:2025/06/25) [3]Id. at 12-14. [4]Id. at 14-18. [5]Id. at 30-31. [6]Id. at 25-26. [7]Id. at 28. [8]Id. at 18-19. [9]劉家儀,美國著作權局發布AI著作權報告第三部分:生成式AI訓練-AI訓練是否構成合理使用?https://stli.iii.org.tw/article-detail.aspx?no=0&tp=1&d=9352。
歐洲議會通過《人工智慧法案》朝向全球首部人工智慧監管標準邁進下一步歐洲議會通過《人工智慧法案》 朝向全球首部人工智慧監管標準邁進下一步 資訊工業策進會科技法律研究所 2023年06月26日 觀察今年的科技盛事屬ChatGPT討論度最高,將人們從區塊鏈、元宇宙中,帶入人工智慧(AI)領域的新發展。ChatGPT於2022年11月由OpenAI開發的生成式人工智慧,透過深度學習模型,理解和生成自然語言,其功能包含回答各類型問題(如科學、歷史)、生成邏輯結構之文章(如翻譯、新聞標題)、圖形、影像等內容。然而對於人工智慧的發展,究竟如何去處理人機間互動關係,對於風險之管理及相關應用之規範又該如何,或許可從歐盟的法制發展看出端倪。 壹、事件摘要 面對人工智慧的發展及應用,歐盟執委會(European Commission)早在2018年6月成立人工智慧高級專家組(AI HLEG),並於隔年(2019)4月提出「可信賴的人工智慧倫理準則」(Ethics Guidelines for Trustworthy AI),要求人工智慧需遵守人類自主、傷害預防、公平、透明公開等倫理原則。於2021年4月21日歐盟執委會提出「人工智慧法律調和規則草案」(Proposal for a Regulation Laying Down Harmonised Rules on Artificial Intelligence (Artificial Intelligence Act) and Amending Certain Union Legislative Acts)(以下稱人工智慧法案),於2023年內部市場委員會(Internal Market Committee)與公民自由委員會(Civil Liberties Committee)通過並交由歐洲議會審議(European Parliament),最終《人工智慧法案》於2023年6月14日通過。後續將再歐盟理事會(Council of the European Union)與辯論協商,尋求具共識的最終文本[1]。 貳、重點說明 由於「歐盟議會通過」不等於「法案通過」,實際上歐盟立法機制不同於我國,以下透過法案內容說明的契機,概述一般情況下歐盟之立法流程: 一、歐盟立法過程 通常情況下,法案由歐盟執委會(下簡稱執委會)提出,送交歐盟理事會及歐洲議會,作為歐盟的「立法者」歐洲理事會(下簡稱理事會)與歐洲議會(下簡稱議會)將針對法案獨立討論並取得各自機關內之共識。大致上立法程序有可分為三階段,在一讀階段若理事會與議會對於執委會版本無修改且通過,則法案通過,若任一機關修改,則會進行到二讀階段。針對法案二讀若仍無法取得共識,則可召開調解委員會(Conciliation)協商,取得共識後進入三讀。簡單來說,法案是否能通過,取決於理事會與議會是否取得共識,並於各自機關內表決通過[2]。 目前《人工智慧法案》仍處於一讀階段,由於法案具備爭議性且人工智慧發展所因應而生之爭議迫在眉睫,議會通過後將與執委會、理事會進入「三方會談」(Trilogue)的非正式會議,期望針對法案內容取得共識。 二、人工智慧法案 (一)規範客體 《人工智慧法案》依風險及危害性程度分級,其中「不可接受風險」因抵觸歐盟基本價值原則禁止(符合公益目標,如重大或特定犯罪調查、防止人身安全遭受危害等例外許可)。「高風險」則為法案規範之重點,除針對系統技術穩健、資料處理及保存訂有規範外,針對人為介入、安全性等也訂定標準。 而針對高風險之範疇,此次議會決議即擴大其適用範圍,將涉及兒童認知、情緒等教育及深度偽造技術(Deepfake)納入高風險系統,並強調應遵循歐盟個人資料保護規範。此外對於社會具有高影響力之系統或社群平臺(法案以4500萬用戶做為判斷基準),由執委會評估是否列為高風險系統。針對目前討論度高的生成式人工智慧(ChatGPT),議會針對法案增訂其系統於訓練及應用目的上,應揭露其為生成式人工智慧所產出之內容或結果,並摘要說明所涉及之智慧財產權[3]。 (二)禁止項目 關於《人工智慧法案》對於高風險系統之要求,從執委會及理事會的觀點來看,原則上重點在於對弱勢的保護及生物資料辨識之權限。歐盟禁止人工智慧系統影響身理及心理,包含對於特定族群如孩童、身心障礙者等弱勢族群之不平等待遇。同時原則禁止即時遠端的生物辨識利用,包含對於人性分析、動作預測等對於人類評價、分類之應用,例外情況如犯罪調查、協尋失蹤兒童、預防恐怖攻擊、關鍵基礎設施破壞等情況時方被允許。此次議會決議提高禁止即時遠端生物辨識的標準,包含納入敏感資訊的蒐集如性別、種族、政治傾向等,及其他臉部辨識、執法、邊境管制、情緒辨識等項目[4]。 參、事件評析 有關《人工智慧法案》雖歐洲議會已一讀通過,然而後續仍要面對與歐盟理事會的協商討論,並取得共識才能規範整個歐盟市場。因此上述規範仍有變數,但仍可推敲出歐盟對於人工智慧(含生成式)的應用規範態度。在面對日新月異的新興科技發展,其立法管制措施也將隨著橫向發展,納入更多種面向並預測其走向趨勢。因人工智慧有應用多元無法一概而論及管制阻礙創新等疑慮,觀察目前國際上仍以政策或指引等文件,宣示人工智慧應用倫理原則或其風險之管理,偏重產業推動與自律。 觀察歐盟《人工智慧法案》之監管目的,似期望透過其市場規模影響國際間對於人工智慧的監管標準。倘若法案後續順利完成協商並取得共識通過,對於如OpenAI等大型人工系統開發商或社群平臺等,若經執委會評估認定為高風險系統,勢必對於未來開發、應用帶來一定衝擊。因此,歐盟對於人工智慧監管的態度及措施實則牽一髮而動全身,仍有持續觀察之必要。 本文同步刊登於TIPS網站(https://www.tips.org.tw) [1]The AI Act, Future of Life Institute, https://artificialintelligenceact.eu/developments/ (last visited Jun. 20, 2023) [2]The ordinary legislative procedure, Council of European Union, https://www.consilium.europa.eu/en/council-eu/decision-making/ordinary-legislative-procedure/ (last visited Jun. 19, 2023) [3]EU AI Act: first regulation on artificial intelligence, European Parliament, Jun. 14, 2023, https://www.europarl.europa.eu/news/en/headlines/society/20230601STO93804/eu-ai-act-first-regulation-on-artificial-intelligence (last visited Jun. 21, 2023) [4]MEPs ready to negotiate first-ever rules for safe and transparent AI, European Parliament, Jun. 14, 2023, https://www.europarl.europa.eu/news/en/press-room/20230609IPR96212/meps-ready-to-negotiate-first-ever-rules-for-safe-and-transparent-ai(last visited Jun. 21, 2023)