日本通過法案 明確列出無人機禁止飛行範圍

  有鑑於今年4月底,一架攜帶具有放射性物質的小型無人機墜毀在日本首相官邸的屋頂上,對元首維安構成威脅,日本政府為此決定加強無人機管控。日本國會並於9月通過民用航空法(Civil Aeronautics Law)修正案,明確列出無人機禁止飛行範圍,違反者最高將可處以50萬日圓(約4,200美元)以下罰鍰,但因災害或自然事故發生而利用無人機進行救援、搜索行動不在規範範圍。

  法案主要修正內容為,特定空域未經申請不可飛行,例如禁止無人機飛越人口密集的住宅區及機場周邊區域,人口密集地區,以每平方公里人口4,000人為界,因此東京都23區和主要區域城市,將會列為無人機禁航區。另外,在舉行慶祝活動及展覽等會吸引大批群眾暫時聚集的地區上空,無人機亦不可飛行。

  然而,通過申請後的飛行區域,仍須遵守幾項要求,如無人機須於日間目視範圍內飛行、無人機與人員及建築物必需保持一定距離,以及未經政府許可,夜間不可使用無人機,並禁止無人機裝載爆炸裝置等會造成人員傷害或財物損失的危險物品。除此之外,並定義「無人機是透過遠程遙控或自動駕駛儀器飛行,且無人機作為機器不能搭載乘客」,但輕量型玩具飛機不包含在內。修訂後的法案將於今年年底前開始施行。

  此外,下議院目前仍審議有關禁止無人機靠近重要設施,包含首相官邸、國會、皇宮、核電廠之草案。

相關連結
※ 日本通過法案 明確列出無人機禁止飛行範圍, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=7001&no=57&tp=1 (最後瀏覽日:2026/04/13)
引註此篇文章
你可能還會想看
日本IPA/SEC公佈「IoT高信賴化機能編」指導手冊

  日本獨立行政法人情報處理推進機構(IPA/SEC)於2016年3月公佈「聯繫世界之開發指引」,並於2017年5月8日推出「IoT高信賴化機能編」指導手冊,具體描述上開指引中有關技術面之部份,並羅列開發IoT機器、系統時所需之安全元件與機能。該手冊分為兩大部份,第一部份為開發安全的IoT機器和關聯系統所應具備之安全元件與機能,除定義何謂「IoT高信賴化機能」外,亦從維修、運用角度出發,整理開發者在設計階段須考慮之系統元件,並依照開始、預防、檢查、回復、結束等五大項目進行分類。第二部份則列出五個在IoT領域進行系統連接之案例,如車輛和住宅IoT系統的連接、住家內IoT機器之連接、產業用機器人與電力管理系統之連接等,並介紹案例中可能產生的風險,以及對應該風險之機能。IPA/SEC希望上開指引能夠作為日後國際間制定IoT國際標準的參考資料。

用ChatGPT找法院判決?從Roberto Mata v. Avianca, Inc.案淺析生成式AI之侷限

用ChatGPT找法院判決?從Roberto Mata v. Avianca, Inc.案淺析生成式AI之侷限 資訊工業策進會科技法律研究所 2023年09月08日 生成式AI是透過研究過去資料,以創造新內容和想法的AI技術,其應用領域包括文字、圖像及影音。以ChatGPT為例,OpenAI自2022年11月30日發布ChatGPT後,短短二個月內,全球月均用戶數即達到1億人,無疑成為民眾日常生活中最容易近用的AI科技。 惟,生成式AI大量使用後,其中的問題也逐漸浮現。例如,ChatGPT提供的回答僅是從所學習的資料中統整歸納,無法保證資料的正確性。Roberto Mata v. Avianca, Inc.案即是因律師利用ChatGPT撰寫訴狀,卻未重新審視其所提供判決之正確性,以致後續引發訴狀中所描述的判決不存在爭議。 壹、事件摘要 Roberto Mata v. Avianca, Inc.案[1]中,原告Roberto Mata於2019年8月搭乘哥倫比亞航空從薩爾瓦多飛往紐約,飛行過程中膝蓋遭空服員的推車撞傷,並於2022年2月向法院提起訴訟,要求哥倫比亞航空為空服員的疏失作出賠償;哥倫比亞航空則主張已超過《蒙特婁公約》(Montreal Convention)第35條所訂之航空器抵達日起兩年內向法院提出損害賠償之請求時效。 R然而,法院審理過程中發現原告訴狀內引用之六個判決無法從判決系統中查詢,進而質疑判決之真實性。原告律師Steven A. Schwartz因而坦承訴狀中引用的六個判決是ChatGPT所提供,並宣稱針對ChatGPT所提供的判決,曾多次向ChatGPT確認該判決之正確性[2]。 貳、生成式AI應用之潛在風險 雖然運用生成式AI技術並結合自身專業知識執行特定任務,可能有助於提升效率,惟,從前述Roberto Mata v. Avianca, Inc.案亦可看出,依目前生成式AI技術之發展,仍可能產生資訊正確性疑慮。以下彙整生成式AI應用之8大潛在風險[3]: 一、能源使用及對環境危害 相較於傳統機器學習,生成式AI模型訓練將耗費更多運算資源與能源。根據波士頓大學電腦科學系Kate Saenko副教授表示,OpenAI的GPT-3模型擁有1,750億個參數,約會消耗1,287兆瓦/時的電力,並排放552噸二氧化碳。亦即,每當向生成式AI下一個指令,其所消耗的能源量相較於一般搜尋引擎將可能高出4至5倍[4]。 二、能力超出預期(Capability Overhang) 運算系統的黑盒子可能發展出超乎開發人員或使用者想像的隱藏功能,此發展將會對人類帶來新的助力還是成為危險的阻力,則會隨著使用者之間的相互作用而定。 三、輸出結果有偏見 生成式AI通常是利用公開資料進行訓練,若輸入資料在訓練時未受監督,而帶有真實世界既存的刻板印象(如語言、種族、性別、性取向、能力、文化等),據此建立之AI模型輸出結果可能帶有偏見。 四、智慧財產權疑慮 生成式AI進行模型訓練時,需仰賴大量網路資料或從其他大型資料庫蒐集訓練資料。然而,若原始資料來源不明確,可能引發取得資料未經同意或違反授權條款之疑慮,導致生成的內容存在侵權風險。 五、缺乏驗證事實功能 生成式AI時常提供看似正確卻與實際情形不符的回覆,若使用者誤信該答案即可能帶來風險。另外,生成式AI屬於持續動態發展的資訊生態系統,當產出結果有偏誤時,若沒有大規模的人為干預恐難以有效解決此問題。 六、數位犯罪增加與資安攻擊 過去由人工產製的釣魚郵件或網站可能受限於技術限制而容易被識破,然而,生成式AI能夠快速建立具高度說服力的各種擬真資料,降低詐騙的進入門檻。又,駭客亦有可能在不熟悉技術的情況下,利用AI進一步找出資安弱點或攻擊方法,增加防禦難度。 七、敏感資料外洩 使用雲端服務提供商所建立的生成式AI時,由於輸入的資料存儲於外部伺服器,若要追蹤或刪除有一定難度,若遭有心人士利用而導致濫用、攻擊或竄改,將可能產生資料外洩的風險。 八、影子AI(Shadow AI) 影子AI係指開發者未知或無法控制之AI使用情境。隨著AI模型複雜性增加,若開發人員與使用者未進行充分溝通,或使用者在未經充分指導下使用 AI 工具,將可能產生無法預期之風險。 參、事件評析 在Roberto Mata v. Avianca, Inc.案中,法院關注的焦點在於律師的行為,而非對AI技術使用的批判。法院認為,隨著技術的進步,利用可信賴的AI工具作為協助用途並無不當,惟,律師應踐行其專業素養,確保所提交文件之正確性[5]。 當AI科技發展逐漸朝向自主與獨立的方向前進,仍需注意生成式AI使用上之侷限。當個人在使用生成式AI時,需具備獨立思考判斷的能力,並驗證產出結果之正確性,不宜全盤接受生成式AI提供之回答。針對企業或具高度專業領域人士使用生成式AI時,除確認結果正確性外,更需注意資料保護及治理議題,例如建立AI工具合理使用情境及加強員工使用相關工具之教育訓練。在成本能負擔的情況下,可選擇透過企業內部的基礎設施訓練AI模型,或是在訓練模型前確保敏感資料已經加密或匿名。並應注意自身行業領域相關法規之更新或頒布,以適時調整資料使用之方式。 雖目前生成式AI仍有其使用之侷限,仍應抱持開放的態度,在技術使用與風險預防之間取得平衡,以能夠在技術發展的同時,更好地學習新興科技工具之使用。 [1]Mata v. Avianca, Inc., 1:22-cv-01461, (S.D.N.Y.). [2]Benjamin Weiser, Here’s What Happens When Your Lawyer Uses ChatGPT, The New York Times, May 27, 2023, https://www.nytimes.com/2023/05/27/nyregion/avianca-airline-lawsuit-chatgpt.html (last visited Aug. 4, 2023). [3]Boston Consulting Group [BCG], The CEO’s Roadmap on Generative AI (Mar. 2023), https://media-publications.bcg.com/BCG-Executive-Perspectives-CEOs-Roadmap-on-Generative-AI.pdf (last visited Aug. 29, 2023). [4]Kate Saenko, Is generative AI bad for the environment? A computer scientist explains the carbon footprint of ChatGPT and its cousins, The Conversation (May 23, 2023.), https://theconversation.com/is-generative-ai-bad-for-the-environment-a-computer-scientist-explains-the-carbon-footprint-of-chatgpt-and-its-cousins-204096 (last visited Sep. 7, 2023). [5]Robert Lufrano, ChatGPT and the Limits of AI in Legal Research, National Law Review, Volume XIII, Number 195 (Mar. 2023), https://www.natlawreview.com/article/chatgpt-and-limits-ai-legal-research (last visited Aug. 29, 2023).

美國FDA擬修法調整臨床實驗知情同意義務之豁免標準

美國FDA擬修法調整臨床實驗知情同意義務之豁免標準 資訊工業策進會科技法律研究所 蔡宜臻法律研究員 2018年11月27日 壹、事件摘要   知情同意(informed consent)是人體試驗受試者保護重要的一環,同時也是生物醫學長期以來的研究傳統,然其規範內容卻會因科技與研究方式的改變而略有調整。美國食品藥物管理局(Food and Drug Administration, FDA)於2018年11月15日發布一份法規提案(proposed rule),公開徵求意見評論。該提案目的在於調整FDA知情同意的相關規定,未來FDA希望允許人體試驗倫理委員會(Institutional Review Boards, IRB)在試驗僅有最小風險(minimal risk)的情況下,得以裁決一臨床實驗案可豁免知情同意的責任,或更改某些「告知要項」[1]。本次法規提案徵詢終止日為2019年1月14日,FDA並規劃於本法規命令正式公告施行後,廢止其於2017年7月所發佈之《IRB豁免或變更臨床實驗之知情同意指南》(IRB Waiver or Alteration of Informed Consent for Clinical Investigations Involving No More Than Minimal Risk to Human Subjects)[2] 貳、重點說明    目前FDA僅允許在危及生命[3]或緊急研究(emergency research)[4]的情況下,得以例外不必符合知情同意的一般要求(general requirements)[5]。而根據FDA於2018年11月15日發布於聯邦公報(Federal Register)的法規提案內容,FDA打算新增「試驗僅有最小風險」(The research involves no more than minimal risk to subjects)做為豁免或變更知情同意項目的甄別標準之一。如此一來若是修法通過,FDA對於知情同意豁免與否的認定標準就會跟1991年制訂的《美國聯邦受試者保護通則》(Federal Policy for the Protection of Human Subjects,簡稱the Common Rule)[6]更加接近。換言之,未來修法通過後,由FDA管理的人體臨床實驗將有三種情形得以豁免或變更知情同意義務:危及生命、緊急研究與僅具有最小風險的研究。   所謂最小風險,係指「研究中預期的傷害或不適的概率和程度,不大於在日常生活中或在進行常規身體或心理檢查時通常遇到的傷害或不適」[7],比如:不需新藥研究申請(investigational new drug application, IND)的新藥研究;醫療器材臨床試驗豁免(investigational device exemption, IDE)之醫療器材研究;檢體之取得為無創(受試者之頭髮或指甲)的臨床研究;為研究目的而蒐集聲音、影片、數據或圖像紀錄;研究個體或群體的特徵或行為;個人或焦點團體訪談等質性研究[8]。FDA指出本次法規提案當中所指的最小風險定義與其附隨條件將與《美國聯邦受試者保護通則》自1991年施行以來之規定一致,即該研究只要同時符合以下四點便可望由IRB審查豁免或變更知情同意義務[9]: 僅有最小風險的研究[10]。 若不豁免或變更知情同意義務,則研究無法順利進行[11]。 不造成受試者權利跟福祉之負面影響[12]。 受試者將在適當時機獲悉進一步研究資訊[13]。   此次提案的法源依據是2016年通過的《21世紀治癒法》(21st Century Cures Act)第3024節所修正之《聯邦食品藥物化妝品法》(Federal Food, Drug, and Cosmetic Act)第505(i)(4)、520(g)(3)節。《21世紀治癒法》第3024節賦予FDA權力放寬臨床實驗的知情同意義務,其立法背景是由於目前FDA相關規範對知情同意要求相對嚴格,當研究者無法滿足現有法規對於知情同意的要求,便可能使潛在的有價值的研究被迫停止[14];又或在某些情形下,要求研究者在進行臨床實驗時取得研究對象的知情同意並不切實際[15]。《21世紀治癒法》通過後,FDA隨即於2017年7月發布《IRB豁免或變更臨床實驗之知情同意指南》,當中指出FDA並不打算在僅有最小風險的臨床研究中,反對IRB做出豁免或變更知情同意項目的判定,若本次法規提案後續正式生效,FDA便會廢止此指南,使其轉為FDA規則(regulation)。 參、事件評析   知情同意是生物醫學研究的學術傳統,包含兩大重點,一是令研究對象充分知悉其所參與的研究,包含其研究目的、內容、風險與預期利益;二是確保研究對象在做出同意或不同意之意思表示時,其意思表示之真實性,由此保障受試者的自主權[16]。   知情同意之概念最早源自1947年的紐倫堡法典(Nuremburg Code),其規範內涵在過去數十年間因為生物醫學的研究方法與進行模式的變革而產生變化。早年的臨床研究主要由政府資助、在單一的機構進行,涉及的受試者人數相對有限;而近三、四十年,醫學研究漸漸發展成多機構、多中心甚至跨國的研究案,受試者可能高達數萬甚至數十萬,同時也逐漸形成跨領域的研究轉型,涉及如社會學、心理學、教育、環境、氣候等學科。在此情形下,研究方法與資料取得勢必與過去截然不同,傳統的知情同意的制度漸漸無法滿足現代醫學研究的需要。1978年貝爾蒙特報告(Belmont Report)便強調應評估臨床研究的風險是否超過日常可接受範圍[17],1981年美國據此制定《美國衛生及公共服務部人體研究保護政策最終規則》(Final regulations amending basic HHS policy for the protection of human research subjects)[18]便首次將「不超過日常風險的臨床實驗」[19]納為知情同意之豁免或變更之標準;1991年制定的《美國聯邦受試者保護通則》亦延續此概念並進一步做出更明確定義(見前述),惟當時FDA基於其業務為確保藥品、生物製劑以及醫療器材安全與執照核發,與《美國聯邦受試者保護通則》作為拘束十六個聯邦機關的一般性規範不同,因此未將「僅有最小風險的臨床實驗」納為豁免或變更知情同意義務的標準[20]。   時序進展至今,資通訊技術的進步所累積的巨量資料逐漸成為生醫研究的重要研究資源,面對這項轉變與研究者對於倫理審查委員會專業性的質疑,美國近年再度嘗試調整修法。2016年通過之《21世紀治癒法》便要求FDA將「僅有最小風險的臨床實驗」納為得豁免或變更免除知情同意的標準之一,可被視為是期望FDA向更為寬鬆的《美國聯邦受試者保護通則》靠攏;另方面,2017年修訂《美國聯邦受試者保護通則》之最終規則(final rule,將於2019年1月生效),也新增「若是研究涉及取得可識別的個人資料或可識別的生物標本,需要證明若無這些資料研究將無法進行」[21],作為豁免或變更知情同意義務的要件,許是為避免個人資料因知情同意的放寬而有遭受濫用之虞。不過這項要件在本次FDA法規提案並未提及。   綜上述,本文整理兩大爭點: 一、最小風險判定標準之不確定性。   最小風險之定義雖明確指「研究中預期的傷害或不適的概率和程度,不大於在日常生活中或在進行常規身體或心理檢查時通常遇到的傷害或不適」[22],惟最小風險之判定仍存在不確定空間。FDA雖強調將承繼《美國聯邦受試者保護通則》自1991年施行以來個案累積之最小風險判定標準,但此一不確定性直接影響的是受試者的自主權,侵害美國憲法所保障的人權精神;此外,也有批評指出FDA所援引的《美國聯邦受試者保護通則》對於最小風險的定義文字過於模糊,容易造成誤解或誤判[23][24][25]。 二、本次法規提案並未新增《美國聯邦受試者保護通則》即將於2019年1月生效的項目,或再度造成FDA規定與其他聯邦機構未能一致的情形。   FDA本次法規提案新增「最小風險」的其中一個原因便是希望盡可能與《美國聯邦受試者保護通則》標準一致。然令人困惑的是,其並未新增《美國聯邦受試者保護通則》即將於2019年1月實施的豁免或變更知情同意義務的要件:「若是研究涉及取得可識別的個人資料或可識別的生物標本,需要證明若無這些資料研究將無法進行」[26]。換言之,即便此次修法提案通過,依舊與會與《美國聯邦受試者保護通則》有落差。更甚者,《美國聯邦受試者保護通則》所新增的要件,實意在保障個人資料不會因知情同意的豁免範圍改變而遭到恣意使用或揭露,有助於保護個人隱私與資料自主,而FDA並未將其納入法規提案內容,或可能造成個資保護之漏洞。此項缺失FDA於法規提案當中亦有提及,或可期待後續修正[27]。 肆、結語   FDA原有關於豁免或變更知情同意的規定與《美國聯邦受試者保護通則》存有寬嚴程度落差,FDA此前僅限定在有生命危險與緊急研究的情形方可為之;而《美國聯邦受試者保護通則》由於是一種一般性規範,所以保障程度較為寬鬆。FDA本次修法將使部分僅有最小風險的臨床實驗可以更為順利進行,同時也使FDA知情同意的規範更加接近當前《美國聯邦受試者保護通則》的規定。惟最小風險的認定存在不確定性,其所可能侵害的是受試者自主權,不可不慎。又,《美國聯邦受試者保護通則》即將在2019年1月規定研究蒐集之個人資料必須對研究有絕對必要方可,而本次FDA的法規提案未見跟進此一新增要件。由於本提案仍在意見評論階段,是以FDA後續是否再度更新提案內容,值得後續關注。 [1] Institutional Review Board Waiver or Alteration of Informed Consent for Minimal Risk Clinical Investigation, 83 Fed. Reg. 57378-57386(Nov. 15, 2018) https://www.federalregister.gov/documents/2018/11/15/2018-24822/institutional-review-board-waiver-or-alteration-of-informed-consent-for-minimal-risk-clinical (last visited Nov. 26, 2018) [2] FOOD AND DRUG ADMINISTRATION[FDA], FDA In Brief: FDA takes steps to allow greater flexibility for clinical investigators about informed consent in minimal risk situations.(2018/11/13) https://www.fda.gov/NewsEvents/Newsroom/FDAInBrief/ucm625747.htm (last visited Nov. 26, 2018) [3] 21 CFR 50.23 [4] 21 CFR 50.24 [5] 有關更多FDA豁免告知同意之項目類別與細部說明,可參考https://www.accessdata.fda.gov/scripts/cdrh/cfdocs/cfcfr/CFRSearch.cfm?fr=50.23; https://www.accessdata.fda.gov/scripts/cdrh/cfdocs/cfcfr/CFRSearch.cfm?fr=50.24 (last visited Jan. 8, 2019) [6] 45 CFR 46, subpart A. [7]“the probability and magnitude of harm or discomfort anticipated in the research are not greater in and of themselves than those ordinarily encountered in daily life or during the performance of routine physical or psychological examinations or tests.” (46 CFR 102(i); 21 CFR 50.3(k); 21 CFR 56.102(i)). [8] U.S. DEPARTMENY OF HEALTH & HUMAN SERVICES [HHS], OHRP Expedited Review Categories.(1998) https://www.hhs.gov/ohrp/regulations-and-policy/guidance/categories-of-research-expedited-review-procedure-1998/index.html (last visited Nov. 26, 2018) [9] 45 CFR 46.116 [10] “The research involves no more than minimal risk to subjects” [11] “The research could not be carried out practicably without the waiver or alteration” [12] “The waiver or alteration will not adversely affect the rights and welfare of the subjects” [13] “Where appropriate, the subjects will be provided with additional information about their participation” [14] FOOD AND DRUG ADMINISTRATION[FDA], FDA In Brief: FDA takes steps to allow greater flexibility for clinical investigators about informed consent in minimal risk situations.(2018/11/13) https://www.fda.gov/NewsEvents/Newsroom/FDAInBrief/ucm625747.htm (last visited Nov. 26, 2018) [15] id. [16] 陳子平,〈醫療上「充分說明與同意」之法理在刑法上的效應(上)〉,《月旦法學雜誌》,第278期,頁224(2010)。 [17] THE NATIONAL COMMISSION FOR THE PROTECTION OF HUMAN SUBJECTS OF BIOMEDICAL AND BEHAVIORAL RESEARCH, The Belmont Report—Ethical Principles and Guidance for the Protection of Human Subjects of Research(1978), https://videocast.nih.gov/pdf/ohrp_appendix_belmont_report_vol_2.pdf (last visited Jan. 9, 2019) [18] Final regulations amending basic HHS policy for the protection of human research subjects. 46(16) Fed. Reg. 8366–8391 (Jan. 26, 1981) [19] “those risks encountered in the daily lives of the subjects of the research” (46(16) FR 8373) [20] NATIONAL CENTER FOR BIOTECHNOLOGY INFORMATION[NCBI], Determining Minimal Risk in Social and Behavioral Research(2014), https://www.ncbi.nlm.nih.gov/books/NBK217976/ (last visited Jan. 9, 2019) [21]“if the research involves using identifiable private information or identifiable biospecimens, the research could not practicably be carried out without using such information or biospecimens in an identifiable format” (45 CFR 46.116(f)(3)(iii)) [22] 21 CFR 50.3(k), 56.102(i) [23] Regulations.gov, https://www.regulations.gov/document?D=FDA-2018-N-2727-0010 (last visited Dec. 20, 2018) [24] Shah S, Whittle A, Wilfond B, Gensler G & Wendler D., How do institutional review boards apply the federal risk and benefit standards for pediatric research, JOURNAL OF THE AMERICAN MEDICAL ASSOCIATION, 291(4), 476–482(2004). [25] Lidz C & Garverich S., What the ANPRM missed: Additional needs for IRB reform. JOURNAL OF LAW, MEDICINE AND ETHICS, 41(2), 390–396(2013). [26] 45 CFR 46.116(f)(3)(iii) [27] Supra note No. 1

對AI下達複雜、反復修改指令不算創作行為? —美國著作權局發布AI著作權報告第2部分:可受著作權保護性

.Pindent{text-indent: 2em;} .Noindent{margin-left: 22px;} .NoPindent{text-indent: 2em; margin-left: 38px;} .No2indent{margin-left: 54px;} .No2Pindent{text-indent: 2em; margin-left: 54px} .No3indent{margin-left: 4em;} .No3Pindent{text-indent: 2em; margin-left: 4em} 對AI下達複雜、反復修改指令不算創作行為? —美國著作權局發布AI著作權報告第2部分:可受著作權保護性 資訊工業策進會科技法律研究所 2025年02月10日 由於生成式AI是根據使用者輸入的提示或稱指令(prompts),依機率分布推算生成出最有可能出現的結果,因此有人戲稱AI在每次生成時都是在隨機進行「擲骰子」,即便相同的提示也可能會得到有差異的輸出結果。為應對AI回應的不確定性和多樣性,如何下達提示,有效使用AI,為必須學習的課題。因此,有人說訓練不了人工智慧?我們可以訓練自己,但用心思考精準有效指令,費心對AI生成結果進行反復修改,就能取得著作權保護嗎?美國著作權局提出的看法,或許與大家的期待不同。 壹、事件摘要 美國著作權局今(2025)年1月發布AI著作權報告的「第2部分:可受著作權保護性(Part 2: Copyrightability)」[1]。為幫助評估AI著作領域的立法或監管措施是否必要,該局於2023年8月即發布「著作權與人工智慧議題徵詢通知(Copyright Office Issues Notice of Inquiry on Copyright and Artificial Intelligence)」,對外尋求對包括涉及使用受著作權保護的作品來訓練AI模型的問題、適當的透明度與揭露程度受著作權保護的作品的使用以及AI生成內容的法律定位等問題的意見[2]。在分析AI引發的著作權法與政策問題的意見徵詢結果後,美國著作權局於2024年7月31日,以數位複製物(digital replicas)主題,發布「著作權與人工智慧分析人工智慧引發的著作權法和政策議題」(Copyright and Artificial Intelligence analyzes copyright law and policy issues raised by artificial intelligence)報告的第1部分[3],並隨後於今(2025)年1月發布報告的「第2部分:可受著作權保護性(Part 2: Copyrightability)」[4]。 此報告指出現有的法律原則可根據個案判斷是否具有足夠的人為貢獻,有足夠的彈性足以解決關於AI生成內容是否具有著作權的問題,並不需要修法;當人工智慧被用作工具,且人類能夠決定作品的表達元素時,對AI生成結果的創意選擇、協調或安排,以及對生成結果的創意修改,都可獲得著作權保護;但目前使用者即使給予AI詳細的提示,也無法控制AI如何生成內容,不足以使其成為「作者」;著作保護仍須以人為創意投入,既有法令已足以激勵AI發展,沒有理由為AI生成的內容提供額外的著作權或特殊權利保護。 貳、重點說明 一、AI系統的輸出存在不可控制性[5] 當前生成式AI系統的輸出可能包括未指定的內容,在有數十億個參數的模型構建的複雜AI系統下,特定提示或其他輸入對於AI生成內容的影響存在不確定性,即使是專家研究人員在理解或預測特定模型行為的能力方面也受到限制。不僅AI生成的內容會因請求而異,而且即使具有相同的提示也是難以預測的,即使有AI系統例如Midjourney允許使用者控制生成一致的結果,在重複相同的提示時收到幾乎相同的圖像,然而即使如此也無法保證完美的一致性。 二、有辛勤努力、指示建議不等於有創造性貢獻 (一)無法僅因時間和努力而獲得著作權保護,它需要原創性 (originality),無論原創性有多麼低微 美國的著作權保護限於人類的創作(human authorship) 沒有任何法院承認非人類創造(non-human creation)的著作權。當然在使用AI的大多數情況下,人類將參與創作過程(creation process),並且在他們的貢獻符合創作資格的範圍時,能使其作品具有著作權。美國上訴法院(Supreme Court)明確表示,需要的是原創性 (originality),而不僅僅是時間和努力。在「Feist Publications, Inc. v. Rural Telephone Service Co.」案中,法院否定僅憑「血汗」(sweat of the brow)就足以獲得著作權保護的主張,但法院也認為絕大多數作品都很容易達到標準,因為所需的創造力水平極低;即使是很小的量、無論多麼粗糙、卑微或顯而易見都無妨(no matter how crude, humble or obvious’ it might be.)[6]。 (二)使用機器作為工具並不會否定著作權保護,如果作品已包含足夠的人類創作表達元素(human-authored expressive elements) 對於AI工具的使用是否影響著作權保護,美國著作權局提及在「Burrow-Giles Lithographic Co. v. Sarony」案中,法院將「作者」定義為「任何事物起源的人、創始人、製造者、完成科學或文學作品的人。(he to whom anything owes its origin; originator; maker; one who completes a work of science or literature.)」。法院確定了即使是使用照相機,攝影師也有許多創造性貢獻,包括將主題置於相機前,選擇和安排服裝、窗簾與其他各種配件、安排主題以呈現優雅的輪廓,以及喚起其所需的表情[7]。因此能否受保護的重點不在於有無使用工具,而是創造性投入的有無。 (三)「作者」必須是實際創作作品,即將想法轉化為有形呈現的表達的人,不包括只是提供詳細的建議和指示或做無實質改變轉換的人 美國著作權局在報告中指出,上訴法院在「Community for Creative Non-Violence v. Reid, "CCNV"」案中,認為:繪製設計草圖和以有形的表達媒介實現創意,使藝術家成為作者。該案的哥倫比亞特區巡迴法院明確表示,委託雕塑並提供詳細的建議與指示是不夠的,因為此類貢獻構成不受保護的想法,其不能因此成為雕塑的共同作者。而第三巡迴上訴法院在「Andrien v. Southern Ocean County Chamber of Commerce」案中, 認為原告「明確指示了副本的準備工作的具體細節」,因此「編譯只需要簡單的轉錄即可實現最終的有形形式」。因為印刷商「沒有實質改變原告的原始表達(original expression)」,法院裁定原告是「作者」[8]。 因此,該局認為儘管人工智慧生成內容不能被視為使用者與人工智慧系統的共同作品(joint work),但對於是否貢獻足夠的表達以被視為作者,提供有用的類比—僅僅向作者(AI)描述委託作品應該做什麼或看起來像什麼的人,並不是著作權法意義上的共同作者。 三、AI的創作輔助使用 美國著作權局同意,使用人工智慧作為輔助創作作品的工具與使用人工智慧作為人類創造力的替代品之間存在重要區別。雖然增強人類表達的輔助使用不會限制著作權保護,但認為需要進一步分析下列三種使用方式的差異: (1)指示人工智慧系統產生輸出的提示(prompts); (2)可以在人工智慧生成內容中感知到的表達性輸入(expressive inputs) (3)對人工智慧生成內容進行修改或安排(modifications or arrangements)。 (一)指示人工智慧系統產生輸出的提示(prompts) 由於欠缺對生成結果的控制能力,使用者即使輸入複雜的提示指令亦無法讓其成為「作者」[9]。提示本質上是傳達不受保護的思想,雖然高度詳細的提示可以包含使用者所需的表達元素,但目前的AI技術無法僅靠提示即能給予使用者足夠的人工控制,所以AI 系統的使用者無法成為生成內容的「作者」。雖然在輸入提示可以被視為類似於向受委託創作的藝術家提供指導,但在人與人之間的合作,委託者能夠監督、指導與理解受委託的人類藝術家的貢獻,但這情況目前不存在於人與AI的合作。或許將來可允許使用者對AI的生成內容取得完全的控制權,讓AI的貢獻變成固定或機械化(rote or mechanical)。 由於提示與結果輸出之間的差距,以及相同的提示可以生成多個不同生成內容的事實,進一步表明使用者缺乏對將他們想法轉換為固定表達的控制。而反覆修改提示不會改變、也無法為取得著作權提供足夠的依據,因為著作權保護的是作者身份,而不是辛勤工作。而且美國著作權局認為輸入修改後的提示與輸入單個提示在作用上似乎沒有實質性區別,對過程的控制程度都沒有改變。 不過,有些評論意見舉自然攝影作品做類比,認為即使攝影家無法控制野生動物何時進入畫面,這些作品也可能有資格獲得著作權保護。但美國著作權局認為,這與AI生成不同—攝影家的創作過程並沒有結束於他對作品的想法,其在照相機中控制角度、位置、速度和曝光的選擇,且可能進行作品的後製調修。該局指出「從(AI系統)提供的選項(生成結果)中進行選擇」不能被視為受著作權保護的作者身份, 因為「單一輸出的選擇本身並不是一種創造性的行為」。但該局也表示有時提示可以充分控制AI生成內容中的表達元素,如果AI技術進一步為使用者提供表達元素的更多控制,則結論可能會不同。 (二)富有表現力的輸入(Expressive Inputs)[10]與純粹指令不同 目前AI 系統接受以文本、圖像、音訊、視頻或這些內容形式的輸入,而可以將輸入保留成生成內容的一部分,例如修改或翻譯受著作權保護的作品。這類型的輸入,雖然亦可視為不同形式的提示,但與僅僅是傳達預期結果的提示不同。它所給的不僅是一個概念,更重要的是它限制了AI生成內容的「自主性」。因此可能提供了「更具說服力的人工干預」,而不是簡單的「將提示應用於未知的起點」。美國著作權局認為一個人輸入自己受著作權保護的作品,如果該作品在生成的內容中是可察覺的(perceptible),那麼他至少是該部分生成內容的「作者」。此類 AI 生成輸出的著作權將涵蓋可察覺的人類表達,包括可能涵蓋到作者對作品素材(material)的選擇、協調和安排。 (三)修改或安排(Arranging)AI生成的內容仍可受保護[11] 美國著作權局於報告中指出,使用 AI 生成內容通常是一個初始或中間步驟,如同其AI 註冊指引的說明—「人類可以以足夠創造性的方式選擇或安排 AI 生成的內容,以使最終作品整體構成一個作者的原創作品(the resulting work as a whole constitutes an original work of authorship)」。人類可以藉由修改AI生成的內容,使其達到符合著作權保護標準的程度,如果人類作者以創造性的方式選擇、協調和安排 AI 生成的內容,應該能夠主張著作權。例如:Midjourney 提供「Vary Region and Remix Prompting」,允許使用者使用提示來指定生成圖像的區域。美國著作權局認為此類可以讓使用者控制各個創意元素的選擇與放置的修改,是否達到最低原創性標準雖將取決於具體個案情況。但其認為就生成的內容位置可控制的案例,與純粹提示(prompts alone)情況不同,生成的內容應該受著作權保護。 參、事件評析 在美國著作權局公布其該報告之後,有網路媒體[12]以「美國著作權局定調:光靠提示詞的純AI生成圖片無法享有著作權保護,無論你下多複雜的提示詞都沒有」的標題,詮釋該報告的主旨。確實美國著作權局於該報告中,特別指出下達複雜與反復的提示,並不會影響著作權保護的取得與否的判斷。但關鍵點不在於提示本身,而是對AI生成結果的「可控制」(或可說是AI對生成結果的自主)程度。 對於AI生成結果的著作權保護,經濟部智慧財產局曾以電子郵件1070420號函指出:「著作必須係以自然人或法人為權利義務主體的情形下,其所為的創作始有可能受到著作權的保護。據了解,AI(人工智慧)是指由人類製造出來的機器所表現出來的智慧成果,由於AI並非自然人或法人,其創作完成之智慧成果,非屬著作權法保護的著作,原則上無法享有著作權。但若其實驗成果係由自然人或法人具有創作的參與,機器人分析僅是『單純機械式的被操作』,則該成果之表達的著作權由該自然人或法人享有。」,但何謂「單純機械式的被操作」?以複雜與反復的提示再擇取AI符合所需的AI修改結果,是否屬之?在目前AI工具朝向「自動化」發展的趨勢下,使用者下達提示後,多只須被動的對單一的生成結果,決定是否接受或重新下達指令,使用者只是以指令提出需求,實際的「創作行為」主體其實是AI而非人類。因此,美國著作權局於此報告中更進一步的說明使用者即使有複雜與反復的提示且有意的選擇特定結果,並不能就認定為「對結果有控制權」的創作。必須其結果可為使用者主導、控制,而非被動決定是否接受。 相對而言,在創作的保護實務上,美國著作權局告訴我們的是,人類仍然可以藉由在使用過程提高對AI生成結果的控制程度,以及生成內容的後製,使結果符合著作權保護標準。AI使用者應該盡量使用有提供具體修改控制功能的AI工具,只要有人為的事後修改,或使用過程中能具體主導AI生成的結果,我們仍然可以透過複雜與反復的提示AI,取得受著作權保護的生成結果。 本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。 本文同步刊登於TIPS網站(https://www.tips.org.tw) [1]U.S. Copyright Office Copyright and Artificial Intelligence, Part 2: Copyrightability, https://www.copyright.gov/ai/Copyright-and-Artificial-Intelligence-Part-2-Copyrightability-Report.pdf [2]US Copyright Office, Copyright Office Issues Notice of Inquiry on Copyright and Artificial Intelligence, https://www.copyright.gov/newsnet/2023/1017.html (last visited Feb. 10, 2025). [3]US Copyright Office, Copyright Office Releases Part 1 of Artificial Intelligence Report, Recommends Federal Digital Replica Law, https://www.copyright.gov/newsnet/2024/1048.html (last visited Feb. 10, 2025). [4]U.S. Copyright Office Copyright and Artificial Intelligence, supra note 1. [5]詳前註1,頁5~7。 [6]詳註1,頁8。 [7]詳註1,頁9。 [8]詳註1,頁9。 [9]詳註1,頁18~21。 [10]詳註1,頁22~24。 [11]詳註1,頁24~27。 [12]電腦王,美國著作權局定調:光靠提示詞的純AI生成圖片無法享有著作權保護,無論你下多複雜的提示詞都沒有,https://www.techbang.com/posts/121184-the-us-copyright-office-has-set-the-tone-that-purely(最後瀏覽日:2025/02/10)。

TOP