世界經濟論壇發布《人工智慧公平性和包容性藍圖》白皮書

  世界經濟論壇(World Economic Forum, WEF)於2022年6月29日發布《人工智慧公平性和包容性藍圖》白皮書(A Blueprint for Equity and Inclusion in Artificial Intelligence),說明在AI開發生命週期和治理生態系統中,應該如何改善公平性和強化包容性。根據全球未來人類AI理事會(Global Future Council on Artificial Intelligence for Humanity)指出,目前AI生命週期應分為兩個部分,一是管理AI使用,二是設計、開發、部署AI以滿足利益相關者需求。

  包容性AI不僅是考量技術發展中之公平性與包容性,而是需整體考量並建立包容的AI生態系統,包括(1)包容性AI基礎設施(例如運算能力、資料儲存、網路),鼓勵更多技術或非技術的人員有能力參與到AI相關工作中;(2)建立AI素養、教育及意識,例如從小開始開啟AI相關課程,讓孩子從小即可以從父母的工作、家庭、學校,甚至玩具中學習AI系統對資料和隱私的影響並進行思考,盡可能讓使其互動的人都了解AI之基礎知識,並能夠認識其可能帶來的風險與機會;(3)公平的工作環境,未來各行各業需要越來越多多元化人才,企業需拓寬與AI相關之職位,例如讓非傳統背景人員接受交叉培訓、公私協力建立夥伴關係、提高員工職場歸屬感。

  在設計包容性方面,必須考慮不同利益相關者之需求,並從設計者、開發者、監督機關等不同角度觀察。本報告將包容性AI開發及治理整個生命週期分為6個不同階段,期望在生命週期中的每個階段皆考量公平性與包容性:

1.了解問題並確定AI解決方案:釐清為何需要部署AI,並設定希望改善的目標變量(target variable),並透過制定包容性社會參與框架或行為準則,盡可能實現包容性社會參與(特別是代表性不足或受保護的族群)。

2.包容性模型設計:設計時需考慮社會和受影響的利益相關者,並多方考量各種設計決策及運用在不同情況時之公平性、健全性、全面性、可解釋性、準確性及透明度等。

3.包容性資料蒐集:透過設計健全的治理及隱私,確定更具包容性的資料蒐集路徑,以確保所建立之模型能適用到整體社會。

4.公平和包容的模型開發及測試:除多元化開發團隊及資料代表性,組織也應引進不同利益相關者進行迭代開發與測試,並招募測試組進行測試與部署,以確保測試人群能夠代表整體人類。且模型可能隨著時間發展而有變化,需以多元化指標評估與調整。

5.公平地部署受信任的AI系統,並監控社會影響:部署AI系統後仍應持續監控,並持續評估可能出現新的利益相關者或使用者,以降低因環境變化而可能產生的危害。

6.不斷循環發展的生命週期:不應以傳統重複循環過程看待AI生命週期,而是以流動、展開及演變的態度,隨時評估及調整,以因應新的挑戰及需求,透過定期紀錄及審查,隨時重塑包容性AI生態系統。

  綜上,本報告以包容性AI生態系統及生命週期概念,期望透過基礎設施、教育與培訓、公平的工作環境等,以因應未來無所不在的AI社會與生活,建立公司、政府、教育機構可以遵循的方向。

相關連結
※ 世界經濟論壇發布《人工智慧公平性和包容性藍圖》白皮書, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8890&no=57&tp=1 (最後瀏覽日:2026/05/06)
引註此篇文章
科法觀點
你可能還會想看
加拿大決定將網路中立規範適用至行動無線網路

  加拿大廣播電視及電信委員會(Canadian Radio-Television and Telecommunications Commission,CRTC)於2009年10月之Telecom Regulatory Policy CRTC 2009-657中,公佈網路流量管理架構(Internet Traffic Management Pratices,ITMPs)之決定,作為管理ISP業者進行差別待遇之依據。該管理架構是加拿大維護網路中立性原則的實踐。   當時CRTC並未決定該架構是否一併適用於行動無線網路,直至2010年7月CRTC發布Telecom Decision CRTC 2010-445,決定將該規則一併適用於行動無線網路,以解決潛在的差別待遇行為發生於行動無線資料服務。   根據2009年之管理架構,CRTC宣示了四項管理原則: 1.透明度(Transparency) ISP必須透明揭露他們所使用的ITMPs,使消費者能根據這些資訊決定服務的購買與使用。例如經濟條件的透明,使消費者能夠有符合其支付意願之選擇,使市場機制能夠正常運作。 2.創新(Innovation) 解決網路壅塞最基本的方式是透過對網路之投資,也仍是最主要的解決方案。但依靠投資並不能解決所有的問題,CRTC認為,ISP業者之ITMPs在某些時候,仍需要適當的管理措施介入。業者之ITMPs應針對明確的需求而設計,不可過度。 3.明確(Clarity) ISP業者必須確保他們所使用的ITMPs不會有不合理的歧視,也不會有不合理的優惠。CRTC所建立之ITMP的管理架構,提供一個清晰和結構化的方法,來評估既有與未來的ITMPs是否符合加拿大電信法(Telecommunications Act)第27(2)條規範。 4.競爭中立(Competitive neutrality) 對於零售服務,CRTC將採取事後管制原則,即接受消費者投訴後處理之原則,進行管制評估。而在批發服務部份,則較為嚴格。亦即,當ISP在批發服務使用了比零售服務較多的限制性ITMPs時,必須得到CRTC之批准。當ISP將ITMPs用於批發服務時,必須遵守CRTC之管理架構,不得對次級ISP(Secondary ISP)的流量造成顯著和不相稱的影響。   值CRTC並將採取行動以確保因實施ITMPs而收集之個人資訊,不被洩漏與使用至其他目的。   在本項決定公佈之後,代表加拿大提供接取網際網路的ISP,無論使用何種技術,都將適用同樣的ITMPs管理原則。在Google-Verizon於美國遊說網路中立性應不適用於行動無線網路之時,CRTC之決定可做為不同方向之參考。

澳洲數位轉型局12月發布《政府負責任使用人工智慧政策2.0》,以強化公部門之AI風險管理

2025年12月初,澳洲數位轉型局(Digital Transformation Agency,下稱DTA)發布《政府負責任使用AI政策2.0》(Policy for the responsible use of AI in Government 2.0),旨在進一步強化公部門在AI的透明度、問責性與風險管理能力,於2025年12月15日生效,取代 2024年9月實施的過渡版本。 一、適用範圍 政策適用於所有非企業型聯邦實體(Non-corporate Commonwealth entities),即不具獨立法人地位、直接隸屬於政府的機關或單位。企業型聯邦實體則被鼓勵自願遵循。政策定位為「補充與強化既有法制」,非另訂獨立規範,因此在實務中須與公務員行為準則、資安規範及資料治理制度併行適用。 二、政策重點 在政策施行的12個月內,適用機關須完成以下要求,以確保落實AI治理架構: (一)制度建置 1. AI 透明度聲明:機關須在政策生效後 6 個月內發布「AI 透明度聲明」,公開 AI 使用方法與現況。聲明中須說明機關風險管理流程、AI 事件通報機制及內外部申訴管道,確保使用過程透明、可追蹤。 2. 人員指定與培訓: 機關須指定制度問責人員(Accountable officials)以及AI使用案例承辦人(Accountable use case owners)。 所有員工皆須進行關於負責任使用AI的培訓,機關並依員工職務權責提供個別員工進階訓練。 3. 建立內部AI使用案例註冊清單(Internal AI use case register),以供後續追蹤 該清單至少包含: (1)使用案例負責人(Accountable use case owners):記錄並持續更新範疇內 AI 使用案例的指定負責人。 (2)風險等級(Risk rating):AI使用案例的風險等級資訊。 (3)異動紀錄:當使用案例的風險評級或負責人變更時,須即時更新清單。 (4)自定義欄位:各機關可根據其需求,自行增加欄位。 (二)AI 使用案例範疇判斷 機關須在評估所有新案例,依以下特徵判斷AI應用是否屬於「範疇內(In-scope)」的應用: 1.對個人、社群、組織或環境造成重大損害。 2.實質影響行政處分或行政決策。 3.在無人工審查的情況下,大眾將直接與AI互動或受其影響。 4.涉及個人、敏感資料等資訊。 (三)進階風險評估 依AI影響評估工具(Impact Assessment Tool)針對公眾近用權;不公平歧視;加重刻板印象;損害人、組織或環境;隱私顧慮;資料敏感之安全顧慮;系統建置之安全顧慮;公眾信任等8類別,加以判斷範疇內AI應用,若有任一類別被評為「高風險」,即判定為「高風險」;若所有類別中最高的分數為「中風險」,則整體判定為中風險。 判定為中、高風險之AI應用,均需進行全面審核。中風險須列出所有中風險項目及其控管措施,主要為內部控管;而高風險則要求向DTA報告,且每年至少進行一次全面審核與風險再評估。 澳洲欲透過發布AI透明度聲明、更新AI使用案例註冊清單、強制執行AI應用之風險評估及人員培訓,確保公部門對AI的負責任使用與問責。而我國企業可參考資策會科法所創意智財中心發布之《重要數位資料治理暨管理制度規範(EDGS)》,落實AI資料管理與追蹤。 本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。 本文同步刊登於TIPS網站(https://www.tips.org.tw)

德國公布NAP II,要求能源及工業部門減少二氧化碳排放量

  為達到京都議定書 將二氧化碳排放量減量控制到 1990 年排放量的 20 %目標, 歐盟持續祭出多項政策措施,近一年來並已實施碳排放證交易機制。 所謂的碳排放證交易機制係指,業者若能成功減少污染即可出售多餘的碳排放證,而排放過多二氧化碳者卻必須購買碳排放證。為達成前揭目標,所有歐盟會員國均應依據歐盟的國家分配計畫( Nationalen Allokationsplan ),於其內國推動實施。   在歐盟架構下,德國政府於日前公布第二階段的 NAP II ,以接續目前第一階段、將持續至 2007 年的 NAP I 。透過 NAP I 及 NAP II ,所有產業-包括能源、工業、交通( Verkehr )、家戶( Haushalte )、以及手工業( Gewerbe )、商業及服務業-均將被要求共同致力於二氧化碳減量的目標,德國政府也一一就各產業訂出排放標準。   基本上, NAP II 係有關德國能源業和工業自 2008 年至 2012 年止有關二氧化碳排放量的基本原則,重點在能源業及工業的二氧化碳排放控制,此乃因這兩個產業每年的二氧化碳排放量高達總排放量的 60 %。 NAP II 對工業的減量要求較為寬厚,只須減少百分之一點二五的排放量,能源業卻必須減量百分之十五。德國環保部長表示,工業面對市場上激烈的競爭,可以少負擔一些氣候保護的成本。此外,為了鼓勵能源業者投資環保設備減少污染,可同時生產電力和熱能的電廠二氧化碳排放量管制將比照工業,反之,老舊的高污染燃煤電廠獲得的碳排放證,比起一般的能源業還要再縮減百分之十五。   雖則 NAP I 、 NAP II 的實施對德國整體產業均形成衝擊,不過這個從環保概念出發的政策,卻也將促使德國產業在未來幾年產生結構性的調整,政府與民間部門為了達到二氧化碳排放減量的目標,必將投入新技術的研究與發展,進而帶動永續、潔能、環境友善( eco-friendly )及綠色科技的發展。

對AI下達複雜、反復修改指令不算創作行為? —美國著作權局發布AI著作權報告第2部分:可受著作權保護性

.Pindent{text-indent: 2em;} .Noindent{margin-left: 22px;} .NoPindent{text-indent: 2em; margin-left: 38px;} .No2indent{margin-left: 54px;} .No2Pindent{text-indent: 2em; margin-left: 54px} .No3indent{margin-left: 4em;} .No3Pindent{text-indent: 2em; margin-left: 4em} 對AI下達複雜、反復修改指令不算創作行為? —美國著作權局發布AI著作權報告第2部分:可受著作權保護性 資訊工業策進會科技法律研究所 2025年02月10日 由於生成式AI是根據使用者輸入的提示或稱指令(prompts),依機率分布推算生成出最有可能出現的結果,因此有人戲稱AI在每次生成時都是在隨機進行「擲骰子」,即便相同的提示也可能會得到有差異的輸出結果。為應對AI回應的不確定性和多樣性,如何下達提示,有效使用AI,為必須學習的課題。因此,有人說訓練不了人工智慧?我們可以訓練自己,但用心思考精準有效指令,費心對AI生成結果進行反復修改,就能取得著作權保護嗎?美國著作權局提出的看法,或許與大家的期待不同。 壹、事件摘要 美國著作權局今(2025)年1月發布AI著作權報告的「第2部分:可受著作權保護性(Part 2: Copyrightability)」[1]。為幫助評估AI著作領域的立法或監管措施是否必要,該局於2023年8月即發布「著作權與人工智慧議題徵詢通知(Copyright Office Issues Notice of Inquiry on Copyright and Artificial Intelligence)」,對外尋求對包括涉及使用受著作權保護的作品來訓練AI模型的問題、適當的透明度與揭露程度受著作權保護的作品的使用以及AI生成內容的法律定位等問題的意見[2]。在分析AI引發的著作權法與政策問題的意見徵詢結果後,美國著作權局於2024年7月31日,以數位複製物(digital replicas)主題,發布「著作權與人工智慧分析人工智慧引發的著作權法和政策議題」(Copyright and Artificial Intelligence analyzes copyright law and policy issues raised by artificial intelligence)報告的第1部分[3],並隨後於今(2025)年1月發布報告的「第2部分:可受著作權保護性(Part 2: Copyrightability)」[4]。 此報告指出現有的法律原則可根據個案判斷是否具有足夠的人為貢獻,有足夠的彈性足以解決關於AI生成內容是否具有著作權的問題,並不需要修法;當人工智慧被用作工具,且人類能夠決定作品的表達元素時,對AI生成結果的創意選擇、協調或安排,以及對生成結果的創意修改,都可獲得著作權保護;但目前使用者即使給予AI詳細的提示,也無法控制AI如何生成內容,不足以使其成為「作者」;著作保護仍須以人為創意投入,既有法令已足以激勵AI發展,沒有理由為AI生成的內容提供額外的著作權或特殊權利保護。 貳、重點說明 一、AI系統的輸出存在不可控制性[5] 當前生成式AI系統的輸出可能包括未指定的內容,在有數十億個參數的模型構建的複雜AI系統下,特定提示或其他輸入對於AI生成內容的影響存在不確定性,即使是專家研究人員在理解或預測特定模型行為的能力方面也受到限制。不僅AI生成的內容會因請求而異,而且即使具有相同的提示也是難以預測的,即使有AI系統例如Midjourney允許使用者控制生成一致的結果,在重複相同的提示時收到幾乎相同的圖像,然而即使如此也無法保證完美的一致性。 二、有辛勤努力、指示建議不等於有創造性貢獻 (一)無法僅因時間和努力而獲得著作權保護,它需要原創性 (originality),無論原創性有多麼低微 美國的著作權保護限於人類的創作(human authorship) 沒有任何法院承認非人類創造(non-human creation)的著作權。當然在使用AI的大多數情況下,人類將參與創作過程(creation process),並且在他們的貢獻符合創作資格的範圍時,能使其作品具有著作權。美國上訴法院(Supreme Court)明確表示,需要的是原創性 (originality),而不僅僅是時間和努力。在「Feist Publications, Inc. v. Rural Telephone Service Co.」案中,法院否定僅憑「血汗」(sweat of the brow)就足以獲得著作權保護的主張,但法院也認為絕大多數作品都很容易達到標準,因為所需的創造力水平極低;即使是很小的量、無論多麼粗糙、卑微或顯而易見都無妨(no matter how crude, humble or obvious’ it might be.)[6]。 (二)使用機器作為工具並不會否定著作權保護,如果作品已包含足夠的人類創作表達元素(human-authored expressive elements) 對於AI工具的使用是否影響著作權保護,美國著作權局提及在「Burrow-Giles Lithographic Co. v. Sarony」案中,法院將「作者」定義為「任何事物起源的人、創始人、製造者、完成科學或文學作品的人。(he to whom anything owes its origin; originator; maker; one who completes a work of science or literature.)」。法院確定了即使是使用照相機,攝影師也有許多創造性貢獻,包括將主題置於相機前,選擇和安排服裝、窗簾與其他各種配件、安排主題以呈現優雅的輪廓,以及喚起其所需的表情[7]。因此能否受保護的重點不在於有無使用工具,而是創造性投入的有無。 (三)「作者」必須是實際創作作品,即將想法轉化為有形呈現的表達的人,不包括只是提供詳細的建議和指示或做無實質改變轉換的人 美國著作權局在報告中指出,上訴法院在「Community for Creative Non-Violence v. Reid, "CCNV"」案中,認為:繪製設計草圖和以有形的表達媒介實現創意,使藝術家成為作者。該案的哥倫比亞特區巡迴法院明確表示,委託雕塑並提供詳細的建議與指示是不夠的,因為此類貢獻構成不受保護的想法,其不能因此成為雕塑的共同作者。而第三巡迴上訴法院在「Andrien v. Southern Ocean County Chamber of Commerce」案中, 認為原告「明確指示了副本的準備工作的具體細節」,因此「編譯只需要簡單的轉錄即可實現最終的有形形式」。因為印刷商「沒有實質改變原告的原始表達(original expression)」,法院裁定原告是「作者」[8]。 因此,該局認為儘管人工智慧生成內容不能被視為使用者與人工智慧系統的共同作品(joint work),但對於是否貢獻足夠的表達以被視為作者,提供有用的類比—僅僅向作者(AI)描述委託作品應該做什麼或看起來像什麼的人,並不是著作權法意義上的共同作者。 三、AI的創作輔助使用 美國著作權局同意,使用人工智慧作為輔助創作作品的工具與使用人工智慧作為人類創造力的替代品之間存在重要區別。雖然增強人類表達的輔助使用不會限制著作權保護,但認為需要進一步分析下列三種使用方式的差異: (1)指示人工智慧系統產生輸出的提示(prompts); (2)可以在人工智慧生成內容中感知到的表達性輸入(expressive inputs) (3)對人工智慧生成內容進行修改或安排(modifications or arrangements)。 (一)指示人工智慧系統產生輸出的提示(prompts) 由於欠缺對生成結果的控制能力,使用者即使輸入複雜的提示指令亦無法讓其成為「作者」[9]。提示本質上是傳達不受保護的思想,雖然高度詳細的提示可以包含使用者所需的表達元素,但目前的AI技術無法僅靠提示即能給予使用者足夠的人工控制,所以AI 系統的使用者無法成為生成內容的「作者」。雖然在輸入提示可以被視為類似於向受委託創作的藝術家提供指導,但在人與人之間的合作,委託者能夠監督、指導與理解受委託的人類藝術家的貢獻,但這情況目前不存在於人與AI的合作。或許將來可允許使用者對AI的生成內容取得完全的控制權,讓AI的貢獻變成固定或機械化(rote or mechanical)。 由於提示與結果輸出之間的差距,以及相同的提示可以生成多個不同生成內容的事實,進一步表明使用者缺乏對將他們想法轉換為固定表達的控制。而反覆修改提示不會改變、也無法為取得著作權提供足夠的依據,因為著作權保護的是作者身份,而不是辛勤工作。而且美國著作權局認為輸入修改後的提示與輸入單個提示在作用上似乎沒有實質性區別,對過程的控制程度都沒有改變。 不過,有些評論意見舉自然攝影作品做類比,認為即使攝影家無法控制野生動物何時進入畫面,這些作品也可能有資格獲得著作權保護。但美國著作權局認為,這與AI生成不同—攝影家的創作過程並沒有結束於他對作品的想法,其在照相機中控制角度、位置、速度和曝光的選擇,且可能進行作品的後製調修。該局指出「從(AI系統)提供的選項(生成結果)中進行選擇」不能被視為受著作權保護的作者身份, 因為「單一輸出的選擇本身並不是一種創造性的行為」。但該局也表示有時提示可以充分控制AI生成內容中的表達元素,如果AI技術進一步為使用者提供表達元素的更多控制,則結論可能會不同。 (二)富有表現力的輸入(Expressive Inputs)[10]與純粹指令不同 目前AI 系統接受以文本、圖像、音訊、視頻或這些內容形式的輸入,而可以將輸入保留成生成內容的一部分,例如修改或翻譯受著作權保護的作品。這類型的輸入,雖然亦可視為不同形式的提示,但與僅僅是傳達預期結果的提示不同。它所給的不僅是一個概念,更重要的是它限制了AI生成內容的「自主性」。因此可能提供了「更具說服力的人工干預」,而不是簡單的「將提示應用於未知的起點」。美國著作權局認為一個人輸入自己受著作權保護的作品,如果該作品在生成的內容中是可察覺的(perceptible),那麼他至少是該部分生成內容的「作者」。此類 AI 生成輸出的著作權將涵蓋可察覺的人類表達,包括可能涵蓋到作者對作品素材(material)的選擇、協調和安排。 (三)修改或安排(Arranging)AI生成的內容仍可受保護[11] 美國著作權局於報告中指出,使用 AI 生成內容通常是一個初始或中間步驟,如同其AI 註冊指引的說明—「人類可以以足夠創造性的方式選擇或安排 AI 生成的內容,以使最終作品整體構成一個作者的原創作品(the resulting work as a whole constitutes an original work of authorship)」。人類可以藉由修改AI生成的內容,使其達到符合著作權保護標準的程度,如果人類作者以創造性的方式選擇、協調和安排 AI 生成的內容,應該能夠主張著作權。例如:Midjourney 提供「Vary Region and Remix Prompting」,允許使用者使用提示來指定生成圖像的區域。美國著作權局認為此類可以讓使用者控制各個創意元素的選擇與放置的修改,是否達到最低原創性標準雖將取決於具體個案情況。但其認為就生成的內容位置可控制的案例,與純粹提示(prompts alone)情況不同,生成的內容應該受著作權保護。 參、事件評析 在美國著作權局公布其該報告之後,有網路媒體[12]以「美國著作權局定調:光靠提示詞的純AI生成圖片無法享有著作權保護,無論你下多複雜的提示詞都沒有」的標題,詮釋該報告的主旨。確實美國著作權局於該報告中,特別指出下達複雜與反復的提示,並不會影響著作權保護的取得與否的判斷。但關鍵點不在於提示本身,而是對AI生成結果的「可控制」(或可說是AI對生成結果的自主)程度。 對於AI生成結果的著作權保護,經濟部智慧財產局曾以電子郵件1070420號函指出:「著作必須係以自然人或法人為權利義務主體的情形下,其所為的創作始有可能受到著作權的保護。據了解,AI(人工智慧)是指由人類製造出來的機器所表現出來的智慧成果,由於AI並非自然人或法人,其創作完成之智慧成果,非屬著作權法保護的著作,原則上無法享有著作權。但若其實驗成果係由自然人或法人具有創作的參與,機器人分析僅是『單純機械式的被操作』,則該成果之表達的著作權由該自然人或法人享有。」,但何謂「單純機械式的被操作」?以複雜與反復的提示再擇取AI符合所需的AI修改結果,是否屬之?在目前AI工具朝向「自動化」發展的趨勢下,使用者下達提示後,多只須被動的對單一的生成結果,決定是否接受或重新下達指令,使用者只是以指令提出需求,實際的「創作行為」主體其實是AI而非人類。因此,美國著作權局於此報告中更進一步的說明使用者即使有複雜與反復的提示且有意的選擇特定結果,並不能就認定為「對結果有控制權」的創作。必須其結果可為使用者主導、控制,而非被動決定是否接受。 相對而言,在創作的保護實務上,美國著作權局告訴我們的是,人類仍然可以藉由在使用過程提高對AI生成結果的控制程度,以及生成內容的後製,使結果符合著作權保護標準。AI使用者應該盡量使用有提供具體修改控制功能的AI工具,只要有人為的事後修改,或使用過程中能具體主導AI生成的結果,我們仍然可以透過複雜與反復的提示AI,取得受著作權保護的生成結果。 本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。 本文同步刊登於TIPS網站(https://www.tips.org.tw) [1]U.S. Copyright Office Copyright and Artificial Intelligence, Part 2: Copyrightability, https://www.copyright.gov/ai/Copyright-and-Artificial-Intelligence-Part-2-Copyrightability-Report.pdf [2]US Copyright Office, Copyright Office Issues Notice of Inquiry on Copyright and Artificial Intelligence, https://www.copyright.gov/newsnet/2023/1017.html (last visited Feb. 10, 2025). [3]US Copyright Office, Copyright Office Releases Part 1 of Artificial Intelligence Report, Recommends Federal Digital Replica Law, https://www.copyright.gov/newsnet/2024/1048.html (last visited Feb. 10, 2025). [4]U.S. Copyright Office Copyright and Artificial Intelligence, supra note 1. [5]詳前註1,頁5~7。 [6]詳註1,頁8。 [7]詳註1,頁9。 [8]詳註1,頁9。 [9]詳註1,頁18~21。 [10]詳註1,頁22~24。 [11]詳註1,頁24~27。 [12]電腦王,美國著作權局定調:光靠提示詞的純AI生成圖片無法享有著作權保護,無論你下多複雜的提示詞都沒有,https://www.techbang.com/posts/121184-the-us-copyright-office-has-set-the-tone-that-purely(最後瀏覽日:2025/02/10)。

TOP