繼美國聯邦巡迴上訴法院於2009年底於The Forest Group Inc v. Bon Tool Co. 一案中將美國專利法35 U.S.C. § 292條中關於不實專利標示(false patent marking)的罰金計算方式認定為罰金之計算是以每一個標示錯誤專利資訊的產品為基礎,並將原案發回地方法院(the U.S. District Court for the Southern District of Texas)重審後,地方法院於今年4月27日裁定基於專利法第292條具懲罰性之本質,針對標示錯誤或標示無效專利號之產品之罰金應以該產品之最高售價而非被告基於販售該產品所獲得之利潤或經濟利益來計算。
於此案中,The Forest Group產品之售價介於美金 $103至 $180元間,法院因而裁定處以The Forest Group每一標示錯誤專利資訊產品 $180元之罰金。 Atlas 法官提到藉由將標示不實專利資訊者處以該產品之最高售價之罰金,The Forest Group所需賠償之罰金將超過其藉由販售該產品所獲取之利益,達到第292條遏制之目的。
預計此案之判決將對其他地方法院於處理類似案件之判定產生引響,尤其對那些將錯誤專利資訊標示在大量產品上的被告而言。此外,正如各界所預料,繼去年聯邦巡迴上訴法院對第292條提出罰金計算基礎之解釋後,提起相關訴訟案件之數量已大量提升,至今已累積約140案。另,聯邦巡迴上訴法院亦剛於6月10日於Pequignot v. Solo Cup 一案中針對標示過期專利、舉證責任等與第292條相關之爭議做出解釋,後續效應直得企業持續關注。
紐約州州長於2024年12月21日簽署《政府自動化決策監督法》(Legislative Oversight of Automated Decision-making in Government Act, LOADinG Act),用以規範紐約州政府使用人工智慧自動決策系統的方式以及相關義務,成為美國第一個通過這類法律的州。 該法所定義之「自動化決策系統」係指任何使用演算法、計算模型或人工智慧技術,或其組合的軟體,用於自動化、支援或取代人類決策;這類系統亦包括應用預定義規則或機器學習演算法進行資料分析,並在自動產生結論、建議、結果、假設、預測。 針對政府使用自動化決策系統之情形,《政府自動化決策監督法》有三大重點:人類監督、影響評估以及資訊揭露。 一、人類監督 州政府在提供社會福利資源或其他可能實質影響人民權益與法定權利的業務時,除非是在「有意義的人工審查」下進行操作,否則不得使用自動化決策系統。同時,此法也強調,州政府亦應確保其員工現有權利不會受到自動化決策系統的影響,例如不得因此受到解雇、調職或減薪等。 前述有意義的人工審查,係指對自動化決策流程進行審查、監督及控制的工作人員,必須是受過訓練、對該系統有一定之了解且擁有權力干預、變更系統最終決策的人。 二、影響評估 州政府如欲使用自動化決策系統,應進行影響評估且每兩年應至少重新評估一次;系統在進行重大更新前,也應重新進行影響評估。若評估發現系統產生歧視性或有偏見的結果,機關必須停止使用該系統及其生成的資訊。 影響評估的項目除了性能、演算法及訓練資料外,亦應進行準確性、公平性、偏差歧視、以及個人資料安全等相關測試。 三、資訊揭露 影響評估需在系統實施前至少30天提交給州長與州議會,並在相關機關的網站上公布;僅機關在特殊情況下(例如涉及公共安全考量),州政府可針對報告揭露之資訊進行必要的刪改,但必須說明做出此決定的原因。此外,州政府亦需於本法通過後向州議會提交報告,說明包括系統描述、供應商資訊、使用開始日期、用途、人類決策的支持或取代情況、已進行的影響評估摘要等。 本法強調對人工智慧技術的審慎應用,特別關注其對勞工權益的影響。該法明確規定,禁止在無人類監督的情況下,使用自動化系統進行失業救濟或育兒補助等福利的審核決策,並保障州政府員工不因人工智慧的實施而減少工作時間或職責。此類規定在現行立法中較為罕見,顯示出立法者對勞工權益的高度重視。該法的實施效果及影響,值得未來持續保持關注。
對AI下達複雜、反復修改指令不算創作行為? —美國著作權局發布AI著作權報告第2部分:可受著作權保護性.Pindent{text-indent: 2em;} .Noindent{margin-left: 22px;} .NoPindent{text-indent: 2em; margin-left: 38px;} .No2indent{margin-left: 54px;} .No2Pindent{text-indent: 2em; margin-left: 54px} .No3indent{margin-left: 4em;} .No3Pindent{text-indent: 2em; margin-left: 4em} 對AI下達複雜、反復修改指令不算創作行為? —美國著作權局發布AI著作權報告第2部分:可受著作權保護性 資訊工業策進會科技法律研究所 2025年02月10日 由於生成式AI是根據使用者輸入的提示或稱指令(prompts),依機率分布推算生成出最有可能出現的結果,因此有人戲稱AI在每次生成時都是在隨機進行「擲骰子」,即便相同的提示也可能會得到有差異的輸出結果。為應對AI回應的不確定性和多樣性,如何下達提示,有效使用AI,為必須學習的課題。因此,有人說訓練不了人工智慧?我們可以訓練自己,但用心思考精準有效指令,費心對AI生成結果進行反復修改,就能取得著作權保護嗎?美國著作權局提出的看法,或許與大家的期待不同。 壹、事件摘要 美國著作權局今(2025)年1月發布AI著作權報告的「第2部分:可受著作權保護性(Part 2: Copyrightability)」[1]。為幫助評估AI著作領域的立法或監管措施是否必要,該局於2023年8月即發布「著作權與人工智慧議題徵詢通知(Copyright Office Issues Notice of Inquiry on Copyright and Artificial Intelligence)」,對外尋求對包括涉及使用受著作權保護的作品來訓練AI模型的問題、適當的透明度與揭露程度受著作權保護的作品的使用以及AI生成內容的法律定位等問題的意見[2]。在分析AI引發的著作權法與政策問題的意見徵詢結果後,美國著作權局於2024年7月31日,以數位複製物(digital replicas)主題,發布「著作權與人工智慧分析人工智慧引發的著作權法和政策議題」(Copyright and Artificial Intelligence analyzes copyright law and policy issues raised by artificial intelligence)報告的第1部分[3],並隨後於今(2025)年1月發布報告的「第2部分:可受著作權保護性(Part 2: Copyrightability)」[4]。 此報告指出現有的法律原則可根據個案判斷是否具有足夠的人為貢獻,有足夠的彈性足以解決關於AI生成內容是否具有著作權的問題,並不需要修法;當人工智慧被用作工具,且人類能夠決定作品的表達元素時,對AI生成結果的創意選擇、協調或安排,以及對生成結果的創意修改,都可獲得著作權保護;但目前使用者即使給予AI詳細的提示,也無法控制AI如何生成內容,不足以使其成為「作者」;著作保護仍須以人為創意投入,既有法令已足以激勵AI發展,沒有理由為AI生成的內容提供額外的著作權或特殊權利保護。 貳、重點說明 一、AI系統的輸出存在不可控制性[5] 當前生成式AI系統的輸出可能包括未指定的內容,在有數十億個參數的模型構建的複雜AI系統下,特定提示或其他輸入對於AI生成內容的影響存在不確定性,即使是專家研究人員在理解或預測特定模型行為的能力方面也受到限制。不僅AI生成的內容會因請求而異,而且即使具有相同的提示也是難以預測的,即使有AI系統例如Midjourney允許使用者控制生成一致的結果,在重複相同的提示時收到幾乎相同的圖像,然而即使如此也無法保證完美的一致性。 二、有辛勤努力、指示建議不等於有創造性貢獻 (一)無法僅因時間和努力而獲得著作權保護,它需要原創性 (originality),無論原創性有多麼低微 美國的著作權保護限於人類的創作(human authorship) 沒有任何法院承認非人類創造(non-human creation)的著作權。當然在使用AI的大多數情況下,人類將參與創作過程(creation process),並且在他們的貢獻符合創作資格的範圍時,能使其作品具有著作權。美國上訴法院(Supreme Court)明確表示,需要的是原創性 (originality),而不僅僅是時間和努力。在「Feist Publications, Inc. v. Rural Telephone Service Co.」案中,法院否定僅憑「血汗」(sweat of the brow)就足以獲得著作權保護的主張,但法院也認為絕大多數作品都很容易達到標準,因為所需的創造力水平極低;即使是很小的量、無論多麼粗糙、卑微或顯而易見都無妨(no matter how crude, humble or obvious’ it might be.)[6]。 (二)使用機器作為工具並不會否定著作權保護,如果作品已包含足夠的人類創作表達元素(human-authored expressive elements) 對於AI工具的使用是否影響著作權保護,美國著作權局提及在「Burrow-Giles Lithographic Co. v. Sarony」案中,法院將「作者」定義為「任何事物起源的人、創始人、製造者、完成科學或文學作品的人。(he to whom anything owes its origin; originator; maker; one who completes a work of science or literature.)」。法院確定了即使是使用照相機,攝影師也有許多創造性貢獻,包括將主題置於相機前,選擇和安排服裝、窗簾與其他各種配件、安排主題以呈現優雅的輪廓,以及喚起其所需的表情[7]。因此能否受保護的重點不在於有無使用工具,而是創造性投入的有無。 (三)「作者」必須是實際創作作品,即將想法轉化為有形呈現的表達的人,不包括只是提供詳細的建議和指示或做無實質改變轉換的人 美國著作權局在報告中指出,上訴法院在「Community for Creative Non-Violence v. Reid, "CCNV"」案中,認為:繪製設計草圖和以有形的表達媒介實現創意,使藝術家成為作者。該案的哥倫比亞特區巡迴法院明確表示,委託雕塑並提供詳細的建議與指示是不夠的,因為此類貢獻構成不受保護的想法,其不能因此成為雕塑的共同作者。而第三巡迴上訴法院在「Andrien v. Southern Ocean County Chamber of Commerce」案中, 認為原告「明確指示了副本的準備工作的具體細節」,因此「編譯只需要簡單的轉錄即可實現最終的有形形式」。因為印刷商「沒有實質改變原告的原始表達(original expression)」,法院裁定原告是「作者」[8]。 因此,該局認為儘管人工智慧生成內容不能被視為使用者與人工智慧系統的共同作品(joint work),但對於是否貢獻足夠的表達以被視為作者,提供有用的類比—僅僅向作者(AI)描述委託作品應該做什麼或看起來像什麼的人,並不是著作權法意義上的共同作者。 三、AI的創作輔助使用 美國著作權局同意,使用人工智慧作為輔助創作作品的工具與使用人工智慧作為人類創造力的替代品之間存在重要區別。雖然增強人類表達的輔助使用不會限制著作權保護,但認為需要進一步分析下列三種使用方式的差異: (1)指示人工智慧系統產生輸出的提示(prompts); (2)可以在人工智慧生成內容中感知到的表達性輸入(expressive inputs) (3)對人工智慧生成內容進行修改或安排(modifications or arrangements)。 (一)指示人工智慧系統產生輸出的提示(prompts) 由於欠缺對生成結果的控制能力,使用者即使輸入複雜的提示指令亦無法讓其成為「作者」[9]。提示本質上是傳達不受保護的思想,雖然高度詳細的提示可以包含使用者所需的表達元素,但目前的AI技術無法僅靠提示即能給予使用者足夠的人工控制,所以AI 系統的使用者無法成為生成內容的「作者」。雖然在輸入提示可以被視為類似於向受委託創作的藝術家提供指導,但在人與人之間的合作,委託者能夠監督、指導與理解受委託的人類藝術家的貢獻,但這情況目前不存在於人與AI的合作。或許將來可允許使用者對AI的生成內容取得完全的控制權,讓AI的貢獻變成固定或機械化(rote or mechanical)。 由於提示與結果輸出之間的差距,以及相同的提示可以生成多個不同生成內容的事實,進一步表明使用者缺乏對將他們想法轉換為固定表達的控制。而反覆修改提示不會改變、也無法為取得著作權提供足夠的依據,因為著作權保護的是作者身份,而不是辛勤工作。而且美國著作權局認為輸入修改後的提示與輸入單個提示在作用上似乎沒有實質性區別,對過程的控制程度都沒有改變。 不過,有些評論意見舉自然攝影作品做類比,認為即使攝影家無法控制野生動物何時進入畫面,這些作品也可能有資格獲得著作權保護。但美國著作權局認為,這與AI生成不同—攝影家的創作過程並沒有結束於他對作品的想法,其在照相機中控制角度、位置、速度和曝光的選擇,且可能進行作品的後製調修。該局指出「從(AI系統)提供的選項(生成結果)中進行選擇」不能被視為受著作權保護的作者身份, 因為「單一輸出的選擇本身並不是一種創造性的行為」。但該局也表示有時提示可以充分控制AI生成內容中的表達元素,如果AI技術進一步為使用者提供表達元素的更多控制,則結論可能會不同。 (二)富有表現力的輸入(Expressive Inputs)[10]與純粹指令不同 目前AI 系統接受以文本、圖像、音訊、視頻或這些內容形式的輸入,而可以將輸入保留成生成內容的一部分,例如修改或翻譯受著作權保護的作品。這類型的輸入,雖然亦可視為不同形式的提示,但與僅僅是傳達預期結果的提示不同。它所給的不僅是一個概念,更重要的是它限制了AI生成內容的「自主性」。因此可能提供了「更具說服力的人工干預」,而不是簡單的「將提示應用於未知的起點」。美國著作權局認為一個人輸入自己受著作權保護的作品,如果該作品在生成的內容中是可察覺的(perceptible),那麼他至少是該部分生成內容的「作者」。此類 AI 生成輸出的著作權將涵蓋可察覺的人類表達,包括可能涵蓋到作者對作品素材(material)的選擇、協調和安排。 (三)修改或安排(Arranging)AI生成的內容仍可受保護[11] 美國著作權局於報告中指出,使用 AI 生成內容通常是一個初始或中間步驟,如同其AI 註冊指引的說明—「人類可以以足夠創造性的方式選擇或安排 AI 生成的內容,以使最終作品整體構成一個作者的原創作品(the resulting work as a whole constitutes an original work of authorship)」。人類可以藉由修改AI生成的內容,使其達到符合著作權保護標準的程度,如果人類作者以創造性的方式選擇、協調和安排 AI 生成的內容,應該能夠主張著作權。例如:Midjourney 提供「Vary Region and Remix Prompting」,允許使用者使用提示來指定生成圖像的區域。美國著作權局認為此類可以讓使用者控制各個創意元素的選擇與放置的修改,是否達到最低原創性標準雖將取決於具體個案情況。但其認為就生成的內容位置可控制的案例,與純粹提示(prompts alone)情況不同,生成的內容應該受著作權保護。 參、事件評析 在美國著作權局公布其該報告之後,有網路媒體[12]以「美國著作權局定調:光靠提示詞的純AI生成圖片無法享有著作權保護,無論你下多複雜的提示詞都沒有」的標題,詮釋該報告的主旨。確實美國著作權局於該報告中,特別指出下達複雜與反復的提示,並不會影響著作權保護的取得與否的判斷。但關鍵點不在於提示本身,而是對AI生成結果的「可控制」(或可說是AI對生成結果的自主)程度。 對於AI生成結果的著作權保護,經濟部智慧財產局曾以電子郵件1070420號函指出:「著作必須係以自然人或法人為權利義務主體的情形下,其所為的創作始有可能受到著作權的保護。據了解,AI(人工智慧)是指由人類製造出來的機器所表現出來的智慧成果,由於AI並非自然人或法人,其創作完成之智慧成果,非屬著作權法保護的著作,原則上無法享有著作權。但若其實驗成果係由自然人或法人具有創作的參與,機器人分析僅是『單純機械式的被操作』,則該成果之表達的著作權由該自然人或法人享有。」,但何謂「單純機械式的被操作」?以複雜與反復的提示再擇取AI符合所需的AI修改結果,是否屬之?在目前AI工具朝向「自動化」發展的趨勢下,使用者下達提示後,多只須被動的對單一的生成結果,決定是否接受或重新下達指令,使用者只是以指令提出需求,實際的「創作行為」主體其實是AI而非人類。因此,美國著作權局於此報告中更進一步的說明使用者即使有複雜與反復的提示且有意的選擇特定結果,並不能就認定為「對結果有控制權」的創作。必須其結果可為使用者主導、控制,而非被動決定是否接受。 相對而言,在創作的保護實務上,美國著作權局告訴我們的是,人類仍然可以藉由在使用過程提高對AI生成結果的控制程度,以及生成內容的後製,使結果符合著作權保護標準。AI使用者應該盡量使用有提供具體修改控制功能的AI工具,只要有人為的事後修改,或使用過程中能具體主導AI生成的結果,我們仍然可以透過複雜與反復的提示AI,取得受著作權保護的生成結果。 本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。 本文同步刊登於TIPS網站(https://www.tips.org.tw) [1]U.S. Copyright Office Copyright and Artificial Intelligence, Part 2: Copyrightability, https://www.copyright.gov/ai/Copyright-and-Artificial-Intelligence-Part-2-Copyrightability-Report.pdf [2]US Copyright Office, Copyright Office Issues Notice of Inquiry on Copyright and Artificial Intelligence, https://www.copyright.gov/newsnet/2023/1017.html (last visited Feb. 10, 2025). [3]US Copyright Office, Copyright Office Releases Part 1 of Artificial Intelligence Report, Recommends Federal Digital Replica Law, https://www.copyright.gov/newsnet/2024/1048.html (last visited Feb. 10, 2025). [4]U.S. Copyright Office Copyright and Artificial Intelligence, supra note 1. [5]詳前註1,頁5~7。 [6]詳註1,頁8。 [7]詳註1,頁9。 [8]詳註1,頁9。 [9]詳註1,頁18~21。 [10]詳註1,頁22~24。 [11]詳註1,頁24~27。 [12]電腦王,美國著作權局定調:光靠提示詞的純AI生成圖片無法享有著作權保護,無論你下多複雜的提示詞都沒有,https://www.techbang.com/posts/121184-the-us-copyright-office-has-set-the-tone-that-purely(最後瀏覽日:2025/02/10)。
美國國會提出「不被追蹤網路資訊保護法案」「不被追蹤網路資訊保護法」(Do Not Track Me Online Act of 2011)的內容為法律規定企業必須提供選項給消費者選擇退出不被網路追蹤的機制,例如廣告商為了廣告的行銷,以網路技術追蹤消費者軌跡,廣告商必須提供消費者退出被追蹤的選項,給消費者作選擇,主要的目的在保護消費者資訊不被網路技術追蹤而洩漏隱私,若是此法案通過後,可以藉此保護消費者的網路隱私權。 在2010年12月由美國聯邦交易委員會(U.S Federal Trade Commission, FTC)的網路隱私報告中初步提出Do Not Track Me Online Act,美國國會議員在2011年提出此法案進行討論,若是通過後,將會有效限制線上廣告及社群媒體追蹤消費者使用網路的行為,並且防免其將個人資料分享予其他企業,及有效限制線上廣告及社群媒體追蹤消費者使用網路。對於行政機關來說,能夠藉此協助美國聯邦交易委員會建構整體的不被追蹤網路法案標準。若業者未遵守此法案提供退出機制,美國聯邦交易委員會將可能提起不公正及詐欺訴訟,而發動此一訴訟的人員為各州檢察總長。 為了保護隱私,不被追蹤網路資訊法案的提出十分需要,對於企業是否能追蹤消費者的網路活動,消費者因此擁有選擇權。在美國聯邦交易委員會去年12月初步提出此法案後,許多網路瀏覽器例如Mozilla及Explorer紛紛改進技術,以提早因應不被追蹤法案的實施,而廣大消費者團體的也紛紛支持此法案,認為可以因此保護消費者的網路隱私權。
美國平等就業機會委員會發布「評估就業篩選程序中使用軟體、演算法及AI之不利影響」技術輔助文件美國平等就業機會委員會(Equal Employment Opportunity Commission, EEOC)於2023年5月18日發布「根據 1964 年《民權法》第七章評估就業篩選程序中使用軟體、演算法和AI之不利影響」(Assessing Adverse Impact in Software, Algorithms, and Artificial Intelligence Used in Employment Selection Procedures Under Title VII of the Civil Rights Act of 1964)之技術輔助文件(下簡稱「技術輔助文件」),以防止雇主使用自動化系統(automated systems)對求職者及員工做出歧視決定。 該技術輔助文件為EEOC於2021年推動「AI與演算法公平倡議」(Artificial Intelligence and Algorithmic Fairness Initiative)計畫的成果之一,旨在確保招募或其他就業決策軟體符合民權法要求,並根據EEOC 1978年公布之「受僱人篩選程序統一指引」(Uniform Guidelines on Employee Selection Procedures, UGESP),說明雇主將自動化系統納入就業決策所應注意事項。 當雇主對求職者與員工做出是否僱用、晉升、終止僱傭,或採取類似行動之決定,是透過演算法決策工具(algorithmic decision-making tool),對特定種族、膚色、宗教、性別、國籍或特定特徵組合(如亞洲女性),做出篩選並產生不利影響時,除非雇主能證明該決策與職位工作內容有關並符合業務需求,且無其他替代方案,否則此決策將違反《民權法》第七章規定。 針對如何評估不利影響,雇主得依UGESP「五分之四法則」(four-fifths rule),初步判斷演算法決策工具是否對某些族群產生顯著較低的篩選率。惟EEOC提醒五分之四法則推導出之篩選率差異較高時,仍有可能導致不利影響,雇主應依個案考量,使用實務常見的「統計顯著性」(statistical significance)等方法進一步判斷。 其次,當演算法決策工具係由外部供應商所開發,或由雇主授權管理人管理時,雇主不得以信賴供應商或管理人陳述為由規避《民權法》第七章,其仍應為供應商開發與管理人管理演算法決策工具所產生之歧視結果負責。 最後,EEOC鼓勵雇主應對演算法決策工具進行持續性自我評估,若發現該工具將產生不利影響,雇主得採取措施以減少不利影響或選擇不同工具,以避免違反《民權法》第七章。