歐洲將限制對孩童販售暴力遊戲軟體

  歐洲各國司法部長於1月16日與歐盟司法與內政委員會委員Franco Frattini進行會商,包括德國、英國、希臘、芬蘭、西班牙以及法國之司法部長皆同意支持建立全歐一致之共同規範以限制對孩童販售暴力遊戲軟體,並將據此檢視各國電腦軟體相關法制。


  Franco Frattini委員過去基於「兒童保護應不分國界」之理念,曾建議建構以歐盟為範圍的標識規範,並鼓勵以兒童為銷售對象之遊戲業者建立自律規約,惟歐盟最後決議應交由各國政府自行規範。而Franco Frattini委員此次提案受到本屆歐盟輪值主席國-德國-司法部長Brigitte Zypries的支持,並指示相關規範建構之第一步,即是出版遊戲軟體分級摘要供家長參考,此摘要將很快於歐盟網站上公布。Zypries認為關於暴力遊戲的限制,歐盟應與國際進行合作溝通,由其針對美國與日本;Frattini則期望在歐盟27個會員國建構專門針對此類遊戲的標識規範,至於其他種類之遊戲則仍由各國政府自行管理。


  目前國際間針對暴力遊戲限制,多數國家仍採取提供遊戲分級或相關指導守則之方式,於歐洲,僅英國與德國特別訂定法律加以規範,尤其在英國,遊戲軟體內容若具有對人類或動物之寫實暴力場景,或包含人類的性愛行為者,必須送交英國電影分級委員會(British Board of Film Classification,簡稱BBFC)審查。而美國已有部分州議會通過限制對未成年人販售遊戲的法律,但幾乎皆被「違反美國憲法修正條文第1條-言論自由保障」之理由成功推翻。

相關連結
※ 歐洲將限制對孩童販售暴力遊戲軟體, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=1041&no=0&tp=1 (最後瀏覽日:2026/01/08)
引註此篇文章
你可能還會想看
對AI下達複雜、反復修改指令不算創作行為? —美國著作權局發布AI著作權報告第2部分:可受著作權保護性

.Pindent{text-indent: 2em;} .Noindent{margin-left: 22px;} .NoPindent{text-indent: 2em; margin-left: 38px;} .No2indent{margin-left: 54px;} .No2Pindent{text-indent: 2em; margin-left: 54px} .No3indent{margin-left: 4em;} .No3Pindent{text-indent: 2em; margin-left: 4em} 對AI下達複雜、反復修改指令不算創作行為? —美國著作權局發布AI著作權報告第2部分:可受著作權保護性 資訊工業策進會科技法律研究所 2025年02月10日 由於生成式AI是根據使用者輸入的提示或稱指令(prompts),依機率分布推算生成出最有可能出現的結果,因此有人戲稱AI在每次生成時都是在隨機進行「擲骰子」,即便相同的提示也可能會得到有差異的輸出結果。為應對AI回應的不確定性和多樣性,如何下達提示,有效使用AI,為必須學習的課題。因此,有人說訓練不了人工智慧?我們可以訓練自己,但用心思考精準有效指令,費心對AI生成結果進行反復修改,就能取得著作權保護嗎?美國著作權局提出的看法,或許與大家的期待不同。 壹、事件摘要 美國著作權局今(2025)年1月發布AI著作權報告的「第2部分:可受著作權保護性(Part 2: Copyrightability)」[1]。為幫助評估AI著作領域的立法或監管措施是否必要,該局於2023年8月即發布「著作權與人工智慧議題徵詢通知(Copyright Office Issues Notice of Inquiry on Copyright and Artificial Intelligence)」,對外尋求對包括涉及使用受著作權保護的作品來訓練AI模型的問題、適當的透明度與揭露程度受著作權保護的作品的使用以及AI生成內容的法律定位等問題的意見[2]。在分析AI引發的著作權法與政策問題的意見徵詢結果後,美國著作權局於2024年7月31日,以數位複製物(digital replicas)主題,發布「著作權與人工智慧分析人工智慧引發的著作權法和政策議題」(Copyright and Artificial Intelligence analyzes copyright law and policy issues raised by artificial intelligence)報告的第1部分[3],並隨後於今(2025)年1月發布報告的「第2部分:可受著作權保護性(Part 2: Copyrightability)」[4]。 此報告指出現有的法律原則可根據個案判斷是否具有足夠的人為貢獻,有足夠的彈性足以解決關於AI生成內容是否具有著作權的問題,並不需要修法;當人工智慧被用作工具,且人類能夠決定作品的表達元素時,對AI生成結果的創意選擇、協調或安排,以及對生成結果的創意修改,都可獲得著作權保護;但目前使用者即使給予AI詳細的提示,也無法控制AI如何生成內容,不足以使其成為「作者」;著作保護仍須以人為創意投入,既有法令已足以激勵AI發展,沒有理由為AI生成的內容提供額外的著作權或特殊權利保護。 貳、重點說明 一、AI系統的輸出存在不可控制性[5] 當前生成式AI系統的輸出可能包括未指定的內容,在有數十億個參數的模型構建的複雜AI系統下,特定提示或其他輸入對於AI生成內容的影響存在不確定性,即使是專家研究人員在理解或預測特定模型行為的能力方面也受到限制。不僅AI生成的內容會因請求而異,而且即使具有相同的提示也是難以預測的,即使有AI系統例如Midjourney允許使用者控制生成一致的結果,在重複相同的提示時收到幾乎相同的圖像,然而即使如此也無法保證完美的一致性。 二、有辛勤努力、指示建議不等於有創造性貢獻 (一)無法僅因時間和努力而獲得著作權保護,它需要原創性 (originality),無論原創性有多麼低微 美國的著作權保護限於人類的創作(human authorship) 沒有任何法院承認非人類創造(non-human creation)的著作權。當然在使用AI的大多數情況下,人類將參與創作過程(creation process),並且在他們的貢獻符合創作資格的範圍時,能使其作品具有著作權。美國上訴法院(Supreme Court)明確表示,需要的是原創性 (originality),而不僅僅是時間和努力。在「Feist Publications, Inc. v. Rural Telephone Service Co.」案中,法院否定僅憑「血汗」(sweat of the brow)就足以獲得著作權保護的主張,但法院也認為絕大多數作品都很容易達到標準,因為所需的創造力水平極低;即使是很小的量、無論多麼粗糙、卑微或顯而易見都無妨(no matter how crude, humble or obvious’ it might be.)[6]。 (二)使用機器作為工具並不會否定著作權保護,如果作品已包含足夠的人類創作表達元素(human-authored expressive elements) 對於AI工具的使用是否影響著作權保護,美國著作權局提及在「Burrow-Giles Lithographic Co. v. Sarony」案中,法院將「作者」定義為「任何事物起源的人、創始人、製造者、完成科學或文學作品的人。(he to whom anything owes its origin; originator; maker; one who completes a work of science or literature.)」。法院確定了即使是使用照相機,攝影師也有許多創造性貢獻,包括將主題置於相機前,選擇和安排服裝、窗簾與其他各種配件、安排主題以呈現優雅的輪廓,以及喚起其所需的表情[7]。因此能否受保護的重點不在於有無使用工具,而是創造性投入的有無。 (三)「作者」必須是實際創作作品,即將想法轉化為有形呈現的表達的人,不包括只是提供詳細的建議和指示或做無實質改變轉換的人 美國著作權局在報告中指出,上訴法院在「Community for Creative Non-Violence v. Reid, "CCNV"」案中,認為:繪製設計草圖和以有形的表達媒介實現創意,使藝術家成為作者。該案的哥倫比亞特區巡迴法院明確表示,委託雕塑並提供詳細的建議與指示是不夠的,因為此類貢獻構成不受保護的想法,其不能因此成為雕塑的共同作者。而第三巡迴上訴法院在「Andrien v. Southern Ocean County Chamber of Commerce」案中, 認為原告「明確指示了副本的準備工作的具體細節」,因此「編譯只需要簡單的轉錄即可實現最終的有形形式」。因為印刷商「沒有實質改變原告的原始表達(original expression)」,法院裁定原告是「作者」[8]。 因此,該局認為儘管人工智慧生成內容不能被視為使用者與人工智慧系統的共同作品(joint work),但對於是否貢獻足夠的表達以被視為作者,提供有用的類比—僅僅向作者(AI)描述委託作品應該做什麼或看起來像什麼的人,並不是著作權法意義上的共同作者。 三、AI的創作輔助使用 美國著作權局同意,使用人工智慧作為輔助創作作品的工具與使用人工智慧作為人類創造力的替代品之間存在重要區別。雖然增強人類表達的輔助使用不會限制著作權保護,但認為需要進一步分析下列三種使用方式的差異: (1)指示人工智慧系統產生輸出的提示(prompts); (2)可以在人工智慧生成內容中感知到的表達性輸入(expressive inputs) (3)對人工智慧生成內容進行修改或安排(modifications or arrangements)。 (一)指示人工智慧系統產生輸出的提示(prompts) 由於欠缺對生成結果的控制能力,使用者即使輸入複雜的提示指令亦無法讓其成為「作者」[9]。提示本質上是傳達不受保護的思想,雖然高度詳細的提示可以包含使用者所需的表達元素,但目前的AI技術無法僅靠提示即能給予使用者足夠的人工控制,所以AI 系統的使用者無法成為生成內容的「作者」。雖然在輸入提示可以被視為類似於向受委託創作的藝術家提供指導,但在人與人之間的合作,委託者能夠監督、指導與理解受委託的人類藝術家的貢獻,但這情況目前不存在於人與AI的合作。或許將來可允許使用者對AI的生成內容取得完全的控制權,讓AI的貢獻變成固定或機械化(rote or mechanical)。 由於提示與結果輸出之間的差距,以及相同的提示可以生成多個不同生成內容的事實,進一步表明使用者缺乏對將他們想法轉換為固定表達的控制。而反覆修改提示不會改變、也無法為取得著作權提供足夠的依據,因為著作權保護的是作者身份,而不是辛勤工作。而且美國著作權局認為輸入修改後的提示與輸入單個提示在作用上似乎沒有實質性區別,對過程的控制程度都沒有改變。 不過,有些評論意見舉自然攝影作品做類比,認為即使攝影家無法控制野生動物何時進入畫面,這些作品也可能有資格獲得著作權保護。但美國著作權局認為,這與AI生成不同—攝影家的創作過程並沒有結束於他對作品的想法,其在照相機中控制角度、位置、速度和曝光的選擇,且可能進行作品的後製調修。該局指出「從(AI系統)提供的選項(生成結果)中進行選擇」不能被視為受著作權保護的作者身份, 因為「單一輸出的選擇本身並不是一種創造性的行為」。但該局也表示有時提示可以充分控制AI生成內容中的表達元素,如果AI技術進一步為使用者提供表達元素的更多控制,則結論可能會不同。 (二)富有表現力的輸入(Expressive Inputs)[10]與純粹指令不同 目前AI 系統接受以文本、圖像、音訊、視頻或這些內容形式的輸入,而可以將輸入保留成生成內容的一部分,例如修改或翻譯受著作權保護的作品。這類型的輸入,雖然亦可視為不同形式的提示,但與僅僅是傳達預期結果的提示不同。它所給的不僅是一個概念,更重要的是它限制了AI生成內容的「自主性」。因此可能提供了「更具說服力的人工干預」,而不是簡單的「將提示應用於未知的起點」。美國著作權局認為一個人輸入自己受著作權保護的作品,如果該作品在生成的內容中是可察覺的(perceptible),那麼他至少是該部分生成內容的「作者」。此類 AI 生成輸出的著作權將涵蓋可察覺的人類表達,包括可能涵蓋到作者對作品素材(material)的選擇、協調和安排。 (三)修改或安排(Arranging)AI生成的內容仍可受保護[11] 美國著作權局於報告中指出,使用 AI 生成內容通常是一個初始或中間步驟,如同其AI 註冊指引的說明—「人類可以以足夠創造性的方式選擇或安排 AI 生成的內容,以使最終作品整體構成一個作者的原創作品(the resulting work as a whole constitutes an original work of authorship)」。人類可以藉由修改AI生成的內容,使其達到符合著作權保護標準的程度,如果人類作者以創造性的方式選擇、協調和安排 AI 生成的內容,應該能夠主張著作權。例如:Midjourney 提供「Vary Region and Remix Prompting」,允許使用者使用提示來指定生成圖像的區域。美國著作權局認為此類可以讓使用者控制各個創意元素的選擇與放置的修改,是否達到最低原創性標準雖將取決於具體個案情況。但其認為就生成的內容位置可控制的案例,與純粹提示(prompts alone)情況不同,生成的內容應該受著作權保護。 參、事件評析 在美國著作權局公布其該報告之後,有網路媒體[12]以「美國著作權局定調:光靠提示詞的純AI生成圖片無法享有著作權保護,無論你下多複雜的提示詞都沒有」的標題,詮釋該報告的主旨。確實美國著作權局於該報告中,特別指出下達複雜與反復的提示,並不會影響著作權保護的取得與否的判斷。但關鍵點不在於提示本身,而是對AI生成結果的「可控制」(或可說是AI對生成結果的自主)程度。 對於AI生成結果的著作權保護,經濟部智慧財產局曾以電子郵件1070420號函指出:「著作必須係以自然人或法人為權利義務主體的情形下,其所為的創作始有可能受到著作權的保護。據了解,AI(人工智慧)是指由人類製造出來的機器所表現出來的智慧成果,由於AI並非自然人或法人,其創作完成之智慧成果,非屬著作權法保護的著作,原則上無法享有著作權。但若其實驗成果係由自然人或法人具有創作的參與,機器人分析僅是『單純機械式的被操作』,則該成果之表達的著作權由該自然人或法人享有。」,但何謂「單純機械式的被操作」?以複雜與反復的提示再擇取AI符合所需的AI修改結果,是否屬之?在目前AI工具朝向「自動化」發展的趨勢下,使用者下達提示後,多只須被動的對單一的生成結果,決定是否接受或重新下達指令,使用者只是以指令提出需求,實際的「創作行為」主體其實是AI而非人類。因此,美國著作權局於此報告中更進一步的說明使用者即使有複雜與反復的提示且有意的選擇特定結果,並不能就認定為「對結果有控制權」的創作。必須其結果可為使用者主導、控制,而非被動決定是否接受。 相對而言,在創作的保護實務上,美國著作權局告訴我們的是,人類仍然可以藉由在使用過程提高對AI生成結果的控制程度,以及生成內容的後製,使結果符合著作權保護標準。AI使用者應該盡量使用有提供具體修改控制功能的AI工具,只要有人為的事後修改,或使用過程中能具體主導AI生成的結果,我們仍然可以透過複雜與反復的提示AI,取得受著作權保護的生成結果。 本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。 本文同步刊登於TIPS網站(https://www.tips.org.tw) [1]U.S. Copyright Office Copyright and Artificial Intelligence, Part 2: Copyrightability, https://www.copyright.gov/ai/Copyright-and-Artificial-Intelligence-Part-2-Copyrightability-Report.pdf [2]US Copyright Office, Copyright Office Issues Notice of Inquiry on Copyright and Artificial Intelligence, https://www.copyright.gov/newsnet/2023/1017.html (last visited Feb. 10, 2025). [3]US Copyright Office, Copyright Office Releases Part 1 of Artificial Intelligence Report, Recommends Federal Digital Replica Law, https://www.copyright.gov/newsnet/2024/1048.html (last visited Feb. 10, 2025). [4]U.S. Copyright Office Copyright and Artificial Intelligence, supra note 1. [5]詳前註1,頁5~7。 [6]詳註1,頁8。 [7]詳註1,頁9。 [8]詳註1,頁9。 [9]詳註1,頁18~21。 [10]詳註1,頁22~24。 [11]詳註1,頁24~27。 [12]電腦王,美國著作權局定調:光靠提示詞的純AI生成圖片無法享有著作權保護,無論你下多複雜的提示詞都沒有,https://www.techbang.com/posts/121184-the-us-copyright-office-has-set-the-tone-that-purely(最後瀏覽日:2025/02/10)。

Ralph Lauren於Polo商標圖樣使用爭議中勝出

  美國第二巡迴上訴法院於二月初判決知名品牌Ralph Lauren與美國馬球協會(U.S. Polo Association ) 自1984年開始爭執不休的馬球圖樣使用爭議由Ralph Lauren勝出,馬球協會不得使用polo圖樣於香氛與美妝產品類別,確認了2012年3月地方法院禁止馬球協會使用圖樣的判決。   自1890年以來主管美國馬球運動的美國馬球協會與Ralph Lauren的馬球員圖像恩怨可追溯回1984年,當時馬球協會以確認之訴贏得在未造成與Ralph Lauren知名的Polo品牌混淆的狀況下,馬球協會得製造授權商品。   在2012年的判決中,地方法院禁止美國馬球協會使用馬球員圖樣與POLO字樣在任何香水、美妝產品類別上,同時要求USPTO拒絕馬球協會部分的商標申請,該案法官裁決與香氛產品有關的圖樣侵害Ralph Lauren的商標權利,構成不公平競爭,同時也造成設計師與被授權人無法回復的損害。   馬球協會的律師團在上訴理由中主張:馬球員圖樣符合先前使用,同時,因為過往的判決賦予協會得使用該圖樣在服裝類產品,表示也可以使用在香氛類別,因為服裝跟香氛產品的市場是很相近的,但前述主張並不為第二巡迴上訴法院陪審團所認同。

全美各州醫療委員會聯合會發布人工智慧(AI)治理指引,並要求醫師為AI之利用結果負最終責任

全美各州醫療委員會聯合會(The Federation of State Medical Boards, FSMB)於2024年4月發布「引導人工智慧以負責任與符合倫理方式融入臨床實務」(Navigating the Responsible and Ethical Incorporation of Artificial Intelligence into Clinical Practice)指引,明確概述醫師於利用AI協助提供照護時可採取之步驟,以履行其倫理與專業職責,期能藉此降低對患者造成傷害之風險;本指引之特色在於,其要求醫師為AI之利用結果負最終之責任。 FSMB 向各州醫療委員會與其他利害關係人所提供之原則與建議如下,以支持對包含AI之臨床照護進行負責任與符合倫理之監管: (1)透明度與揭露(Transparency and Disclosure): 應要求維持於醫療照護領域使用AI之透明度;各州醫療委員會應制定明確之指導方針,向患者揭露AI之使用情況,其有助於患者與醫師之理解,但不會造成不必要之行政負擔;FSMB 應制定文件,詳細說明最常用之AI工具之功能與局限性,以協助醫療委員會發揮監管者之角色,並應制定常見問題與最佳實務文件,作為提供照護時利用AI方面關於透明度之資源。 (2)教育與理解(Education and Understanding): FSMB及其於醫學教育界之合作夥伴,應為醫師、醫療委員會與患者,確認有關醫療照護中AI之結構化教育資源,該等資源應包括協助瞭解AI如何運作、其優點、潛在風險以及對患者照護之影響。 (3)負責任之使用與問責(Responsible Use and Accountability): 開發人員應協助醫師瞭解何時、以及如何於患者之照護中利用AI工具;選擇AI工具支援臨床決策之醫院系統、保險公司或其他機構應向醫師提供有關AI工具之教育、存取各工具之性能報告,並應設計一個定期檢視工具功效的流程;AI工具應以得使各州醫療委員會能稽核與理解之方式設計,以便適當評估依賴工具輸出結果之醫師是否偏離照護標準(standard of care);FSMB 應支持各州醫療委員會針對臨床醫師如何負責任、可問責地使用AI之解釋。 (4)公平性與近用(Equity and Access): 應努力確保所有患者皆能公平地近用AI帶來之好處;FSMB與各州醫療委員會致力於以下原則:醫療人員所提供之照護是公平的、且不受基於種族、民族或其他形式歧視之偏見影響;FSMB應與其他利害關係人一起理解並解決演算法偏差問題。 (5)隱私與資料安全(Privacy and Data Security): AI工具之開發者必須實施嚴格之保護措施,以保護AI開發與評估時所利用之患者資料,通常情況下應告知患者資料如何被利用,且FSMB應與行業利害相關人一起制定AI系統使用與散布患者資料之政策,包括針對AI開發或評估中使用之患者資料之最低資料保護措施。 (6)監督與監管(Oversight and Regulation): 各州醫療委員會必須保留對於提供醫療服務時,不當應用AI工具之醫生進行紀律處分之權力,其包括問責議題之考慮,特別是當AI系統變得更加自主時;各州醫療委員會應審查其管轄範圍內如何對「醫療行為」(practice of medicine)進行法律定義,以確保對提供醫療照護、人力或其他方面進行持續之監管監督。 (7)法律法規之持續審查與調整(Continual Review and Adaptation of Law and Regulations): 各州醫療委員會應在FSMB之支持下,隨著AI之不斷發展,持續檢視與更新與AI相關之指引與法規;政策制定者應考慮AI對基本法律原則的影響,例如醫療行為之定義以及AI對企業醫學實務之影響;FSMB 應建立一個專門團隊,持續檢視與調整AI指引與法規。 本指引指出,AI工具通常無能力取代醫師之專業判斷、道德責任或對州醫療委員會之責任,醫療行為中之關鍵職業責任始終為確保診斷、臨床決策與建議不存在偏差。與用於診斷或治療疾病之任何其他工具或鑑別方法相同,醫療專業人員有責任確保基於證據結論之準確性與真實性,因此於將AI系統用於患者照護前,醫師應以合理努力識別與解決偏差(如虛假或不準確之資訊等)。

日本經產省發布中小企業開發IoT機器之產品資安對策指引

日本經濟產業省(下稱經產省)於2023年6月6日發布中小企業開發IoT機器之產品資安對策指引(IoT機器を開発する中小企業向け製品セキュリティ対策ガイド),本指引彙整企業應該優先推動IoT機器資安對策,經產省提出具體資安對策如下: 1.制定產品資安政策(セキュリティポリシー)並廣為宣導:由企業經營者率先制定資安政策,進行教育宣導,並依實際需求修正調整。 2.建立適當的資安政策體制:確立實施資安政策必要之人員及組織,明確其職務及責任。 3.指定IoT機器應遵守之資安事項,並預測風險:決定IoT機器的預設使用者及使用案例,並於釐清使用者需求後,指定IoT機器應遵守之資安事項,預測衍生風險。 4.考量IoT機器應遵守之資安事項及預測風險,進行設計與開發:以預設IoT機器應遵守之資安事項衍生風險為基礎,從設計與開發階段開始採取風險對策。 5.檢測是否符合資安相關要件:從設計與開發階段開始制定檢測計畫,檢測是否符合資安要件,並依據檢測結果進行改善。 6.於產品出貨後蒐集風險資訊,與相關人員溝通並適時提供支援:蒐集全球資安事故與漏洞資訊,並設置可適時與委外廠商以及用戶溝通之窗口。

TOP