日本正式打擊動畫與漫畫盜版 橫跨十五家企業聯手合作

  去年七月日本成立的「漫畫、動畫盜版對策協議會」上個月開始了所謂「MAG PROJECT」,針對中國、美國與歐洲等海外約100個提供盜版的網站,以約5個月的期間,透過電子郵件集中請求刪除盜版內容。

  主要打擊對象為提供影音分享的網站、提供漫畫線上閱讀的線上閱讀網站與累積大量盜版資料的儲存空間網站等,在不聽從刪除請求的場合,向當地法院提起訴訟等法律措施也在此次盜版對策的考慮之列。主要保護對象預計包括在日本海外也相當熱門的「one piece(海賊王)」、「名偵探柯南」等總計約580部作品。

  「漫畫、動畫盜版對策協議會」包括有東映動畫、吉卜力工作室、角川、講談社、小學館、集英社等等總計15家企業參加,由CODA(內容海外流通促進機構)負責事務局。

  提到盜版,以往主要是重製的漫畫書跟DVD,而現在的主流則是網路。盜版在日本海外網路開始流通的時候,約莫是寬頻開始普及的2006年前後。在盜版流通的背景,除大容量的傳輸變成可能之外,還包括有在美國等地出現的日本動畫熱潮,以及Youtube等動畫分享網站的出現等等因素存在。

  根據日本動畫協會的調查,2012年日本動畫製作公司的海外銷售金額為144億日圓,相較最近一期高峰值2005年的銷售金額313億日圓,可謂攔腰折半。另據日本經濟產業省25年度的調查,動畫與漫畫盜版造成的損害,光就美國一地來說,推估高達約有兩兆日圓之多。

相關連結
※ 日本正式打擊動畫與漫畫盜版 橫跨十五家企業聯手合作, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=6628&no=0&tp=1 (最後瀏覽日:2026/03/08)
引註此篇文章
你可能還會想看
美國總統發布行政命令啟動創世紀任務,整合AI資源加速科學發現,鞏固AI技術領導地位

美國總統川普於2025年11月24日發布行政命令(Executive Order)啟動創世紀任務(Launching The Genesis Mission),旨在建立美國科學與安全AI平臺(下稱AI平臺),整合聯邦政府長期累積之科學資料集、國家研發及運算資源,訓練可自動化研究、加速科學發現之AI模型,強化國家安全、提高勞動生產力及研發投資報酬率,鞏固美國AI技術領導地位。 行政命令重點如下: (1)權責分配:由能源部長(Secretary of Energy)確保將執行創世紀任務所需資源統一整合至AI平臺,並訂定安全計畫。由總統科學技術助理(Assistant to the President for Science and Technology, APST)領導,透過國家科學技術委員會(National Science and Technology Council, NSTC)協調所有參與之行政部門。 (2)AI平臺之運作:提供能源部國家實驗室超級電腦、安全雲端運算環境等高效能運算資源、AI建模與分析框架、運算工具、各學科領域基礎模型,並在適法前提下,提供聯邦政府所管理之資料集、開放科學資料集或能源部生成之合成資料集。 (3)識別國家科學技術挑戰:能源部長應提交創世紀任務優先應對之國家重要科學技術挑戰清單,涵蓋先進製造、生物科技、關鍵原物料、核能、量子資訊科學、半導體與微電子學領域,經APST審查並與NSTC參與成員研議後定案。 (4)跨部門協調及外部參與:召集相關部門參與,訂定資源配置計畫整合各部門可用資料與基礎設施。提供獎補助,鼓勵私部門參與符合任務目標之AI驅動科學研究。設立研究獎學金、實習與學徒制計畫,提供AI平臺使用權及AI賦能科學發現培訓。在維護聯邦研究資產安全及公共利益最大化之前提下,建立標準化合作夥伴機制,與擁有先進AI、資料、運算能力或科學專業知識之外部夥伴合作。 行政命令就前述事項設定執行時程,且明定自發布之日起1年內及此後每年,能源部長應向總統提交報告,說明各事項之運作情況與達成成果。

歐盟執委會通過關於《人工智慧責任指令》之立法提案

  歐盟執委會(European Commission)於2022年9月28日通過《人工智慧責任指令》(AI Liability Directive)之立法提案,以補充2021年4月通過之《人工智慧法》草案(Artificial Intelligence Act)。鑑於人工智慧產品之不透明性、複雜性且具自主行為等多項特徵,受損害者往往難以舉證並獲得因人工智慧所造成之損害賠償,《人工智慧責任指令》立法提案即為促使因人工智慧而受有損害者,得以更容易獲得賠償,並減輕受損害者請求損害賠償之舉證責任。   《人工智慧責任指令》透過引入兩個主要方式:(一)可推翻之推定(rebuttable presumptions):人工智慧責任指令透過「因果關係推定(presumption of causality)」來減輕受損害者之舉證責任(burden of proof)。受損害者(不論是個人、企業或組織)若能證明人工智慧系統因過失或不遵守法規要求之義務,致其受有損害(包括基本權利在內之生命、健康、財產或隱私等),並且該損害與人工智慧系統之表現具有因果關係,法院即可推定該過失或不遵守義務之行為造成受損害者之損害。相對的,人工智慧之供應商或開發商等也可提供相關證據證明其過失不可能造成損害,或該損害係由其他原因所致,以推翻該損害之推定。(二)證據揭露機制(disclosure of evidence mechanism):若受害者之損害涉及高風險人工智慧時,得要求自該供應商或開發商等處獲取證據之權利。受害者透過證據揭露機制能夠較容易地尋求法律賠償,並得以找出究責的對象。   歐盟執委會認為以安全為導向的《人工智慧法》,為人工智慧訂定橫向規則,旨在降低風險和防止損害,但仍需要《人工智慧責任指令》之責任規定,以確保損害風險出現時,相關賠償得以被實現。但歐盟執委會仍選擇了較小的干預手段,《人工智慧責任指令》針對過失之責任制度進行改革,並未採取舉證責任倒置(a reversal of the burden of proof)之作法,而是透過「可推翻之推定」,一方面減輕受損害者之舉證責任,使受損害者得對影響人工智慧系統並產生過失或侵害行為之人提出損害賠償;另一方面賦予人工智慧之供應商或開發商等有機會推翻前揭造成損害之推定,以避免人工智慧系統之供應商或開發商面臨更高的責任風險,可能阻礙人工智慧產品和服務創新。

美國提出「個人資料隱私暨安全法案草案」,規範聯網環境商業應用及隱私權利

  面對層出不窮資料違背或身份竊盜事件,2014年初, FTC於美國國會的例行會議上,就數位時代關於隱私權之保護課題進行作證,會議中,FTC乃呼籲美國國會應立即通過制定一個更強的聯邦資料安全與違背提醒的法律,其也進而提出「個人資料隱私暨安全法案(草案)」 (Personal Data Privacy and Security Act of 2014, S.1897)。該草案主要分成兩大部分: 第一部份,將強化身份竊盜和其他違反資料隱私與安全之懲罰;第二部份,係關於可茲辨識個人資料(PII)之隱私和資訊安全。   法案第202條係關於「個人資料隱私與安全機制」(personal data privacy and security program),目的在強化敏感性可茲辨識個人資料的保護,從行政(administrative)、技術(technical)和實體(physical)三個構面的防衛機制,進行相關標準之制訂與落實。有關適用之範疇,乃就涉及州際貿易之商業實體,而該州際貿易包含蒐集、近取、傳輸、使用、儲存或在電子或數位格式處理可茲辨識個人之敏感性資料,而這些資料總計多達1萬筆以上,然而,將不適用於金融機構(financial institutions)、醫療保險轉移和責任法(HIPPA)所管制者、服務提供者(service provider)和公共紀錄(public records)。   而在機制設計上,也係從「設計」(DESIGN)、「風險驗證」 (RISK ASSESSEMENT)和「風險管理」(RISK MANAGEMENT)三個角度進行切入,也必須確實提供員工教育訓練(TRAINING)、弱點測試(VULNERABILITY TESTING)、定期驗證和個人資料隱私與安全之更新,另外,在與外部與服務提供者(例如ISP)之關係上,公司必須盡到適當勤勉的義務(due diligence),也必須透過契約(contract)方式,約定前述所建置起之資料隱私安全機制,並在安全性遭受到侵害時,以合理方式通知締約他方。   本案目前在聯邦參議院已經二讀通過,已交付參議院司法委員會進行下一階段的審議,該立法草案未來是否會直接或間接影響物聯網環境生態系統之商業運作,有待未來持續關注之。

OECD啟動全球首創的《開發先進人工智慧系統組織的報告框架》

2025年2月7日,經濟合作暨發展組織(Organization for Economic Cooperation and Development,OECD)正式啟動《開發先進人工智慧系統組織的報告框架》(Reporting Framework for the Hiroshima Process International Code of Conduct for Organizations Developing Advanced AI Systems,簡稱G7AI風險報告框架)。 該框架之目的是具體落實《廣島進程國際行為準則》(Hiroshima Process International Code of Conduct)的11項行動,促進開發先進人工智慧系統(Advanced AI Systems)的組織建立透明度和問責制。該框架為組織提供標準化方法,使其能夠證明自身符合《廣島進程國際行為準則》的行動,並首次讓組織可以提供有關其人工智慧風險管理實踐、風險評估、事件報告等資訊。對於從事先進人工智慧開發的企業與組織而言,該框架將成為未來風險管理、透明度揭露與國際合規的重要依據。 G7 AI風險報告框架設計,對應《廣島進程國際行為準則》的11項行動,提出七個核心關注面向,具體說明組織於AI系統開發、部署與治理過程中應採取之措施: 1. 組織如何進行AI風險識別與評估; 2. 組織如何進行AI風險管理與資訊安全; 3. 組織如何進行先進AI系統的透明度報告; 4. 組織如何將AI風險管理納入治理框架; 5. 組織如何進行內容驗證與來源追溯機制; 6. 組織如何投資、研究AI安全與如何降低AI社會風險; 7. 組織如何促進AI對人類與全球的利益。 為協助G7推動《廣島進程國際行為準則》,OECD建構G7「AI風險報告框架」網路平台,鼓勵開發先進人工智慧的組織與企業於2025年4月15日前提交首份人工智慧風險報告至該平台(https://transparency.oecd.ai/),目前已有包含OpenAI等超過15家國際企業提交報告。OECD亦呼籲企業與組織每年定期更新報告,以提升全球利益相關者之間的透明度與合作。 目前雖屬自願性報告,然考量到國際監理機關對生成式AI及高風險AI 系統透明度、可問責性(Accountability)的日益關注,G7 AI風險報告框架內容可能成為未來立法與監管的參考作法之一。建議企業組織持續觀測國際AI治理政策變化,預做合規準備。

TOP