YOUTUBE遊戲頻道 - Rooster Teeth’s Let’s Play的建立者Lewis Turner近期擁有111部上傳遊戲剪輯並超過74890次瀏覽量,現被任天堂(NINTENDO)控訴侵害著作權。
任天堂依YOUTUBE的Content ID政策,向Lewis Turner主張凡運用任天堂遊戲剪輯而賺取收益的部分,一旦這些剪輯被識別包含Content ID所認定之完整或部分的內容,均被要求需支付獲利予任天堂。Content ID為YOUTUBE 的著作權政策,有助保護企業並控制相關影片上傳的內容,藉識別使用者上傳的相關影片(視訊或音訊)的內容,與著作權人提供的內容比對是否侵權的功能,進而採取預先選擇的處理方式,如:透過影片賺取收益或封鎖這類的影片。
許多玩家習慣將時下流行的遊戲闖關歷程上傳至社群網站與其他玩家分享,展現如何破解高難度關卡,或進階的闖關技巧,任天堂此舉,招來許多玩家的不滿,甚至表示再也不玩任天堂的遊戲或上傳更多的遊戲歷程剪輯。一名”Let’s play”玩家表示:「電動遊戲非如電影或電視;當我看到別人正在看的影片,我可能不會再去看;但當我看到別人正在玩的遊戲,我會想自己體驗。每個遊戲過程,都有其獨特視覺經驗,藉由瀏覽遊戲歷程能夠引起購買慾望。」
對此,任天堂則聲明,若是為了持續推動並確保為任天堂的遊戲,仍可透過社群平台分享,即玩家仍可繼續在YOUTUBE上分享任天堂的遊戲歷程;而非像對待娛樂公司一樣,阻止玩家使用任天堂智慧財產權(著作權)的原因。
近期人工智慧(Artificial Intelligence, AI)的智慧財產權保護受到各界廣泛注意,而OpenAI於2023年3月所提出有關最新GPT- 4語言模型的技術報告更將此議題推向前所未有之高峰。過去OpenAI願意公布細節,係由於其標榜的是開源精神,但近期的報告卻決定不公布細節(如訓練計算集、訓練方法等),因為其認為開源將使GPT- 4語言模型面臨數據洩露的安全隱患,且尚有保持一定競爭優勢之必要。 若AI產業選擇不採取開源,通常會透過以下三種方式來保護AI創新,包括申請專利、以營業秘密保護,或同時結合兩者。相對於專利,以營業秘密保護AI創新可以使企業保有其技術優勢,因不用公開技術內容,較符合AI產業對於保護AI創新的期待。然而,企業以營業秘密保護AI創新有其限制,包含: 1.競爭者可能輕易透過還原工程了解該產品的營業秘密內容,並搶先申請專利,反過來起訴企業侵害其專利,而面臨訴訟風險; 2.面對競爭者提起的專利侵權訴訟,企業將因為沒有專利而無法提起反訴,或透過交互授權(cross-licensing)來避免訴訟; 3.縱使企業得主張「先使用權(prior user right)」,但其僅適用在競爭者於專利申請前已存在的技術,且未來若改進受先使用權保護之技術,將不再受到先使用權之保護,而有侵犯競爭者專利之虞,因此不利於企業提升其競爭力。 綜上所述,儘管AI產業面有從開源轉向保密的傾向,但若要完全仰賴營業秘密來保護AI創新仍有其侷限,專利依舊是當前各企業對AI領域的保護策略中的關鍵。 本文同步刊登於TIPS網站(https://www.tips.org.tw)
FCC對於頻譜管理與拍賣的法規修正美國聯那通訊委員會 (Federal Communications Commission, FCC)在本月十四日公佈了一份有關「商業頻譜加強法案(Commercial Spectrum Enhancement Act, CSEA)」的執行命令與法規預訂修正通知(Declaratory Ruling and Notice of Proposed Rule Making)。希冀能制訂一定的行政規則而確切地遵照CSEA的規範;同時,FCC也在文件報告中也提出了一些對於目前競價拍賣規則的相關修正意見。 最初在 CSEA法案中設計了頻譜的拍賣收益機制,主要係補償聯邦機構在一些特定頻率(216-220 MHz, 1432-1435 MHz, 1710-1755 MHz, and 2385-2390 MHz)中,以及一些從聯邦專屬使用區重新定頻到非專用區的頻率,因移頻所支應出的必要成本。而在FCC的公佈報告中,委員會認為惟有定義清楚,方能有效地落實該法的執行。因此FCC詳細解釋說明了CSEA中對於「總體現金收益(total cash proceeds)」的意義,FCC認為所謂的總體現金收益應該是原始獲標的價格扣除掉任何有可能的折扣或扣損;同時,FCC也在預定修正公告中,認為應改變委員會的拍賣價格規定以配合CSEA的規定。另外,也修正了部落地的拍賣信用補償制度(Tribal Land Bidding Credit Rule)等規定。
『採購單位執行下單評估與廠商智慧財產管理要件之關連性』研究調查 經濟合作與發展組織發布《促進AI可歸責性:在生命週期中治理與管理風險以實現可信賴的AI》經濟合作與發展組織(Organisation for Economic Co-operation and Development, OECD)於2023年2月23日發布《促進AI可歸責性:在生命週期中治理與管理風險以實現可信賴的AI》(Advancing accountability in AI: Governing and managing risks throughout the lifecycle for trustworthy AI)。本報告整合ISO 31000:2018風險管理框架(risk-management framework)、美國國家標準暨技術研究院(National Institute of Standards and Technology, NIST)人工智慧風險管理框架(Artificial Intelligence Risk Management Framework, AI RMF)與OECD負責任商業行為之盡職調查指南(OECD Due Diligence Guidance for Responsible Business Conduct)等文件,將AI風險管理分為「界定、評估、處理、治理」四個階段: 1.界定:範圍、背景、參與者和風險準則(Define: Scope, context, actors and criteria)。AI風險會因不同使用情境及環境而有差異,第一步應先界定AI系統生命週期中每個階段涉及之範圍、參與者與利害關係人,並就各角色適用適當的風險評估準則。 2.評估:識別並量測AI風險(Assess: Identify and measure AI risks)。透過識別與分析個人、整體及社會層面的問題,評估潛在風險與發生程度,並根據各項基本價值原則及評估標準進行風險量測。 3.處理:預防、減輕或停止AI風險(Treat: Prevent, mitigate, or cease AI risks)。風險處理考慮每個潛在風險的影響,並大致分為與流程相關(Process-related)及技術(Technical)之兩大處理策略。前者要求AI參與者建立系統設計開發之相關管理程序,後者則與系統技術規格相關,處理此類風險可能需重新訓練或重新評估AI模型。 4.治理:監控、紀錄、溝通、諮詢與融入(Govern: Monitor, document, communicate, consult and embed)。透過在組織中導入培養風險管理的文化,並持續監控、審查管理流程、溝通與諮詢,以及保存相關紀錄,以進行治理。治理之重要性在於能為AI風險管理流程進行外在監督,並能夠更廣泛地在不同類型的組織中建立相應機制。