中國最大搜尋引擎簽署知識產權網路侵權協議

  創意產業之發展在中國,具有相當之重要性。在出版物、音樂、電影、電視和遊戲軟件開發等創意相關產業,已占中國GDP 5%以上。2016年4月中國最大的搜尋引擎公司「百度」與國際出版商版權保護聯盟(IPCC)簽署版權保護合作備忘錄。IPCC為多間國際出版公司參與的非營利性組織,由於侵權盜版行為再中國日益嚴重,IPCC積極的向中國國內的網路平台公司洽談合作意願。

  中國百度為了減少網路侵權作品的擴散,透過技術在作品原創性、正版與維權上,開發防盜版系統及線上投訴管道。百度公司與IPCC透過定期的資訊交流,除了在版權保護上合作,雙方也將繼續針對搜尋內容之正版化合作,此舉提升百度搜尋引擎在內容上的豐富性,同時也意味著中國在知識產權上更向前了一步。

  IPCC除了與百度簽署版權保護協議外,也針對網路上具有侵權之網站應列表與仿冒品之跨境執法問題上提出意見交流。另外在政策面上,針對涉及中國正在進行的著作權修法議題,包括著作權集中授權、藝術家之轉售權、著作權的例外與限制及音樂視聽著作權進行討論。

「本文同步刊登於TIPS網站(https://www.tips.org.tw)」

相關連結
※ 中國最大搜尋引擎簽署知識產權網路侵權協議, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=7253&no=0&tp=1 (最後瀏覽日:2026/05/14)
引註此篇文章
你可能還會想看
美國數州將就大麻合法化與否舉行公民投票

  美國總統選舉於11月8日舉行,數州針對大麻合法化與否一併進行公民投票,針對娛樂用大麻(Recreational Maijuana)議題舉辦公投共有五州,分別為加州、內華達州、亞里桑那州、緬因州以及麻州;而針對醫療用大麻(Medical Marijuana)議題舉行公投則有四州,係佛羅里達州、阿肯色州、北達科他州以及蒙大拿州,其中蒙大拿州原已開放醫療用大麻,本次公投案係放寬現行法規之限制。公投結果顯示,除亞里桑那州公投案未通過外,其餘各州公投案皆已通過。   民調公司蓋洛普(Gallup)於十月公布之民調顯示,美國民眾支持大麻合法化比例,已從1969年的12%爬升至目前的60%。本次各州公投案通過後,將對美國聯邦政府近80年的大麻禁令產生極大壓力。就經濟層面觀察,美國研究機構ArcView Market Research研究報告統計,全美目前合法管道銷售大麻金額從2014年的46億美元成長至54億美元,而作為全美最大經濟體的加州,依投資分析公司Cowen and Company分析,該州本次公投案通過將使全美大麻產業成長三倍,甚至於2026年市場規模將成長至500億美元。大麻合法化後,依「加州大麻業者協會」(California Cannabis Industry Association)估計,將為加州州稅增加十億美元的收入。根據統計,此一趨勢中,推動大麻合法化一方投入約兩千兩百萬美元支持加州公投案,而反對方則投入約兩百萬美元。

德國聯邦資訊技術,電信和新媒體協會針對AI及自動決策技術利用提出建議指南

  德國聯邦資訊技術,電信和新媒體協會於2018年2月6日在更安全的網路研討會中針對利用人工智慧及自動決策技術利用提出建議指南(Empfehlungen für den verantwortlichen Einsatz von KI und automatisierten Entscheidungen),旨在提升企業數位化與社會責任,並提升消費者權益保護。 本份指南提出六項建議: 促進企業內部及外部訂定相關準則 例如規定公司在利用演算法和AI時,必須將影響評估列入開發流程,並列為公司應遵守的道德倫理守則,以確保開發的產品或服務符合公平及道德。 提升透明度 使用者如有興趣了解演算法及其含義,企業應協助調查並了解使用者想獲知的訊息,並透過相關訊息管道提升產品及服務透明度。因此,企業應努力使演算法及其操作和含義能夠被使用者理解。此亦涉及即將實施的歐盟一般資料保護規則中的透明度義務。在機器學習或深度學習情況下,可能會增加理解性和可追溯性難度,但有助於分析流程並使其更接近人類理解的方法在科學和商業實踐中,應特別關注並進一步討論。另外,透過教育及使用說明協助及控制功能,教導消費者係建立雙方信任的重要手段。企業應在第一線中說明產品或服務中使用的手段(演算法,機器學習,AI)。除了解釋使用那些技術來改進產品和服務外,應一併解釋如何從技術控制過程中獲得相關知識以及提供那些後援支持。另外,例如透過幫助頁面,儀表板或部落格,解釋發生什麼以及如何做出某些影響深遠的自動化決策,使用戶更了解有關使用自動決策相關訊息。因此建議企業採取強制有效以建立信任的措施,使用戶理解是否及如何使用相關演算法,此可能包括使用自動化決策,使用特定資料組和使用技術的目的,亦即使用戶對演算法,機器學習或AI支持的決策有基本的了解。 為全體利益使用相關技術 人工智慧等新技術之重要性不應被低估,目前在生活和工業等眾多領域皆有廣泛應用。對於個人和集體而言,將可帶來巨大的利益,因此應該充分利用。例如,人工智慧可降低語言障礙,幫助行動不便的人可更加獨立自主生活,改善醫療診斷,提升能源供應效率,甚至是交通規劃和搜索停車位,都只是人工智慧偉大且已被使用的案例。為促進技術發展,應公平地利用其優勢並預留商業應用模式的空間,同時充分解決涉及的具體風險。產業特定的解決方案十分重要,但應兼顧受影響者的利益,並與廣大公眾利益找出妥協平衡點,且應排除不適當的歧視。建議在使用決策支持技術時,應事先檢查相關後果並與其利益比較。例如,可以在資料保護影響評估的框架進行。作為道德準則的一部分,必須確保演算法盡可能量準確地預測結果。 開發安全的資料基礎 資料係人工智慧支援決策的基礎。與人為決策者相同,資料不完整或錯誤,將導致做出錯誤的決定。因此決策系統的可靠性仍取決資料的準確性。但資料質量和資料來源始終不能追溯到源頭,如果可能的話,只有匯總或非個人資料可用於分析或分類用戶群組。因此,確切細節不可被使用或揭露。因此建議企業應考慮要使用的資料、資料的類別和在使用AI系統前仔細檢查資料使用情況,特別是在自我學習系統中資料引入的標準,並根據錯誤來源進行檢查,且儘可能全面記錄,針對個人資料部分更應謹慎處理。 解決機器偏差問題 應重視並解決所謂機器偏差和演算法選擇和模型建立領域的相關問題。解釋演算法,機器學習或AI在基層資料選擇和資料庫時所產生決策偏見相當重要,在開發預期用途的演算法時必須納入考量,對員工應針對道德影響進行培訓,並使用代表性紀錄來創建可以識別和最小化偏差的方法。企業並應該提高員工的敏感度並培訓如何解決並減少機器偏見問題,並特別注意資料饋送,以及開發用於檢測模式的內、外部測試流程。 適合個別領域的具體措施和文件 在特別需要負責的決策過程,例如在車輛的自動控制或醫療診斷中,應設計成由責任主體保留最終的決策權力,直到AI的控制品質已達到或高於所有參與者水平。對類人工智慧的信任,並非透過對方法的無條件追踪來實現,而是經過仔細測試,學習和記錄來實現

經濟合作與發展組織發布《促進AI可歸責性:在生命週期中治理與管理風險以實現可信賴的AI》

經濟合作與發展組織(Organisation for Economic Co-operation and Development, OECD)於2023年2月23日發布《促進AI可歸責性:在生命週期中治理與管理風險以實現可信賴的AI》(Advancing accountability in AI: Governing and managing risks throughout the lifecycle for trustworthy AI)。本報告整合ISO 31000:2018風險管理框架(risk-management framework)、美國國家標準暨技術研究院(National Institute of Standards and Technology, NIST)人工智慧風險管理框架(Artificial Intelligence Risk Management Framework, AI RMF)與OECD負責任商業行為之盡職調查指南(OECD Due Diligence Guidance for Responsible Business Conduct)等文件,將AI風險管理分為「界定、評估、處理、治理」四個階段: 1.界定:範圍、背景、參與者和風險準則(Define: Scope, context, actors and criteria)。AI風險會因不同使用情境及環境而有差異,第一步應先界定AI系統生命週期中每個階段涉及之範圍、參與者與利害關係人,並就各角色適用適當的風險評估準則。 2.評估:識別並量測AI風險(Assess: Identify and measure AI risks)。透過識別與分析個人、整體及社會層面的問題,評估潛在風險與發生程度,並根據各項基本價值原則及評估標準進行風險量測。 3.處理:預防、減輕或停止AI風險(Treat: Prevent, mitigate, or cease AI risks)。風險處理考慮每個潛在風險的影響,並大致分為與流程相關(Process-related)及技術(Technical)之兩大處理策略。前者要求AI參與者建立系統設計開發之相關管理程序,後者則與系統技術規格相關,處理此類風險可能需重新訓練或重新評估AI模型。 4.治理:監控、紀錄、溝通、諮詢與融入(Govern: Monitor, document, communicate, consult and embed)。透過在組織中導入培養風險管理的文化,並持續監控、審查管理流程、溝通與諮詢,以及保存相關紀錄,以進行治理。治理之重要性在於能為AI風險管理流程進行外在監督,並能夠更廣泛地在不同類型的組織中建立相應機制。

美國聯邦通訊委員會修改廣播電視業者對於兒童關看電視的保護義務

  美國聯邦通訊委員會( The Federal Communications Commission /FCC )在 2006 年 9 月,修改並解釋 2004 年一項課與廣播電視業者對兒童觀看電視保護義務之指令。在 2004 年提出的指令中對廣播電視業者有許多規定,包括:電視業者被要求提供兒童適當比例基準之核心( core )教育及資訊節目,並於該類型節目中全程播放中標示 E/I 的符號;允許在節目中出現網站網址,但限制兒童節目中顯示非與節目相關以及有商業目的之網站網址;原兒童節目之插播限制規定;以及修改所謂商業內容定義等。   這次對該指令的再修改,則是希望透過確保提供適當比例的兒童教育資訊節目、將廣告及其他兒童節目之行為納入商業內容定義,以及顯示網站網址之新限制規定,讓邁向數位化世界下之公眾利益能獲得保障。特別是在同時確保不過份削減廣播電視業者以及有線電視業者節目時間編排彈性下,保護兒童免於在廣播電視以及有線電視節目中,接收過多商業訊息。

TOP