Google數位圖書館計劃面臨著作權法爭議

         全球最大搜索引擎 Google公司於去年12月中宣布,已與美國紐約公共圖書館以及哈佛大學、史丹福大學、密西根大學、牛津大學合作,將數百萬冊藏書數位化讓網友免費瀏覽。此一計畫預計花十年時間建構,在2015年啟動,經費約估15000萬到2億美元之間 (The Google Print Program)。雖然此一構想極具創意,但是由於將館藏圖書數位化牽涉著作權爭議,因此由125家非營利學術出版機構組成的美國大學出版協會(AAUP)已針對若干疑點去函,希望Google能釐清著作權法上之疑慮,以利整體計劃之推動。


  AAUP所持最重要依據係美國著作權法第107條有關合理使用之規定。AAUP質疑,以Google如此大規模,就圖書內容性質不加以區分,全面性的圖書數位化工程,恐怕無法符合著作權法所訂出的合理使用標準。蓋著作權法有關是否符合合理使用之界定標準,是以事實情況及個案之判別方式為主,故無法想像Google如何在未進行個別之判斷前,便能夠概括性的依此而主張其享有合法權利。事實上,Google之主張與法院實務界之認知存在極大落差。


  此外, Google的數位圖書館計畫在許多細部執行事項上,仍存有許多疑點,導致原先欲加入的AAUP會員,無法確保圖書內容完成數位化後,對於以銷售書籍及授權為主要營收來源之出版社,恐會產生造成市場排擠效果之憂慮。


  藉由數位技術雖然可以挑戰人類夢想的極限,但過程中涉及的法律層面問題,卻相當程度羈絆了夢想前進的速度。 Google的數位圖書館計劃再次印證了新興技術與現行法規不協調的窘況。就現有事實資料以觀,Google若未能與學術出版商妥善安排著作權引發之爭議,此一計畫未來是否能順利執行,恐怕存有極大疑問。

相關連結
※ Google數位圖書館計劃面臨著作權法爭議, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=692&no=57&tp=1 (最後瀏覽日:2026/05/03)
引註此篇文章
你可能還會想看
英國通訊管理局決定擴張防止「不正當銷售」(mis-selling)的規定

  鑑於頻寬市場以及電信市場的競爭愈趨炙熱,不肖資通訊業者對於弱勢消費者,透過詐騙或其他不適當銷售手法而獲利的案例也層出不窮。爰此,英國通訊管理局(Office of Communication/ Ofcom)在2007年2月8日,決定擴張防止固網電信業者對消費者「不正當銷售」(mis-selling)的規範內容(General Condition)。   「不正當銷售」指的是電信公司或其雇員,利用不受歡迎或者非法的銷售產品技巧所從事的相關市場活動。其中最嚴重的銷售方式,又以「砰一聲」(slamming)的銷售行為,最令人詬病。因為該銷售行為是在未經消費者明示同意、或者未使其獲得足夠知識與資訊下,逕自將提供的服務轉換到另一家公司。例如:轉換服務提供者,但並未通知你;通知轉換服務提供者,但未經你同意;所簽約的服務與提供的服務不盡相同;銷售人利用使你倍感壓力的方式來銷售服務等等,均屬誤賣行為。   此次的規則擴張,在規範對象上也會納入那些使用用戶迴路的服務提供者。Ofcom認為在日益激勵的市場競爭下,這些擴張規則有助於消費者權益,並能保護他們免受不適當的銷售活動干擾,更可確保消費者追求更好消費標的市場信心。

美國聯邦上訴法院判決,加州政府禁止販賣暴力電玩予未成年人之法案,係屬違憲

  美國聯邦第九區巡迴上訴法院,於2009年2月20日判決中維持下級審見解,認定『禁止暴力電玩法案』係違反憲法所保護的言論自由。系爭法案於2005年由加州國會通過,並由州長Arnold Schwarzenegger所簽署批准。根據該法案規定,禁止販售或出租所謂『特別殘酷、極端邪惡或道德敗壞(especially heinous, cruel or depraved)』的暴力電玩給未滿18歲的未成年人;符合法條所描述之暴力電玩並應該在包裝盒上加註除現行ESRB分級標誌以外的特別標示(18禁);且賦予零售商於販賣暴力電玩時,有檢查顧客年齡之義務,違者將可處1000美元罰款。   聯邦法院法官認為,被告(加州政府)無法證明『暴力電玩』會影響青少年心理及精神方面的健康,或者出現反社會或激進的行為舉止;被告也無法證明透過立法禁止的手段,能有效達到法案所宣稱保護未成年人的立法目的;法院也認為,系爭條文規定過於模糊,並未能說明暴力電玩之判斷標準。   原告Video Software Dealers Association 和Entertainment Software Association表示,要達到加州政府所宣稱的保護未成年人的立法目的,應從加強既有ESRB分級制度的教育宣導、落實零售商遵守分級制度以及透過父母的管教監督等方式著手,而非增加不適當的內容審查機制。然而,支持該法案者則主張,禁止暴力電玩如同禁止對未成年人散佈色情內容一樣(最高法院認為政府禁止對未成年人散佈色情內容並未違憲),本案被告加州州長Schwarzenegger也表示將上訴到底。   日前在德國也出現修正刑法,將販賣或散佈暴力電玩入罪之提議,在暴力電玩分級制度所引起的爭議日益擴大之際,各國相關作法及其所引起之爭議,或許值得我國主管機關重新檢討「電腦軟體分級辦法」之借鏡參考。

愛爾蘭資料保護委員會發布《控制者資料安全指引》,提供資料控制者關於個人資料安全措施之依循指引

  愛爾蘭資料保護委員會(Ireland's Data Protection Commission)於今(2020)年2月公布控制者資料安全指引(Guidance for Controllers on Data Security),愛爾蘭資料保護委員會表示本指引亦適用於資料處理者。指引內針對17個面向說明控制者於資料處理時應考量之安全措施,分別為:(1)資料蒐集與留存政策(Data Collection and Retention Policies);(2)存取控制(Access Controls);(3)螢幕保護程式(Automatic Screen Savers);(4)加密(Encryption);(5)防毒軟體(Anti-Virus Software);(6)防火牆(Firewalls)(7)程式修補更新(Software Patching);(8)遠端存取(Remote Access);(9)無線網路(Wireless Networks);(10)可攜式設備(Portable Devices);(11)檔案日誌及軌跡紀錄(Logs and Audit Trails);(12)備份系統(Back-Up Systems);(13)事故應變計畫(Incident Response Plans);(14)設備汰除(Disposal of Equipment);(15)實體安全(Physical Security);(16)人為因素(The Human Factor);(17)認證(Certification)。   此外,愛爾蘭資料保護委員會還強調,歐盟一般資料保護規則(General Data Protection Regulation, GDPR)第25條與第32條有關資料控制者之義務,可透過「從設計與預設機制著手資料保護(Data protection by design and by default)」,與適當的技術及組織措施等方式,並考量現有技術、執行成本、處理之本質、範圍、脈絡及目的與對當事人權利及自由之風險可能性與嚴重性等因素,以確保其安全措施符合相應資料風險之安全等級。   最後,愛爾蘭資料保護委員會表示資料控制者更應確保其組織內員工瞭解該等安全措施並確實遵守,資料控制者應於制定其資料安全政策時考量到本指引所列各項目,以履行其保護資料安全之義務。

經濟合作與發展組織發布《促進AI可歸責性:在生命週期中治理與管理風險以實現可信賴的AI》

經濟合作與發展組織(Organisation for Economic Co-operation and Development, OECD)於2023年2月23日發布《促進AI可歸責性:在生命週期中治理與管理風險以實現可信賴的AI》(Advancing accountability in AI: Governing and managing risks throughout the lifecycle for trustworthy AI)。本報告整合ISO 31000:2018風險管理框架(risk-management framework)、美國國家標準暨技術研究院(National Institute of Standards and Technology, NIST)人工智慧風險管理框架(Artificial Intelligence Risk Management Framework, AI RMF)與OECD負責任商業行為之盡職調查指南(OECD Due Diligence Guidance for Responsible Business Conduct)等文件,將AI風險管理分為「界定、評估、處理、治理」四個階段: 1.界定:範圍、背景、參與者和風險準則(Define: Scope, context, actors and criteria)。AI風險會因不同使用情境及環境而有差異,第一步應先界定AI系統生命週期中每個階段涉及之範圍、參與者與利害關係人,並就各角色適用適當的風險評估準則。 2.評估:識別並量測AI風險(Assess: Identify and measure AI risks)。透過識別與分析個人、整體及社會層面的問題,評估潛在風險與發生程度,並根據各項基本價值原則及評估標準進行風險量測。 3.處理:預防、減輕或停止AI風險(Treat: Prevent, mitigate, or cease AI risks)。風險處理考慮每個潛在風險的影響,並大致分為與流程相關(Process-related)及技術(Technical)之兩大處理策略。前者要求AI參與者建立系統設計開發之相關管理程序,後者則與系統技術規格相關,處理此類風險可能需重新訓練或重新評估AI模型。 4.治理:監控、紀錄、溝通、諮詢與融入(Govern: Monitor, document, communicate, consult and embed)。透過在組織中導入培養風險管理的文化,並持續監控、審查管理流程、溝通與諮詢,以及保存相關紀錄,以進行治理。治理之重要性在於能為AI風險管理流程進行外在監督,並能夠更廣泛地在不同類型的組織中建立相應機制。

TOP