Google新搜尋服務引發著作權侵權爭議

  網路搜尋引擎的巨人 Google ,近來有一項計畫,即對圖書館中的書籍做掃瞄,然後讓使用者透過網際網路搜尋書籍的內容。由於 Google 計畫掃瞄供搜尋的書籍中,包括許多目前仍受到著作權保護的著作,因此 Google 此舉,是否造成對書籍著作權的侵害,便引發了相當的爭議。


  在近日的一個討論會中,學者、作者與出版商群聚一堂,就 Google 此一計畫的合法性進行討論,並就是否對 Google 進一步提出訴訟做討論。 Google 宣稱,此一計畫是人類知識發展的一大進步,把人類的觀念與想法,做有系統的歸類整理,並讓大眾更容易接近與使用,對於人類知識的傳播與進步,有重大貢獻。


  然而,作者與出版商方面,則認為
Google 此舉侵害的作者與出版商的著作權。就此,作者與出版商已做出回應。先前,美國出版商協會 (The Association of American Publishers, AAP) 已於 10 19 日對 Google 提起訴訟,希望經由法律的判決,認定 Google 的作法侵害著作權。從法律上來看, Google 此一計畫是否侵害著作權,確有爭議之處。從美國作者與出版商激烈的反應來看,將來有可能還會有其他的訴訟,甚至集體訴訟 (Class Action) 的產生,其後續效應,值得觀察。

相關連結
※ Google新搜尋服務引發著作權侵權爭議, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=718&no=0&tp=1 (最後瀏覽日:2026/02/17)
引註此篇文章
你可能還會想看
FAA公告禁止無人機於美國主要旅遊景點內飛行

  根據美國國家安全執法機構(US national security and law enforcement agencies)之要求,美國聯邦航空總署(Federal Aviation Administration,以下簡稱FAA)於2017年9月28日,依照聯邦法規(Code of Federal Regulations)第99.7條規定,發布無人機飛行規則,禁止任何人於多個旅遊地點邊界範圍400英尺內飛行無人機。美國聯邦調查局(FBI)局長Christopher Wray表示,「擔心恐怖分子會使用無人機進行攻擊。」   從FAA的公告中,禁止無人機飛行之限航區係由FAA和內政部(Department of the Interior,以下簡稱DOI)共同指定,包括:紐約自由女神像(Statue of Liberty National Monument)、波士頓國家歷史公園(Boston National Historical Park)、費城獨立國家歷史公園(Independence National Historical Park)、加州福爾索姆水壩(Folsom Dam)、亞利桑那州格倫峽谷大壩(Glen Canyon Dam)、華盛頓州大古力大壩(Grand Coulee Dam)、內華達州胡佛水壩(Hoover Dam)、密蘇里州傑弗遜國家擴張紀念公園(Jefferson National Expansion Memorial)、南達科他州拉什莫爾山國家紀念公園(Mount Rushmore National Memorial)、加州沙斯塔壩(Shasta Dam)。以上具體位置皆屬DOI管轄地區,也是FAA第一次將無人機之空域限制規定於DOI地標上,目前FAA仍對軍事基地進行類似空域限制。   限制無人機飛行之規則將於2017年10月5日生效,違反空域限制者,將採取法律行動,包含民事處罰和刑事追訴。只有少數例外情形,允許無人機在限制區內飛行,且必須和個別場所或FAA進行協調。FAA表示,正依聯邦法規第99.7條配合考慮其他聯邦機構對於無人機之其他限制要求。

美國發布《新興科技優先審查架構》 加速政府機構導入AI技術

美國聯邦總務署(General Service Administration)於2024年6月27日發布《新興科技優先審查架構》(Emerging Technologies Prioritization Framework),該架構係為回應拜登總統針對AI安全所提出之第14110號行政命令,而在「聯邦政府風險與授權管理計畫」(Federal Risk and Authorization Management Program,以下簡稱FedRAMP)底下所設置之措施。 一般而言,雲端服務供應商(cloud service providers)若欲將其產品提供予政府單位使用,需依FedRAMP相關規範等候審查。《新興科技優先審查架構》則例外開放,使提供「新興科技」產品之雲端服務供應商得視情況優先審查。 現階段《新興科技優先審查架構》所定義之「新興科技」係為提供下列四種功能的生成式AI技術: 1.聊天介面(chat interface):提供對話式聊天介面的產品。允許用戶輸入提示詞(prompts),然後利用大型語言模型產出內容。 2.程式碼生成與除錯工具(code generation and debugging tools):軟體開發人員用來協助他們開發和除錯軟體的工具。 3.圖片生成(prompt-based image generators):能根據使用者輸入之文字或圖像而產生新圖像或影像的產品。 4.通用應用程式介面(general purpose API):基於API技術將前述三項功能加以整合的產品。 美國政府為挑選最具影響力的產品,要求雲端服務供應商繳交相關資料以利審查,例如公開的模型卡(model card)。模型卡應詳細說明模型的細節、用途、偏見和風險,以及資料、流程和參數等訓練細節。此外,模型卡應包含評估因素、指標和結果,包括所使用的評估基準。 《新興科技優先審查架構》第一波的申請開放至2024年8月31日,且FedRAMP將於9月30日宣布優先名單。這項措施將使生成式AI技術能夠以更快的速度被導入政府服務之中。

日本修正「請求揭露匿名網路霸凌者個人資料」之程序

  網際社群服務的普及,如Face Book、Instagram、Twitter或網路論壇,將人與人之間的社群連結從實體拓展到虛擬,社群網路的蓬勃發展充分展現言論自由,人人皆以匿名方式藏身於社群網路的保護傘下盡情抒發己見,但相對也產生層出不窮的網路霸凌事件。   日本於修正《關於特定電子通訊服務業者損害賠償責任限制及使用者資訊揭示法》(特定電気通信役務提供者の損害賠償責任の制限及び発信者情報の開示に関する法律)前,遭受匿名網路霸凌的被害人若想對加害人提起損害賠償訴訟,須同時對社群網路服務業者及網路服務供應業者聲請禁止刪除資料假處分,被害人承擔巨大的程序成本,卻仍須承擔訴訟程序中,社群網路供應商因系統保存時效屆期而自動刪除加害人IP位置資料之風險。   為了遏止頻繁的網路霸凌事件,日本國會已於2021年4月21日表決通過修正《關於特定電子通訊服務業者損害賠償責任限制及使用者資訊揭示法》,將「請求揭露匿名網路霸凌者個人資料」由原本的假處分及通常訴訟程序修正為非訟程序,被害人僅須向法院提出聲請狀,如法院判斷該聲請可特定網路服務供應業者,被害人即可請求社群網路服務業者及網路服務供應業者提供匿名誹謗者(即加害人)的姓名、地址及網路登錄紀錄。另外,為避免IP位置資訊被刪除的風險,法院可於非訟程序進行中,先命社群網路服務業者禁止刪除該IP位置資訊,大幅推進被害人程序利益之保障。

人權組織向法國最高行政法院提交申訴,要求政府停止使用歧視性演算法

.Pindent{text-indent: 2em;} .Noindent{margin-left: 2em;} .NoPindent{text-indent: 2em; margin-left: 2em;} .No2indent{margin-left: 3em;} .No2Pindent{text-indent: 2em; margin-left: 3em} .No3indent{margin-left: 4em;} .No3Pindent{text-indent: 2em; margin-left: 4em} 國際特赦組織(Amnesty International)與法國數位隱私權倡議團體La Quadrature du Net(LQDN)等組織於2024年10月15日向法國最高行政法院提交申訴,要求停止法國國家家庭津貼基金機構(Caisse nationale des allocations familiales,CNAF)所使用的歧視性風險評分演算法系統。 CNAF自2010年起即慣於使用此系統識別可能進行福利金詐欺的對象,該系統演算法對獲取家庭與住房補助的對象進行0至1之間的風險評分,分數越接近1即越可能被列入清單並受調查,政府當局並宣稱此系統將有助於提升辨識詐欺與錯誤的效率。 LQDN取得該系統的原始碼,並揭露其帶有歧視性質。該等組織說明,CNAF所使用的評分演算法自始即對社會邊緣群體如身心障礙者、單親家長,與低收入、失業、居住於弱勢地區等貧困者表現出懷疑態度,且可能蒐集與系統原先目的不相稱的資訊量,這樣的方向直接違背了人權標準,侵犯平等、非歧視與隱私等權利。 依據歐盟《人工智慧法》(Artificial Intelligence Act,下稱AIA),有兩部分規定: 1. 用於公機關評估自然人是否有資格獲得基本社會福利或服務,以及是否授予、減少、撤銷或收回此類服務的人工智慧系統;以及用於評估自然人信用或建立信用評分的人工智慧系統,應被視為高風險系統。 2. 由公機關或私人對自然人進行社會評分之人工智慧系統可能導致歧視性結果並排除特定群體,從此類人工智慧總結的社會分數可能導致自然人或其群體遭受不當連結或程度不相稱的不利待遇。因此應禁止涉及此類不可接受的評分方式,並可能導致不當結果的人工智慧系統。 然而,AIA並未針對「社會評分系統」明確定義其內涵、組成,因此人權組織同時呼籲,歐盟立法者應針對相關禁令提供具體解釋,惟無論CNAF所使用的系統為何種類型,因其所具有的歧視性,公機關皆應立即停止使用並審視其具有偏見的實務做法。

TOP