Google新搜尋服務引發著作權侵權爭議

  網路搜尋引擎的巨人 Google ,近來有一項計畫,即對圖書館中的書籍做掃瞄,然後讓使用者透過網際網路搜尋書籍的內容。由於 Google 計畫掃瞄供搜尋的書籍中,包括許多目前仍受到著作權保護的著作,因此 Google 此舉,是否造成對書籍著作權的侵害,便引發了相當的爭議。


  在近日的一個討論會中,學者、作者與出版商群聚一堂,就 Google 此一計畫的合法性進行討論,並就是否對 Google 進一步提出訴訟做討論。 Google 宣稱,此一計畫是人類知識發展的一大進步,把人類的觀念與想法,做有系統的歸類整理,並讓大眾更容易接近與使用,對於人類知識的傳播與進步,有重大貢獻。


  然而,作者與出版商方面,則認為
Google 此舉侵害的作者與出版商的著作權。就此,作者與出版商已做出回應。先前,美國出版商協會 (The Association of American Publishers, AAP) 已於 10 19 日對 Google 提起訴訟,希望經由法律的判決,認定 Google 的作法侵害著作權。從法律上來看, Google 此一計畫是否侵害著作權,確有爭議之處。從美國作者與出版商激烈的反應來看,將來有可能還會有其他的訴訟,甚至集體訴訟 (Class Action) 的產生,其後續效應,值得觀察。

相關連結
※ Google新搜尋服務引發著作權侵權爭議, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=718&no=64&tp=1 (最後瀏覽日:2026/02/13)
引註此篇文章
你可能還會想看
數位模擬分身(Digital Twin)

  數位模擬分身(Digital Twin)係指將實體設備或系統資訊轉為數位資訊,使資訊科學或IT專家可藉此在建立或配置實際設備前進行模擬,從而深入了解目標效能或潛在問題。   於實際運用上,數位模擬分身除可用於實體設備製造前,先行針對產品進行測試,以減少產品缺陷並縮短產品上市時間外,亦可用於產品維護,例如在以某種方式修復物品前,先利用數位模擬分身測試修復效果。此外,數位模擬分身還可用於自駕車及協助落實《一般資料保護規範》(General Data Protection Regulation, 以下簡稱GDPR)規定。在自駕車方面,數位模擬分身可通過雲端運算(cloud computing)和邊緣運算(edge computing)連接,由數位模擬分身分析於雲端運算中涉及自駕系統操作之資訊,包括全部駕駛週期內之資料,如車輛模型在內之製造資料(manufacturing data)、駕駛習慣及偏好等個人隱私資料、感測器所蒐集之環境資料等,協助自駕系統做出決策;在GDPR方面,數位模擬分身可利用以下5大步驟,建立GDPR法規遵循機制以強化隱私保護:1.識別利害關係人與資產,包括外部服務和知識庫;2.漏洞檢測;3.透過虛擬數值替代隱私資料進行個資去識別化;4.解釋結果資料;5.利用資料匿名化以最大限度降低隱私風險,並防止受試者之隱私洩露。

澳洲發布《人工智慧臨床應用指引》提供臨床照護之人工智慧使用合規框架

澳洲醫療安全與品質委員會(Australian Commission on Safety and Quality in Health Care, ACSQHC)與衛生、身心障礙及高齡照護部(Department of Health, Disability and Ageing)聯合於2025年8月發布《人工智慧臨床應用指引》(AI Clinical Use Guide),旨在協助醫療人員於臨床情境中安全、負責任使用人工智慧(Artificial Intelligence, AI)。該文件回應近年生成式AI與機器學習快速導入醫療現場,卻伴隨證據不足、風險升高的治理挑戰,試圖在促進創新與確保病人安全之間建立清楚的合規框架。 該指引以臨床流程為核心,將AI使用區分為「使用前、使用中、使用後」三個階段,強調醫療人員須理解AI工具的預期用途、證據基礎與風險限制,並對所有AI產出負最終專業責任。文件特別指出,當AI工具用於診斷、治療、預測或臨床決策支持時,可能構成醫療器材,須符合澳洲醫療用品管理管理局(Therapeutic Goods Administration, TGA)的相關法規要求。 在風險治理方面,該指引明確區分規則式AI、機器學習與生成式AI,指出後兩者因輸出不確定性、資料偏誤與自動化偏誤風險較高,臨床人員不得過度依賴系統建議,仍須以專業判斷為核心。同時,文件要求醫療機構建立AI治理與監督機制,持續監測效能、偏誤與病安事件,並於必要時通報TGA或隱私主管機關。 在病人權益與隱私保護方面,指引強調知情同意與透明揭露,醫療人員須向病人說明AI使用目的、潛在風險及替代方案,並遵循《1998年隱私法》(Privacy Act 1988)對個人健康資料儲存與跨境處理的限制。澳洲此次發布之臨床AI指引,展現以臨床責任為核心、結合法規遵循與風險管理的治理取向,為各國醫療體系導入AI提供具體且可操作的合規參考。 表1 人工智慧臨床應用指引合規流程 使用前 使用中 使用後 1.界定用途與風險。 2.檢視證據與合規。 3.完備治理與告知。 1.AI輔助決策。 2.即時審查修正。 3.維持溝通透明。 1.持續監測效能。 2.標示可追溯性。 3.通報與再評估。 資料來源:AUSTRALIAN COMMISSION ON SAFETY AND QUALITY IN HEALTH CARE [ACSQHC], AI Clinical Use Guide (2025).

德國公佈聯邦政府人工智慧戰略要點

  德國政府於2018年7月18公佈「聯邦政府人工智慧戰略要點」(Key points for a Federal Government Strategy on Artificial Intelligence),係由德國聯邦經濟事務及能源部、聯邦教育及研究部,與聯邦勞動及社會事務部共同撰寫而成。 德國政府表示該要點將作為推動人工智慧技術與產業發展的基礎方針,並希望以負責任的方式以及朝向社會利益發展的方向進行人工智慧開發與應用。   德國人工智慧戰略要點摘要如下: 1. 研究能量:必須大幅增加研究支出並且爭取世界一流人才。 2. 人工智慧能力應泛分佈在社會各處:各學科與產業領域皆需要人工智慧。 3. 資料作為人工智慧發展的基礎:資料是人工智慧發展的重要關鍵,德國的資料發展重點將放在資料品質的強化。 4. 基礎設施:人工智慧中重要的技術「深度學習」,不僅需要大量資料,同時還需要強大的計算能力,德國需要加強計算能力的硬體設備。 5. 經濟應用:德國數位化發展的下一步需要仰賴人工智慧技術,尤其是中小企業採納人工智慧技術方面將會是焦點之一。 6. 社會法制:人工智慧發展過程中牽涉許多道德以及法制、監管議題,德國政府認為這些都必須請不同利害關係人共同公開討論。 7. 國際合作:德國作為歐盟會員國之一,未來的人工智慧發展將力求與歐盟各國合作。   整體而言,德國的人工智慧戰略著重在建立人工智慧生態系統,並強調人與機器之間的合作關係,為人工智慧產業發展奠定良好基礎。德國政府將基於此要點繼續制定進一步的人工智慧戰略,並預計將於2018年12月公佈德國的人工智慧戰略完整報告。

政府資訊加值利用與管理法制研究:以美國及英國為例

TOP