Google宣告關閉西班牙Google新聞服務

  搜尋引擎巨人Google在西班牙施行新著作權法前關閉該國的Google新聞服務。西班牙將於2015年1月正式施行新著作權法,新法中出版商將可向新聞内容聚合平台業者(news aggregator)徵收授權金,且著作權人不得約定不行使該權利。新法中並未明定新聞内容聚合平台業者如Google新聞與Yahoo新聞應支付的授權金額,但卻規定違反此法令的公司需繳付75萬美金的罰款。

  近年來,歐盟各國如德國、法國相繼推行新著作權法,讓著作權人得向新聞内容聚合平台業者徵收授權金,而Google則透過與出版商約定不行使該權利作爲因應措施。而由於西班牙此次的新法規定著作權人不得約定不行使該權利,導致Google首次因法規而關閉該國的Google新聞服務。

  Google表示此項新法規要求出版商向Google新聞徵收授權金,哪怕它只是一則小小的摘要。Google新聞的總監Richard Gingras表示Google新聞並未含任何廣告亦無實際盈利;相反地,該服務為出版商帶來超過百萬的讀者流量。新法規的施行將增加Google新聞的營運成本,因此才在新法規施行前關閉西班牙版本的Google新聞服務。

  此舉將造成當地網路媒體與出版業者的網路流量損失,爲此西班牙新聞媒體組織 (The Spanish Association of Daily Newspaper Publishers, AEDE)發表聲明希望西班牙政府、歐盟當局及反托拉斯聯盟能介入調解此次Google新聞的關閉事件,以保護人民與企業的權利。

  新法施行在即,究竟Google新聞的關閉會對此次西班牙新著作權法的施行造成何種影響值得後續關注。

相關連結
※ Google宣告關閉西班牙Google新聞服務, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=6712&no=64&tp=1 (最後瀏覽日:2026/02/09)
引註此篇文章
你可能還會想看
美國發布網路事件協調準則

  隨著網路技術的進步,資安事件亦日益加增,為了因應日趨頻繁的網路攻擊,美國總統歐巴馬於2016年7月26日發布了對於美國資安事件發生時聯邦部門間協調之指令(PRESIDENTIAL POLICY DIRECTIVE/PPD-41),該指令不僅提出聯邦政府對於資安事件回應的處理原則,並建立了聯邦政府各部門間對於發生重大資安事件時之協調指引。   指令中就資安事件及重大資安事件進行了定義:資安事件包含資訊系統漏洞、系統安全程序、內部控制、利用電腦漏洞的執行;而重大資安事件則指可能對國家安全利益、外交關係、美國經濟、人民信心、民眾自由或大眾健康與安全發生明顯危害的有關攻擊。 此外,就遭遇資安事件時,列舉出下列幾點作為聯邦政府因應資安事件時之原則:(A)責任分擔;(B)基於風險的回應;(C)尊重受影響者;(D)政府力量之聯合;(E)促進重建及恢復。   聯邦政府機關於因應資安事件時,需同時在威脅、資產及情報支援三方面上做相關之因應。其中司法部透過轄下聯邦調查局(Federal Bureau of Investigation, FBI)、國家網路調查聯合行動小組(National Cyber Investigative Joint Task Force, NCIJTF)負責威脅之回應;國土安全部(Department of Homeland Security, DHS)則透過轄下的國家網路安全與通訊整合中心(National Cybersecurity and Communications Integration Center, NCCIC)負責保護資產之部分,而情報支援部分,則由國家情報總監辦公室(Office of the Director of National Intelligence)下之網路威脅情報整合中心(Cyber Threat Intelligence Integration Center)負責相關事宜。如係政府機關本身遭受影響,則機關應處理該資安事件對其業務運作、客戶及員工之影響。另在遭遇重大資安事件時,為使聯邦政府能有效率因應,指令指出聯邦政府應就國家政策、全國業務及機關間為協調。此外,指令中亦指示國土安全部及司法部應建立當個人或組織遭遇資安事件時得以聯繫相關聯邦機關之管道。   該指令加強了現有政策的執行,並就美國機構組織上於資安事件與現行政策之互動做了進一步之解釋。

歐盟修正重型車輛碳排放規定,擴大適用範圍並提高減排目標

歐盟於2024年4月26日通過重型車輛二氧化碳排放性能標準(Regulation (EU)2019/1242)修正案,加速交通運輸部門的脫碳進程,以實現2050年淨零排放目標。修法重點如下: (1)擴大適用範圍:除了現有的卡車外,亦納入市區公車、長途巴士(7.5噸以上)、拖車等車型,如垃圾車等特種車輛也將從2035年起納入管制。而歐盟執委會將於2027年評估是否將5噸以下小型貨車也納入規範。 (2)明確減排目標:要重型車輛的二氧化碳排放量在2030年、2035年和2040年分別較2019年減少45%、65%和90%。求2030年起,90%的新售市區公車必須為零排放車輛,並在2035年達到100%零排放。 (3)技術中立原則:允許製造商選擇電動化、氫燃料電池或氫內燃機等不同技術路線來達成減排目標。 (4)豁免及彈性條款:針對礦業、林業和農業用車,以及軍用、緊急救災和醫療用途車輛等特殊用途車輛,或年產量低於100輛的小型製造商,新法將不強制納管。且為確保產業公正轉型,歐盟也提供相關培訓和資金援助,協助產業轉型和勞工技能提升。 歐盟執委會將於2027年評估這項規範的實施成效,並考慮納入更多車型、制定全生命週期碳排放計算方法,以及評估可再生燃料在交通運輸部門脫碳進程中的作用。

歐盟預計修法促進新穎性食品發展

  歐盟為了要加速新穎性食品之上市、促進食品科技之發展,並加強複製動物乳肉品、奈米食品或外來等新穎性食品之上市查驗,今(2008)年初歐盟執委會(Commission)即針對1997年新穎性食品規則(Regulation (EC) No 258/97 concerning novel foods and novel food ingredients)提出修正建議案,而現行規則最大爭議,則在於其未能涵蓋1997年以後才研發出的食品以及在歐盟未大量食用但在國外已廣泛食用等兩類食品。   新規則草案的修正重點,將放在:(1)排除已受其他專門法規管轄之食品,包含生技產品(即基因改造食品、GMO)、食品添加物、調味料、酵素、維他命與礦物質(類似我國健康食品、保健食品)等。(2)建立單一、簡化的中央查驗制度(centralised authorisation system),由歐盟食品安全署(EFSA)進行安全評估後由執委會發布許可。(3)明定適用範圍包含運用非傳統育種技術所得之植物來源食品(food of plant or animal origin when to the plant and animal is applied a non-traditional breeding technique not used before 15 May 1997),亦即含複製動物食品,以及運用新生產製程所得之食品(food to which is applied a new production process, not used before 15 May 1997),即涵蓋運用奈米科技所製造奈米食品。此外,新規則亦提供研發新科學證據及資料並申請獲准的公司,享有5年的資料專屬保護(data protection,即data exclusivity),用以促食品及食品生產技術之研發。

英國發布人工智慧網路資安實務守則

英國政府於2025年1月31日發布「人工智慧網路資安實務守則」(Code of Practice for the Cyber Security of AI,以下簡稱「實務守則」),目的是提供人工智慧(AI)系統的網路資安指引。該實務守則為英國參考國際上主要標準、規範後所訂定之自願性指引,以期降低人工智慧所面臨的網路資安風險,並促使人工智慧系統開發者與供應商落實基本的資安措施,以確保人工智慧系統的安性和可靠性。 由於人工智慧系統在功能與運作模式上與傳統網路架構及軟體有明顯的不同,因此產生新的資安風險,主要包含以下: 1. 資料投毒(Data Poisoning):在AI系統的訓練資料中蓄意加入有害或錯誤的資料,影響模型訓練結果,導致人工智慧系統產出錯誤推論或決策。 2. 模型混淆(Model Obfuscation):攻擊者有意識地隱藏或掩飾AI模型的內部運作特徵與行為,以增加系統漏洞、引發混亂或防礙資安管理,可能導致AI系統的安全性與穩定性受損。 3. 輸入間接指令(Indirect Prompt Injection):藉由輸入經精心設計的指令,使人工智慧系統的產出未預期、錯誤或是有害的結果。 為了提升實務守則可操作性,實務守則涵蓋了人工智慧生命週期的各階段,並針對相關角色提出指導。角色界定如下: 1. 人工智慧系統開發者(Developers):負責設計和建立人工智慧系統的個人或組織。 2. 人工智慧系統供應鏈(Supply chain):涵蓋人工智慧系統開發、部署、營運過程中的的所有相關個人和組織。 實務守則希望上述角色能夠參考以下資安原則,以確保人工智慧系統的安全性與可靠性: 1. 風險評估(Risk Assessment):識別、分析和減輕人工智慧系統安全性或功能的潛在威脅的過程。 2. 資料管理(Data management):確保AI系統整個資料生命週期中的資料安全及有效利用,並採取完善管理措施。 3. 模型安全(Model Security):在模型訓練、部署和使用階段,均應符合當時的技術安全標準。 4. 供應鏈安全(Supply chain security):確保AI系統供應鏈中所有利益相關方落實適當的安全措施。 「人工智慧網路資安實務守則」藉由清晰且全面的指導方針,期望各角色能有效落實AI系統安全管控,促進人工智慧技術在網路環境中的安全性與穩健發展。

TOP