歐洲新著作權指令 將影響互聯網環境下之著作使用

  2018年9月12日,歐洲議會通過歐盟委員會於2016年制定的「單一數位市場著作權指令」,其中包含最具爭議的兩項條款:

  第11條是有關「鏈接稅」(link tax)的條款。針對使用或匯集新聞文章片段的網站,未來恐需向源頭出版之新聞業者支付授權費用。例如若Twitter推文中包含來自Guardian文章的螢幕或文字摘要截取,則Guardian可以要求Twitter支付授權費用。

  第13條則是有關「上傳過濾器」(upload filter)或稱「Memes禁令」(meme ban)的條款。為加重網路平台服務業者防止上傳者侵害著作權的監控責任,要求如Google和Facebook等業者,須使用強制內容過濾的軟體以清除違規行為,且須建立快速刪除機制,避免侵害著作權。

  該指令在歐洲議會通過後,將進入歐盟委員會、歐盟理事會和歐洲議會之間的非正式談判。這三個組織將決定最終版本,約2018年12月提交給歐盟法律事務委員會,最後於2019年1月再回到歐洲議會進行投票。

  歐盟指令本身雖不是法律,如何解釋立法也將取決於各國,惟透過本次歐洲議會的結果,可預見未來在歐洲市場,對於著作權人的保護與使用者的行為,將朝權利衡平的方向作調整。

相關連結
你可能會想參加
※ 歐洲新著作權指令 將影響互聯網環境下之著作使用, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8129&no=64&tp=1 (最後瀏覽日:2025/12/01)
引註此篇文章
你可能還會想看
美國賓州眾議院通過《人工智慧生成內容揭露法》

美國賓州(Pennsylvania)眾議院於2024年4月10日通過《人工智慧生成內容的揭露法草案》(House Bill 1598 Disclosure of Artificially Intelligent Generated Content,下稱草案),規範AI生成內容及其利用行為以保護消費者。 草案規定,以AI生成之各種形式內容,在其首次呈現給消費者時應揭露資訊,使消費者知道該內容為AI生成之結果。如果明知或重大過失(Knowingly or recklessly)產出、散布或發布任何未「明確且顯著」(clear and conspicuous)揭露其內容為AI所生成者,即屬「不公平或欺騙性行為或做法」,將被依賓州《不公平貿易行為與消費者保護法》(Unfair Trade Practices And Consumer Protection Law)規定處罰。草案亦說明應如何揭露資訊,方符合條文所謂「明確且顯著」標準,例如針對AI生成之音訊內容,其揭露應以足夠的音量和節奏傳達,以便消費者聽取和理解。 此外,草案也關注兒童保護問題。鑑於AI生成的兒童性剝削圖像通報日益增加,草案最後新增規定,未來不能將「兒童性剝削圖像為AI生成」作為辯護理由,且檢察總長或地區檢察官可起訴製造、持有以及傳播AI生成之兒童色情或性虐待素材等相關行為。 目前草案已在州眾議院通過,由州參議院審議中。草案的提案議員強調,人們有權知道其消費的內容實際上是使用AI產出的成果,因此草案通過後,可望有效遏阻濫用AI的行為,提供賓州民眾更多的保障。

ECtHR就國會發言揭露個資是否構成隱私權侵害作成判決,強調應尊重國家之裁量

歐洲人權法院(European Court of Human Rights,簡稱ECtHR)於2025年4月8日就Green v. The UK案作成判決,針對國會議員發言揭露個資是否構成隱私權侵害之爭議,強調國家就衡平立法權與司法權的界線、言論自由與隱私保護等利益享有裁量權,駁回了申訴人之請求。 一、事實背景 本案起源於英國每日電訊報(Telegraph)試圖就英國零售集團Arcadia的前員工針對其董事長Philip Green的職場性騷擾與霸凌指控進行報導。先前,Arcadia及Green已與涉及相關糾紛的員工達成了和解協議,依據協議所附保密協定,員工除正當揭露(如向警察揭露犯罪)外不得洩露相關資訊。Green於Telegraph於報導前徵求當事人評論時發現資訊遭洩露,隨即向法院申請禁制令與暫時禁制令,英國上訴法院嗣後批准了暫時禁制令,認定Telegraph獲得的資訊很可能來自違反保密協定的揭露,也不認為欲報導的內容當然具備凌駕當事人可能蒙受之損害的公共利益。Telegraph最終尊重了暫時禁制令。惟隔日,一位英國上議院議員援引言論免責權,於議會發表了雖不涉及細節,但具體提及Green身分和關於其性騷擾、霸凌的指控,並提及Telegraph遭禁制報導一事。Green因此向議會申訴,認為議員違反了司法保密規則(sub judice rule)(編按:上議院曾做成決議,認除非具全國重要性,議員不得於動議、辯論或質問中論及繫屬於法院中的個案)及濫用免責權,但上議院標準專員(House of Lords Commissioner for Standards)認為司法保密規則不屬於《上議院行為準則》。Green嗣後在法院中試圖向Telegraph請求賠償,認為Telegraph應要為議員的發言負責,違反了禁制令,並要求提供線人身分。Telegraph抗辯,在議員享有免責權的前提下,法院毋庸受理本案處理其責任問題。Green向ECtHR提出申訴,主張國家對議員使用免責權揭露受禁制令約束的資訊的權力缺乏事前和事後控制,侵犯了其受歐洲人權公約(ECHR)第8條保障的私生活權。 二、法院判斷 法院認為由於受暫時禁制令保護的資訊被揭露,Green的私生活權利確實受到干預。然而,法院不認為國家違反了公約課予國家保護私生活權之積極義務(positive obligation)。核心理由在於:國家對如何履行積極義務有廣泛的裁量權,且於各國就保護方式較無共識,或涉及基本權利間之衡平時,法院尤應尊重裁量空間。 針對本案,法院認為:(1)議會中的言論自由享有較高程度的保護,對其干涉需要非常重大的理由(very weighty reasons);(2)涉及司法權與立法權的具體界線,以及言論自由與隱私保護的利益衡量;(3)必須考量議會自治原則在多國之間有廣泛共識;(4)英國並非完全沒有針對國會議員發言的事前、事後控制措施。儘管非屬《上議院行為準則》,但上議院所做成的司法保密規則決議,仍屬一定程度的事前控制。事後來看,國會議員若確實構成濫用免責權,法院也可以判處蔑視法庭罪。 法院總結認為,基於原則上各國議會較國際法院,更適合評估限制議會行為之必要性與手段,法院要取代這個判斷須要非常重大的理由,但本案中Green並無法成功論述這個理由存在,因此駁回Green的主張。

法國擬針對智慧型手機、平板電腦課徵文化稅

  為了替法國藝術、電影和音樂等文化產業籌措資金,法國政府委託電視頻道集團Canal Plus前任執行長Pierre Lescure進行研究。報告最終建議,法國應針對Apple Inc.的iPhone、iPad及Google Android產品等智慧型手機、平板電腦課徵銷售稅。   報告指出,目前電視頻道、廣播、網路商等,皆已負擔一定費用,以協助文化產業發展,故智慧型手機、平板電腦此類重要媒介亦應採取類似措施。不過為了避免對市場造成過大衝擊,此銷售稅須維持在「極低水準」,預計稅率將落在1%左右,並可望為法國政府每年帶來約8,600萬歐元的稅收。   此舉被認為與法國長期採取的「文化例外(Cultural Exception)」政策立場有關。「文化多樣性」被認為是人類文明發展應遵循的共同價值,為了達成此目標,法國政府進一步認為在經濟層面上,政府基於保護自身文化產業,得在貿易談判中,將文化產業排除於自由貿易架構之外給予優惠,即所謂的「文化例外」。就目前而言,智慧型手機、平板電腦等硬體,在整體文化內容市場中,被認為佔有過大利潤,已壓縮文化產業發展空間,故必須採取適當措施,以衡平市場發展。   此項建議,預計將於今(2013)年7月間,由法國總統François Hollande決定是否正式進入立法程序。

英國發布人工智慧網路資安實務守則

英國政府於2025年1月31日發布「人工智慧網路資安實務守則」(Code of Practice for the Cyber Security of AI,以下簡稱「實務守則」),目的是提供人工智慧(AI)系統的網路資安指引。該實務守則為英國參考國際上主要標準、規範後所訂定之自願性指引,以期降低人工智慧所面臨的網路資安風險,並促使人工智慧系統開發者與供應商落實基本的資安措施,以確保人工智慧系統的安性和可靠性。 由於人工智慧系統在功能與運作模式上與傳統網路架構及軟體有明顯的不同,因此產生新的資安風險,主要包含以下: 1. 資料投毒(Data Poisoning):在AI系統的訓練資料中蓄意加入有害或錯誤的資料,影響模型訓練結果,導致人工智慧系統產出錯誤推論或決策。 2. 模型混淆(Model Obfuscation):攻擊者有意識地隱藏或掩飾AI模型的內部運作特徵與行為,以增加系統漏洞、引發混亂或防礙資安管理,可能導致AI系統的安全性與穩定性受損。 3. 輸入間接指令(Indirect Prompt Injection):藉由輸入經精心設計的指令,使人工智慧系統的產出未預期、錯誤或是有害的結果。 為了提升實務守則可操作性,實務守則涵蓋了人工智慧生命週期的各階段,並針對相關角色提出指導。角色界定如下: 1. 人工智慧系統開發者(Developers):負責設計和建立人工智慧系統的個人或組織。 2. 人工智慧系統供應鏈(Supply chain):涵蓋人工智慧系統開發、部署、營運過程中的的所有相關個人和組織。 實務守則希望上述角色能夠參考以下資安原則,以確保人工智慧系統的安全性與可靠性: 1. 風險評估(Risk Assessment):識別、分析和減輕人工智慧系統安全性或功能的潛在威脅的過程。 2. 資料管理(Data management):確保AI系統整個資料生命週期中的資料安全及有效利用,並採取完善管理措施。 3. 模型安全(Model Security):在模型訓練、部署和使用階段,均應符合當時的技術安全標準。 4. 供應鏈安全(Supply chain security):確保AI系統供應鏈中所有利益相關方落實適當的安全措施。 「人工智慧網路資安實務守則」藉由清晰且全面的指導方針,期望各角色能有效落實AI系統安全管控,促進人工智慧技術在網路環境中的安全性與穩健發展。

TOP