瑞典Attunda地方法院關於Hyperlink之侵害著作權判決-

  透過輸入網址或點選超連結(Hyperlink)方式找尋資料,是網路運作基礎之一。而單純以Hyperlink方式另開新視窗呈現其他網頁,由於只是方便快速連結到其他網站或網頁內容,並無涉及重製行為,因此實務上普遍認為並無侵害著作權的問題。然而瑞典Attunda地方法院於2016/10/13,就一則使用Hyperlink方式之案例卻認定有侵害著作權。

  此案例起因於瑞典原告Jonsson在非洲Zambezi河上,拍攝到高空彈跳發生意外之影片,後該影片未得原告同意遭他人上傳至YouTube網站。被告比利時L’Avenir新聞網站報導此事件時,於文中提供Hyperlink(lånkat från hemsidan till YouTube),使讀者能連結到YouTube上之該則影片。本案原告主張並無授權上傳YouTube影片,也無允許被告在其網路報導得以提供Hyperlink連接至YouTube網站影片,以此要求L’Avenir新聞網站負擔侵害其公眾傳輸權之責任。

  瑞典Attunda地方法院引用歐盟法院於2016/09/08GS Media, C-160/15案中關於Hyperlink判決見解,認定若超連結之內容有權利人合法授權,Hyperlink行為固無侵權可言,但若連結之內容未受權利人合法授權時,需先判定行為人是否是以營利為目的;若為肯定,則推定行為人明知其內容違法、Hyperlink行為構成公眾傳輸行為,但行為人可舉證推翻,證明其不知內容違法而未構成侵權。本案由於超連結內容是未經由原告授權,且瑞典Attunda法院認定L’Avenir新聞網站以營利為目的使用Hyperlink,於網站無法證明不知內容非法情況下,因此判定被告構成侵權。

  瑞典法院所引用的歐盟判決引起諸多批評,論者有謂超連結功能是網路運作基礎之一,該判決認為以營利目的使用即應推定對內容違法有明知,不僅「營利目的」此一條件之內涵為何,需待後續更多判決個案方可確定具體內容;而且造成所有線上新聞網站擬使用超連結影片及內容、又無法得知內容是否有被合法授權時,必須承擔更大的侵權風險;因此產生的自我審查,將弱化網路之基本運作功能,且使言論自由及通訊自由受到侵害。

相關連結
你可能會想參加
※ 瑞典Attunda地方法院關於Hyperlink之侵害著作權判決-, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=7679&no=64&tp=1 (最後瀏覽日:2026/03/13)
引註此篇文章
你可能還會想看
比利時法院要求Google移除新聞轉載連結

  儘管類似 Google News 提供新聞連結的作法在網路上屢見不鮮, Google 也認為其行為完全合法,但 比利時布魯塞爾法院於 9 月 5 日 作出的判決,仍要求 Google 在沒有獲得對方允許或支付相應費用的情況下,應 停止從法語報紙上節錄新聞片段,否則將會面臨每天一百萬歐元的罰款。 Google 雖因此暫時移除了相關新聞的轉載連結,卻打算對此判決提起上訴。   該案法官指出, Google 在這些報章媒體網站更新相關新聞後,才在 Google 網站上提供轉載內容,法院認為這不但侵害了作者的著作權,且違反比利時有關資料庫的法律。除了移除轉載連結外,法院也要求 Google 必須在 Google 比利時網站上公布該判決內容,否則另須繳交每日五十萬歐元的罰款。   這起控告 Google 的訴訟是由比利時出版集團 Copiepresse 所提起的,該集團代表比利時境內多家法語及德語報社,亦為一管理比利時法語及德語媒體著作權的專門機構。

美國科羅拉多州通過《人工智慧消費者保護法》

2024年5月17日,科羅拉多州州長簽署了《人工智慧消費者保護法》(Consumer Protections for Artificial Intelligence Act,Colorado AI Act,下簡稱本法),其內容將增訂於《科羅拉多州修訂法規》(Colorado Revised Statutes,簡稱CRS)第6篇第17部分,是美國第一部廣泛對AI規範的法律,將於2026年2月1日生效。 本法旨在解決「高風險人工智慧系統」的演算法歧視(Algorithmic Discrimination)的問題 ,避免消費者權益因為演算法之偏見而受到歧視。是以,本法將高風險AI系統(High-risk Artificial Intelligence System)定義為「部署後作出關鍵決策(Consequential Decision)或在關鍵決策中起到重要作用的任何AI系統」。 而後,本法藉由要求AI系統開發者(Developers)與部署者(Deployers)遵守「透明度原則」與「禁止歧視原則」,來保護消費者免受演算法歧視。規定如下: (一)系統透明度: 1.開發者應向部署者或其他開發者提供該系統訓練所使用的資料、系統限制、預期用途、測試演算法歧視之文件以及其他風險評估文件。 2.部署者應向消費者揭露高風險人工智慧系統的預期用途,也應在高風險人工智慧系統做出決策之前向消費者提供聲明,聲明內容應該包含部署者之聯絡方式、該系統的基本介紹、部署者如何管理該系統可預見之風險等資訊。 (二)禁止歧視: 1.開發者應實施降低演算法歧視之措施,並應協助部署者理解高風險人工智慧系統。此外,開發者也應該持續測試與分析高風險人工智慧系統可能產生之演算法歧視風險。若開發者有意修改該系統,應將更新後的系統資訊更新於開發者網站,並須同步提供給部署者。 2.部署者應該實施風險管理計畫,該風險管理計畫應包含部署者用於識別、紀錄降低演算法歧視風險之措施與負責人員,且風險管理計畫應定期更新。在制定風險管理計畫時,必須參考美國商務部國家標準暨技術研究院(National Institute of Standards and Technology, NIST)的《人工智慧風險管理框架》(AI Risk Management Framework, AI RMF 2.0)與ISO/IEC 42001等風險管理文件。 美國普遍認為科羅拉多州的《人工智慧消費者保護法》為目前針對人工智慧系統最全面之監管法規,可作為其他州有關人工智慧法規的立法參考,美國各州立法情況與作法值得持續關注。

數位證據之刑事證據能力相關議題研究

美國新發布加強軍商二用科技產品管理行動

  美國政府近年來為預備恐怖活動積極部署國家安全相關措施,包括運用出口管理規則(Export Administration Regulations)監控軍商二用技術及產品(dual-use items)之輸出;然而在維護國家安全的同時,美國仍然希望能持續鞏固其經濟及技術領先地位,以及避免全球高科技及市場遭到稀釋。美國總統因此於今(2008)年初,提出一系列有關軍商二用出口管制之行政新措施,欲藉此強化軍商二用出口管制制度(dual-use export control system)。其主要目標如下: (1)適當管制外國終端用戶(Foreign End-Users):美國政策作法是,未來軍商二用出口管制制度將要著重在美國高科技產品外國終端用戶之管理,除了保持其拒絕將敏感性科技輸給武器擴散份子、國際恐怖分子和習慣進行違背美國國家安全及外交政策與利益之國家對象之宗旨外,美國一方面將擴大受管制實體清單(Entity List)對象範圍,嚴格審查曾從事違背美國國家安全和外交政策及利益活動之外國夥伴;另方面,美國則將妥善使用所謂正當使用者計畫(Validated End User(VEU) program),免除這些受信賴之使用對象在輸出產品時受制於嚴格的出口申請程序。例如港商Manufacturing International Corporation(SMIC)最近即被納入VEU初始清單。 (2)增進國家競爭能力:美國將以維持經濟競爭力和創新研發為目標,建立一道檢討受管制軍商二用標的之常規程序,藉此重新評估並適時修正商業控制清單(Commerce Control List)所列產品及對象。 (3)透明化:為求達到資訊公開、共同促進國家安全及競爭之目的,美國商業部還會在網站上公開受到高度審查之外國夥伴清單。   最後,美國行政主管機關亦表示,為了有利於行政機關有效執行國家軍商二用出口管制政策,高度支持透過出口管理法(Export Administration Act)修正之再授權,更新違法之刑罰規定,並提升行政機關之執行權限。

TOP