爭議多時的日本P2P軟體Winny開發者,獲無罪判決確定

  日本著名的P2P(Peer to Peer)檔案共享軟體Winny因有侵害著作權法之公開傳輸權之爭議,兩名利用該軟體的使用者於2003年11月被日本群馬地檢起訴。隔年5月Winny軟體開發者「金子勇」因涉嫌構成幫助犯,被京都地檢起訴。全案歷經2006年京都地裁一審之有罪判決、2009年大阪高裁二審判決逆轉無罪、而檢方再上訴日本最高裁判所等程序。檢方於日前撤回上訴,並於2011年12月20日經最高裁判所裁定維持大阪高裁無罪判決,全案定讞。

 

  大阪高裁認為,軟體的開發者未必能認識使用者會將軟體使用在非法目的上,難謂構成幫助之行為,因此,開發者本身對軟體的非法使用並不需要負責。不法行的情形應該是軟體開發者去鼓勵使用者利用軟體進行非法行為。

 

  金子勇在20日召開記者會表示,網路上下載未經授權著作的問題還很多,將竭力解決相關問題,對自己之前開發的軟體而引起之相關侵權訴訟感到遺憾,並呼籲使用者誤濫用Winny,以實現更好的資訊社會。

 

  而日本「電腦軟體著作權協會」(the Association of Copyright for Computer Software)向來致力於著作權之保護工作,協會對此結果表示並不否定P2P技術本身的價值中立性,但是將來會與相關著作權保護團體攜手合作,對於類似Winny的共享軟體之非法侵害,持續推動應對之策,並運用各種手段實現著作權受保護之健全環境。

相關連結
※ 爭議多時的日本P2P軟體Winny開發者,獲無罪判決確定, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=5602&no=55&tp=1 (最後瀏覽日:2026/03/30)
引註此篇文章
你可能還會想看
歐盟法院關於瑞典海盜灣線上分享平台(The Pirate Bay)之侵害著作權判決-

  歐盟法院(以下簡稱CJEU)於2017/07/14在Stichting Brein v Ziggo案中做出決定,認定瑞典海盜灣線上分享平台(The Pirate Bay,以下簡稱TPB)使用BitTorrent分享軟體涉及侵害公開傳輸權。 案例事實如下:   Ziggo等網路服務供應業者(以下簡稱:ISP)之眾多用戶,在未得權利人同意之情況下,使用TPB平台經由BitTorrent軟體分享及下載存於用戶電腦之作品檔案。荷蘭著作權團體Stichting Brein向荷蘭法院聲請對該等ISP業者發出禁制令,令其阻斷TPB之IP網址及網域名。本案由荷蘭最高法院向CJEU提出判決先訴問題,確認在歐盟著作權指令第3(1)條下, TPB等網站管理者於其平台上雖不提供作品檔案,但使用前述分享軟體使網站使用者得搜尋並下載受著作權保護之作品,是否構成對公眾傳輸行為? CJEU之認定如下:   任何讓用戶得接近利用受保護之著作物,即構成歐盟著作權指令第3(1)條稱之傳輸行為。在本案中著作物是經由TPB,使平台使用者能於任何時間及地點接近利用著作物,雖著作物檔案是由其他使用者而非平台業者提供,但平台業者在使作品被接近利用上扮演者關鍵角色,例如將檔案作品分類、消除過時及有錯誤檔案等使作品檔案容易被定位及下載。   CJEU又指出, TPB已被告知其平台提供未經授權之著作物檔案,仍鼓勵使用者於平台上下載違法檔案,並經由廣告賺取可觀營收,故TPB不能主張其無從得知行為之違法性。因此CJEU認定TPB協助違法接近利用及分享著作物之線上平台,是足以構成著作權之侵害。

強化政府橫向協調,提升AI治理—澳洲擬於2026年初設立AI安全研究所

澳洲政府於2025年11月25日宣布,將於2026年初設立AI安全研究所(AI Safety Institute)。澳洲AI安全研究所的設立目標,為提供相關的專業能力,以監管、測試與共享AI在技術、風險、危害層面的資訊。經由辨識潛在的風險,提供澳洲政府與人民必要的保護。AI安全研究所將以既有之法律與監管框架為基礎,因應AI風險,協助政府各部門調整相關規範。其主要業務如下: .協助政府掌握AI技術的發展趨勢,動態應對新興的風險與危害; .強化政府對先進AI技術發展及潛在影響的理解; .共享AI資訊與作為協調政府各部門的樞紐; .經由國家AI中心(National AI Centre,NAIC)等管道,提供事業、政府、公眾與AI相關的機會、風險和安全的指導; .協助澳洲履行國際AI安全協議的承諾。 AI安全研究所並為2025年12月2日,工業、科學與資源部(Department of Industry, Science and Resources)發布的國家AI計畫(National AI Plan,下稱澳洲AI計畫)中,保障應用AI安全性的關鍵項目。澳洲AI計畫指出,AI安全研究所將關注AI的上游風險(upstream AI risks),與下游危害(downstream AI harms)。所稱之上游風險,係指AI模型和系統的建構、訓練方式,與AI本身的能力,可能產生的疑慮。下游危害,則係指使用AI系統時,可能的實質影響。 AI安全研究所將支援與國際、政府各部門間之合作;並共享新興的AI技術能力,以及對AI上游風險的見解,發布安全研究成果,提供產業與學術界參考。AI安全研究所監測、分析與共享資訊,提出政府各部門,對AI下游危害,可採取的一致性應對建議。 綜上所述,澳洲政府提出國家AI計畫,於既有的法制體系,滾動調整相關規範,以應對AI風險。並成立AI安全研究所,追蹤國際AI發展脈動,及時提供澳洲政府應對建議,協調各部門採取一致性的行動。澳洲政府對新興AI技術,所採取策略的具體成效,仍有待觀察。 本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。 本文同步刊登於TIPS網站(https://www.tips.org.tw)

標準制定組織成員之專利揭露義務

  標準制定組織為了提高產業競爭,防止標準制定組織之會員們,在獲得涵蓋產業標準的專利權後,以壟斷性手段壓迫其他競爭對手,故通常會以智慧財產權政策要求參加的會員揭露其被標準制定組織選擇寫入標準的專利。其重要內容通常包括:   1. 必要專利揭露 許多標準制定組織皆有規定,標準必要專利權人應依以誠實信用及適當方式進行揭露之義務,例如IEEE及ETSI 。即對於討論中的技術標準,必須對標準制定組織及其參與者公開揭露所持有的必要專利。揭露的基本目的主要有三項 :   (1) 使標準開發相關工作小組會員可以掌握納入標準之多項候選技術的基本資訊(例如專利技術價值、成本及可行性等等),並做出適當選擇。   (2) 藉此得知須提出授權聲明或承諾的必要專利權人。   (3) 藉此讓必要專利的潛在實施者得知應向那些必要專利權人獲取必要專利相關資訊。   2. 事前揭露授權條款(ex-ante disclosure of licensing terms)   事前揭露授權條款係一種受保護之技術在被採納為標準必要專利前,將授權條件的揭露的機制,目前IEEE及ETSI採行自願性揭露方式。與必要智財權的揭露及授權聲明不同,其主要的目的在於讓標準制定委員會將技術採納為標準前,可以根據所揭露的授權條件來決定有那些技術在符合權利人授權條件下,有哪些技術可以納入標準,又有哪些不同替代技術,並據以作成決定 。

網路拍賣之法制趨勢

TOP