CAFC判決未遵守自由授權條款構成著作權侵害

  美國聯邦巡迴上訴法院(CAFC)於2008年8月13日,在Jacobsen v. Katzer一案中,對於未遵守自由軟體授權條款而使用他人著作,作成構成著作權侵害之判決,扭轉地方法院之判決結果。由上訴人Jacobsen經營的JMRI(Java Model Railroad Interface),透過多數參與者集體協作的程式DecoderPro,為開放資源的自由軟體,採取Artistic License模式,供模型火車迷編輯解碼器晶片(decoder chip)的程式以操控模型火車;被告Katzer從 DecoderPro下載了數個定義檔來製作一套市售軟體稱Decoder Commander,卻未遵守該自由授權條款,包括未標示JMRI為原始版本之著作權人、可從何處取得標準版本、及修改後版本與原始版本差異部份之註記等。

 

  Jacobsen認為Katzer的侵害著作行為已造成不可回復之損害,請求法院暫發禁止命令(preliminary injunction)以停止Katzer的違法行為,地方法院認為被告乃違反非專屬授權契約,應依違反契約責任負責,不另構成著作侵權行為,駁回暫發禁止命令的請求。

 

  聯邦巡迴上訴法院認為本案爭點在於「自由軟體授權條款的性質究屬契約內容(covenant)或授權條件(conditions of the copyright license)?」,由於Artistic License之用語為「在符合下列條款之條件下」(provided that the conditions are met )方能重製、修改及散布,以遵守授權條款為取得授權之條件,本案中Katzer未能遵守條款,因而根本未取得授權,其行為屬無權使用而構成侵害著作權,是以命地方法院就暫發禁止命令一事重新審理。在善意換取善意(Creative Common,創用CC)及分享著作的潮流下,支持者譽此結果為自由軟體的一大勝仗。

本文為「經濟部產業技術司科技專案成果」

相關連結
相關附件
※ CAFC判決未遵守自由授權條款構成著作權侵害, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=2881&no=67&tp=1 (最後瀏覽日:2026/02/07)
引註此篇文章
你可能還會想看
韓國公共行政安全部制定《公部門AI倫理原則》草案,以提升民眾對公部門應用AI之信任

2025年11月,韓國公共行政安全部(Ministry of the Interior and Safety,下稱MOIS)於新聞稿宣布制定《公部門AI倫理原則》草案,追求公益、公平無歧視、透明、問責明確、安全性及隱私保護等六大核心價值,旨於促進創新、提升民眾對公部門應用AI之信任。 一、適用範圍 《公部門AI倫理原則》草案適用對象為公部門,包含中央、地方政府機關等,其性質為不具強制力的指引。 二、檢核表分三階段漸進式管理 《公部門AI倫理原則》草案依AI 應用的複雜程度分為三階段漸進式管理,設計最高達90個細項的檢核表(Checklist),惟目前尚未公開詳細內容: (一)第一階段:基礎導入(AI基礎應用) 針對技術引進的初步活用階段,共包含31個檢核項目,旨在建立基礎的倫理合規防線。 (二)第二階段:進階應用(AI決策支援) 適用於AI提供資料分析與建議以輔助人員進行行政決策的情境。隨著影響力提升,檢核項目擴增至74個,強化透明性與責任性的審查。 (三)第三階段:深度融合(AI自主決策) 針對AI具備高度自主決策權的高風險情境(如自主化服務或複雜判斷),執行最嚴密的倫理檢查,共達90個檢核項目。 建議公部門依檢核表自行檢查,並依結果建立「調整與回饋」的循環機制,以因應不斷變化的技術環境。 MOIS部長指出,未來將進一步蒐集學界意見以完備倫理原則,並開發一套AI倫理原則之培訓課程,確保一線能落實執行這90個檢核項目,保障人權與基本權利。 由於目前未見90個檢核項目內容,值得持續追蹤後續進展。 本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。 本文同步刊登於TIPS網站(https://www.tips.org.tw)

歐盟執委會公布《可信賴的AI政策及投資建議》

  歐盟執委會於2018年6月成立人工智慧高級專家組(The High-Level Expert Group on Artificial Intelligence, AI HLEG),主要負責兩項工作:(1)人工智慧倫理準則;(2)人工智慧政策與投資建議。並於2019年4月8日提出《可信賴的人工智慧倫理準則》(Ethics Guidelines for Trustworthy AI),2019年6月公布之《可信賴的AI政策及投資建議》(Policy and Investment Recommendations for Trustworthy Artificial Intelligence)則是人工智慧高級專家組所交付之第二項具體成果。   該報告主要分為兩大部分,首先第一部分是要透過可信賴的人工智慧建立對歐洲之正面影響,內容提及人工智慧應保護人類和社會,並促進歐洲公司各部門利用人工智慧及技術移轉,而公部門則扮演人工智慧增長及創新之催化劑,以確保歐洲具有世界一流之研究能力;第二部分則是影響歐洲各成員國建立可信賴之人工智慧,內容則提及將發展人工智慧相關基礎設施、教育措施、政策規範及資金投資,同時合法、有道德的使用各項數據。   在本報告中關於法規面的建議則是進一步制定政策和監管框架,確保人工智慧在尊重人權、民主及創新下發展,因此將建立人工智慧政策制定者、開發者及用戶間的對話機制,若是遇到將對社會或是人類產生重大影響之敏感性人工智慧系統,除透過歐洲人工智慧聯盟(The European AI Alliance)進行對話之外,也需要在尊重各成員國之語言及文化多樣性下展開協調機制。另外,報告中也特別提到如果政府以「保護社會」為由建立一個普遍的人工智慧監督系統是非常危險的作法,政府應該承諾不對個人進行大規模監視,並在遵守法律及基本權利下進行人工智慧系統之發展。

現有法制對公立大學教授技術作價之現況與困難

複製人類在歐美之法制規範

TOP