「達文希密碼」的著作權爭議

  「聖血及聖杯」作者邁可貝奇及理查李伊於今年二月在英國高等法院對暢銷書「達文西密碼」出版商「藍燈書屋」(Random House)提出訴訟,主張「達」書作者丹布朗抄襲「聖」書中的若干想法(ideas)及主題(themes),包括其研究多年的「耶穌血脈理論」,因而侵害其著作權。


  被告律師對於原告所提之控訴表示,「聖」書中的若干創意在本質上具備高度普遍化特質,無法成為著作權保護之客體。而原告律師亦強調,本案爭論重點並不在於「忽視他人創意成果」或是「獨佔想法或歷史事件」,主要是證明「達」書作者大量依賴「聖」書內容而完成「達」書。原告希望取得禁止令禁止「達」書使用「聖」書資料,此舉將迫使原訂今年
5月中旬由湯姆漢克主演之原著電影延後上映。


  著作權法之核心精神是保護「表達」,而非「想法」。對於同一題材之文學作品要區分何者屬表達,何者屬想法,並非易事。本案的出現僅是再次印證理論與實務之差距,而本案之後續發展亦值得繼續關注。

相關連結
※ 「達文希密碼」的著作權爭議, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=722&no=0&tp=1 (最後瀏覽日:2026/03/27)
引註此篇文章
你可能還會想看
預付型商品之規範-以日本法為借鏡

溫室氣體減量法草案出爐 新廠成本支出大增

  京都議定書已於二月正式生效,本年底將開始討論新興國家的管制措施,環保署預期,台灣最快將在二 ○ 一二年後,與其他新興工業國家並列為下一波管制對象。為了因應京都議定書未來的要求,我國已完成溫室氣體減量法的立法草案。未來政府將啟動總量管制的強制措施,明定溫室氣體總量管制等多項強制規範;並賦予經濟部可依法禁止或限制高耗能產業設置,或限制高碳類燃料輸入。惟未來新設工廠排放量必須列為企業總量管制的應削減量,雖然允許企業可與其他部門或不同產業類別交易排放量,但因成本支出大增,企業界認為影響投資意願而反彈聲浪甚大。   根據這項法案,一定規模以上的溫室氣體排放源,應採用最佳防制設施,新增溫室氣體排放量須列為實施總量管制後的「應削減量」,並作為環境影響評估審查通過承諾事項。也就是說,石化、鋼鐵等高耗能產業新設廠房、生產線時,依法必須使用高效能技術或設備,因而產生的溫室氣體量,亦必須在企業總排放量內進行削減。   惟這項規定,產業界認為向市場或向能源服務公司購買排放權,對新設工廠將大幅增加成本支出,影響投資意願,在環保署內審議時反彈聲浪甚大。由於產業界反彈甚大,環保署不但延後送出法案審議,同時考慮明定以「基限年」作為新設工廠是否須先在企業總量管制內削減,而基限年則視國際對新興國家管制動作而定。   法案並規定當國際規範我國溫室氣體應削減量時,啟動總量管制措施,企業必須依法削減既存的排放量,企業可與其他住宅或運輸部門交易,也可在同一產業類別或跨產業類別進行抵換或交易。如果總量管制仍無法達到減量目標時,將進一步實施碳稅新制。

德國資料保護會議通過「哈姆巴爾宣言」,針對人工智慧之運用提出七大個資保護要求

  德國聯邦及各邦獨立資料保護監督機關(unabhängige Datenschutzaufsichtsbehörden)共同於2019年4月3日,召開第97屆資料保護會議通過哈姆巴爾宣言(Hambacher Erklärung,以下簡稱「Hambacher宣言」)。該宣言指出人工智慧雖然為人類帶來福祉,但同時對法律秩序內自由及民主體制造成巨大的威脅,特別是人工智慧系統可以透過自主學習不斷蒐集、處理與利用大量個人資料,並且透過自動化的演算系統,干預個人的權利與自由。   諸如人工智慧系統被運用於判讀應徵者履歷,其篩選結果給予女性較不利的評價時,則暴露出人工智慧處理大量資料時所產生的性別歧視,且該歧視結果無法藉由修正資料予以去除,否則將無法呈現原始資料之真實性。由於保護人民基本權利屬於國家之重要任務,國家有義務使人工智慧的發展與應用,符合民主法治國之制度框架。Hambacher宣言認為透過人工智慧系統運用個人資料時,應符合歐盟一般資料保護規則(The General Data Protection Regulation,以下簡稱GDPR)第5條個人資料蒐集、處理與利用之原則,並基於該原則針對人工智慧提出以下七點個資保護之要求: (1)人工智慧不應使個人成為客體:依據德國基本法第1條第1項人性尊嚴之保障,資料主體得不受自動化利用後所做成,具有法律效果或類似重大不利影響之決策拘束。 (2)人工智慧應符合目的限制原則:透過人工智慧系統蒐集、處理與利用個人資料時,即使後續擴張利用亦應與原始目的具有一致性。 (3)人工智慧運用處理須透明、易於理解及具有可解釋性:人工智慧在蒐集、處理與利用個人資料時,其過程應保持透明且決策結果易於理解及可解釋,以利於追溯及識別決策流程與結果。 (4)人工智慧應避免產生歧視結果:人工智慧應避免蒐集資料不足或錯誤資料等原因,而產生具有歧視性之決策結果,控管者或處理者使用人工智慧前,應評估對人的權利或自由之風險並控管之。 (5)應遵循資料最少蒐集原則:人工智慧系統通常會蒐集大量資料,蒐集或處理個人資料應於必要範圍內為之,且不得逾越特定目的之必要範圍,並應檢查個人資料是否完全匿名化。 (6)人工智慧須設置問責機關進行監督:依據GDPR第12條、第32條及第35條規定,人工智慧系統內的控管者或處理者應識別風險、溝通責任及採取必要防範措施,以確保蒐集、處理與利用個人資料之安全性。 (7)人工智慧應採取適當技術與組織上的措施管理之:為了符合GDPR第24條及第25條規定,聯邦資料保護監督機關應確認,控管者或處理者採用適當的現有技術及組織措施予以保障個人資料。   綜上所述,Hambacher宣言內容旨在要求,人工智慧在蒐集、處理及利用個人資料時,除遵守歐盟一般資料保護規則之規範外,亦應遵守上述提出之七點原則,以避免其運用結果干預資料主體之基本權利。

保護、分級與言論(上)

TOP