美國聯邦地方法院加州北區法院禁止REALNETWORKS公司販賣Real DVD

  美國聯邦地方法院加州北區法院於2009年8月11日判決禁止REALNetworks公司致力或便利於製造、進口、供公眾使用、為販賣之要約或販賣以存取、複製及再散佈等他法規避CSS之保護或受著作權保護之DVD內容之軟體產品,這些產品如已知的RealDVD,或Vegas、Facet或其他名稱之產品,或有近似功能的軟體或其他產品、服務或裝置、設備或其零件。理由在於RealDVD軟體違反了數位千禧年著作權法案(Digital Millennium Copyright Act of 1998,DMCA)禁止規避電腦加密技術之規定。DVD若被CSS(Content Scramble System)鎖碼,則DVD播放者必須取得授權方能播放此光碟片,這些防止技術就是為了避免被複製而設計的。因為RealDVD是一種從含有著作權的DVD製造了一個永久的複製品的軟體技術,而這無法置外於數位千禧年著作權法案所賦予的義務,即使從個人合理使用的條文詮釋,亦無法認為是合法的。

 

  這件案子是美國迪士尼、Sony、派拉蒙、二十世紀福斯、NBC、華納兄弟、哥倫比亞等好萊塢主要電影公司以及DVD複製控制協會(DVD copy control Association,DVD CCA) 於2008年對於REALNetworks公司銷售RealDVD軟體之行為提起訴訟,指控其行為違法法令。

 

  而兩日後(2009年8月13日),於DVD複製控制協會(DVD CCA)訴KALEIDESCAPE公司上訴案中,加州聯邦上訴法院又判決KALEIDESCAPE公司販售DVD複製軟體(Kaleidescape system)違反數位千禧年著作權法案。

 

  此兩個判決對於好萊塢電影工業無疑是一大勝利,但對於DVD複製軟體的科技發展卻是一項打擊。另外在判決中法官也強調這樣的判決決定,仍然保留了個人合理使用的合法空間。

相關連結
相關附件
※ 美國聯邦地方法院加州北區法院禁止REALNETWORKS公司販賣Real DVD, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=3112&no=64&tp=1 (最後瀏覽日:2026/01/02)
引註此篇文章
你可能還會想看
美國專利與商標局拒絕以AI為發明人的專利申請

  美國專利與商標局於2020年4月27日拒絕人工智慧(AI)為發明人之申請並闡明發明人僅限於自然人。本案是美國專利與商標局首次拒絕人工智慧為發明人之申請,同時本最終審查意見(下稱:本意見書)也是第一次闡明發明人僅限於自然人。本意見書也被收錄在美國專利與商標局「人工智慧」、「首席專利審查官最終審查意見」之頁面,作為指標案例。   本意見書是在回應2020年1月20日專利申請申復案(Petition)之審查意見。回顧本專利申請案之基本資料表,發明人名字為「DABUS」、姓氏部分僅以括號註明「由人工智慧自行產生的發明」。本案法定代理人及申請人均為Stephan L. Thaler。Stephan L. Thaler表示,DABUS是一個神經網路系統且「有創意的機器」。美國專利與商標局表示,綜觀美國專利法的用詞(如:Whoever)及立法脈絡,均可得知發明人指的是自然人。具體而言,發明人必須是貢獻發明概念(Conception)的人,專利審查程序手冊(MPEP)定義「發明概念」是一個將發明人「創造行為之心智的完整呈現」(the complete performance of the mental part of the inventive act),僅有自然人具有「心智」(Mental/ Mind),因此發明人僅限於自然人。本審查意見又援引Beech Aircraft Corp. v. EDO Corp.判決,指出「發明人僅限於自然人」。所以,將專利申請基本資料表的姓名欄位填上「DABUS(由人工智慧自行產生的發明)」並不符合美國專利法第115條(35 U.S. Code § 115)。   本案於2019年7月29日提出,隨即於2019年8月8日被美國專利與商標局以「申請文件欠缺,不符合發明人與其繼受人之規範」(35 U.S. Code § 115和37 CFR 1.64)拒絕受理。幾番修正往返後,美國專利與商標局於2019年12月17日仍以「申請文件欠缺」不予受理,Stephan L. Thaler續行申復。美國專利與商標局於2020年4月27日做出本意見書。同一由DABUS創造的發明,但由Ryan Abbott作為申請人的案件,已被歐洲專利局和英國智慧財產局於2019年12月以雷同的理由拒絕。目前美國專利與商標局、歐洲專利局、英國智慧財產局面對人工智慧為發明人之專利申請,立場都是發明人僅限自然人。

新加坡個資保護法責任指南

  新加坡個人資料保護法(Personal Data Protection Act 2012, PDPA)的基本原則之一在於可歸責性(Accountability)之建立,原因在於個資保護的責任歸屬,是組織對個資的持有與控制所為的承諾與責任表示。因此,PDPA第11、12條之法遵責任,組織必須對所持有或控制的個資負責,並且需制定並實施資料保護政策、溝通並告知員工相關政策、及履行PDPA義務所必須施行之流程與作法。於組織責任而言,PDPA雖有強制性義務責任,但應忖量組織內部責任歸屬的措施,而非僅將責任落於遵守法律的程度,組織必須從合於法規的方法轉為基於責任歸屬的方法來管理個人資料。   從而,該指南在政策、人員、流程等領域中透過資料生命週期的循環,確立組織責任歸屬。從落實良好的責任制始於組織領導力的概念出發,設定組織管理高層之職責與調性,繼而規劃處理個資及管理資料風險的方法。並由組織人員治理面向,確立溝通資訊與員工培訓知識與資源。除此之外,也在特定流程設置上,紀錄個人資料流動,了解如何收集、儲存、使用、揭露、歸檔或處理個人資料為流程的首要任務,繼而確認資料保護層面主要的差距與需要改進的領域。再將資料保護實踐於業務流程、系統、商品或服務。

歐盟氣候相關資訊報告準則

  歐盟執委會(EU Commission)於2019年6月20日發布「氣候相關資訊報告準則」(Guidelines on reporting climate-related Information),該準則為歐盟執委會2018年3月通過的「永續金融行動計畫」(Action plan on sustainable finance )之一部分,旨在促使企業更完整的揭露其活動對氣候之影響,以及氣候變化對其業務之風險,讓投資人與融資機構獲有更全面的企業資訊以進行決策,同時引導市場資金轉向友善氣候之企業或商業模式。   關於企業氣候相關資訊之揭露,歐盟早在2014年11月15日通過的「非財務資訊報告指令」(Non-Financial Reporting Directive, 2014/95/EU)中要求擁有500名以上員工的大型企業必須揭露其經營與氣候保護間之關聯;為讓所有歐盟企業均有一致可資遵循的揭露標準,執委會嗣於2017年5月7日發布「非財務資訊報告準則」(Guidelines on Non-Financial Reporting);而本次發布之「氣候相關資訊報告準則」則是在2017年的「非財務資訊報告準則」基礎上所進行的補充,其特別之處在於整合了金融穩定委員會(Financial stability board)轄下「氣候相關財務揭露工作組」(Taskforce on climate-related financial disclosures, TCFD)所擬定之氣候資訊揭露建議,該建議詳細的說明了企業編制非財務類報告以揭露企業所面臨的氣候風險與機遇作法。   本準則建議企業分別在(1)商業模式、(2)企業政策、(3)政策成果、(4)風險管理、(5)關鍵績效指標五方面進行氣候相關資訊之揭露:在商業模式方面,例如描述公司對自然資源的依賴性、說明公司商業模式在應對氣候風險時的彈性及可能的變化;在企業政策方面,例如解釋公司如何將氣候相關問題納入運營決策流程、揭露公司在其能源政策中所設之能源相關目標;在政策成果方面,例如參考財務KPI做法描述公司在氣候方面的表現如何影響其財務績效;在風險管理方面,例如根據地理位置、業務活動詳細列出與氣候相關的主要風險、描述進行風險識別、評估的方法與頻率;在關鍵績效指標方面,例如描述主要氣候相關風險與財務關鍵績效指標之間的聯繫。

歐盟發布新人工智慧規範,以風險程度判斷防止科技濫用

  歐盟執委會於2021年4月21日提出「人工智慧規則」(AI regulation)草案,成為第一個結合人工智慧法律架構及「歐盟人工智慧協調計畫」(Coordinated Plan on AI)的法律規範。規範主要係延續其2020年提出的「人工智慧白皮書」(White Paper on Artificial Intelligence)及「歐盟資料策略」(European Data Strategy),達到為避免人工智慧科技對人民基本權產生侵害,而提出此保護規範。   「人工智慧規則」也依原白皮書中所設的風險程度判斷法(risk-based approach)為標準,將科技運用依風險程度區分為:不可被接受風險(Unacceptable risk)、高風險(High-risk)、有限風險(Limited risk)及最小風險(Minimal risk)。   「不可被接受的風險」中全面禁止科技運用在任何違反歐盟價值及基本人權,或對歐盟人民有造成明顯隱私風險侵害上。如政府對人民進行「社會評分」制度或鼓勵兒童為危險行為的語音系統玩具等都屬於其範疇。   在「高風險」運用上,除了作為安全設備的系統及附件中所提出型態外,另將所有的「遠端生物辨識系統」(remote biometric identification systems)列入其中。規定原則上禁止執法機構於公眾場合使用相關的生物辨識系統,例外僅在有目的必要性時,才得使用,像尋找失蹤兒童、防止恐怖攻擊等。   而在為資料蒐集行為時,除對蒐集、分析行為有告知義務外,也應告知系統資料的準確性、安全性等,要求高度透明化(Transparency obligations)。不只是前述的不可被接受風險及高風險適用外,有限風險運用中的人工智慧聊天系統也需要在實際和系統互動前有充足的告知行為,以確保資料主體對資料蒐集及利用之情事有充足的認知。   在此新人工智慧規範中仍有許多部份需要加強與討論,但仍期望在2022年能發展到生效階段,以對人工智慧科技的應用多一層保障。

TOP