創用CC創始人主張合理使用對抗Youtube的移除通知

  創用CC(Creative Commons)的聯合創始人萊斯格在被強制移除他放在Youtube上的演講影片,影片包含群眾跳舞與受版權保護的音樂的剪輯,萊斯格之後即向美國聯邦法院提出申訴。

  創用CC是一個非營利組織,創造各種自由的權利去促進著作的分享利用。

  根據週四在美國麻塞諸塞區地方法院的訴狀,哈佛法學院教授萊斯格在2010年6月在南韓首爾一場創用CC的會議上,發表「文化與科技創新的現在和過去」的演講,此演講包含業餘音樂影片的剪輯,描繪一群人隨著法國樂隊「鳳凰」演奏的Lisztomania歌曲跳舞。

  演講的影片在今年6月被放在Youtube網站上,萊斯格在6月30日接獲Youtube的通知,此影片被內容擁有者或被Viacome公司線上授權者依據Youtube的過濾程序辨識並阻止。大約在6月30日,澳洲墨爾本解放音樂(Liberation Music)公司也依據數位千禧年法案(DMCA),對Youtube提出了移除通知要求移除影片,因為侵害解放音樂的著作權。在6月30日,Youtube以電子郵件通知萊斯格影片已經被移除,萊斯格向Youtube提出反通知,Youtube轉發給解放音樂,解放音樂反過來威脅萊斯格,如果他不撤回反訴,將在麻塞諸塞州法院起訴他。

  美國維護科技時代人權與自由的電子先鋒基金會(Electronic Frontier Foundation, EFF)代表萊斯格辯稱,使用剪輯的問題,特別是內容是一個有關文化和網路的公開演講,是被允許在合理使用的原則下,因此,並不侵害被告的著作權。萊斯格使用的著作權是最小範圍且非基於商業使用目的,也從娛樂改為教育目的。演講的影片並不造成任何市場的損害。

相關連結
※ 創用CC創始人主張合理使用對抗Youtube的移除通知, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=6386&no=64&tp=1 (最後瀏覽日:2026/05/11)
引註此篇文章
你可能還會想看
日本閣議公布建築節能法修正案

  2019年2月15日閣議公布《建築物能源使用效率提升法》(建築物のエネルギー消費性能の向上に関する法律,以下稱「建築節能法」)的修正案,將根據住宅及建築物的規模、用途等特性,採取高效性綜合對策,以達到2030年節能目標。   本次《建築節能法》主要修正內容,包含: 非住宅之建築物(如商辦大樓):原針對新建、改建、擴建大規模(樓地板面積2000m2以上)建築物應符合「建築物能源使用效率基準」(建築物エネルギー消費性能基準)之強制規定,將擴及中規模(樓地板面積300m2~2000m2)建築物。另外,新增若複數建築物共同執行的「提升建築物能源使用效率計畫」,經當地相關主管機關認定後,可獲得容積獎勵之規定。 改善大型集合住宅審查制度:針對建築物起造人及承造人須向當地相關主管機關提交「確保建築物能源使用效率的構造與設備計畫」的審查制度,將簡化審查程序,以減少行政機關負擔及提高行政效率。 建築師及住宅業者之義務: (1) 新增設計小規模(樓地板面積不到300m2)建築物的建築師有義務向建築物起造人及承造人,說明該物件的能源使用效率。 (2) 住宅Top Runner制度:原規範大型住宅業者供給之建案獨棟住宅應符合住宅Top Runner基準,現將物件範圍擴及客製化獨棟住宅及小型出租公寓。

美國FDA更新軟體預驗證計畫,以明確化數位健康科技的軟體器材審查流程

  美國食品及藥物管理局(the U.S. Food and Drug Administration)於2019年1月更新「軟體預驗證計畫(Software Precertification Program)」及公布該計畫「2019測試方案(2019 Test Plan)」與「運作模式初版(A Working Model v1.0)」,使審查流程更加明確及具有彈性,並促進技術創新發展。   在更新計畫中,FDA聚焦於審查架構的說明,包含考量納入醫療器材新審查途徑(De Novo pathway)及優良評估流程(Excellence Appraisal process)的審查內涵。在優良評估流程中,相關研發人員須先行提供必要資訊,以供主管機關驗證該軟體器材之確效(validation)及是否已符合現行優良製造規範(current good manufacturing practices)與品質系統規範(Quality System Regulation, QSR)的要求。而由於以上標準已在此程序中先行驗證,主管機關得簡化上市前審查的相關查證程序,並加速查驗流程。   在測試方案中,則說明FDA將同時對同一軟體器材進行軟體預驗證審查及傳統審查,並比較兩種途徑的結果,以確保軟體預驗證審查途徑中的每一個程序都可以有效評估產品上市前所應符合的必要標準。最後,FDA綜合軟體預驗證計畫及測試方案,提出「運作模式初版」,以協助相關人員了解現行的規範架構與處理程序,並期待藉此促進技術開發者及主管機關間的溝通。FDA並於運作模式文件中提到,將在2019年3月8日前持續接受相關人員的建議,而未來將參酌建議調整計畫內容。

英國政府提交予國會「人工智慧監管規範政策報告」

  英國政府由數位文化媒體與體育大臣(Secretary of State for Digital, Culture, Media and Sport)與商業能源與工業策略大臣(Secretary of State for Business, Energy and Industrial Strategy)代表,於2022年7月18日提交予國會一份「人工智慧監管規範政策報告」(AI Regulation Policy Paper)。內容除定義「人工智慧」(Artificial Intelligence)外,並說明未來政府建立監管框架的方針與內涵。   在定義方面,英國政府認為人工智慧依據具體領域、部門之技術跟案例有不同特徵。但在監管層面上,人工智慧產物則主要包含以下兩大「關鍵特徵」,造成現有法規可能不完全適用情形: (1)具有「適應性」,擅於以人類難以辨識的意圖或邏輯學習並歸納反饋,因此應對其學習方式與內容進行剖析,避免安全與隱私問題。 (2)具有「自主性」,擅於自動化複雜的認知任務,在動態的狀況下持續判斷並決策,因此應對其決策的原理原則進行剖析,避免風險控制與責任分配問題。   在新監管框架的方針方面,英國政府期望所提出的監管框架依循下列方針: (1)針對技術應用的具體情況設計,允許監管機構根據其特定領域或部門制定和發展更詳細的人工智慧定義,藉以在維持監管目標確定與規範連貫性的同時,仍然能實現靈活性。 (2)主要針對具有真實、可識別與不可接受的風險水準的人工智慧應用進行規範,以避免範圍過大扼殺創新。 (3)制定具有連貫性的跨領域、跨部門原則,確保人工智慧生態系統簡單、清晰、可預測且穩定。 (4)要求監管機構考量更寬鬆的選擇,以指導和產業自願性措施為主。   在跨領域、跨部門原則方面,英國政府則建議所有針對人工智慧的監管遵循六個總體性原則,以保障規範連貫性與精簡程度。這六個原則是基於經濟合作暨發展組織(OECD)的相關原則,並證明了英國對此些原則的承諾: 1.確保人工智慧技術是以安全的方式使用 2.確保人工智慧是技術上安全的並按設計運行 3.確保人工智慧具有適當的透明性與可解釋性 4.闡述何謂公平及其實施內涵並將對公平的考量寫入人工智慧系統 5.規範人工智慧治理中法律主體的責任 6.釋明救濟途徑   除了「人工智慧監管政策說明」外,英國政府也發布了「人工智慧行動計畫」(AI Action Plan)文件,彙整了為推動英國「國家人工智慧策略」(National AI Strategy)而施行的相關行動。前述計畫中亦指出,今年底英國政府將發布人工智慧治理白皮書並辦理相關公聽會。

德國聯邦資訊技術,電信和新媒體協會針對AI及自動決策技術利用提出建議指南

  德國聯邦資訊技術,電信和新媒體協會於2018年2月6日在更安全的網路研討會中針對利用人工智慧及自動決策技術利用提出建議指南(Empfehlungen für den verantwortlichen Einsatz von KI und automatisierten Entscheidungen),旨在提升企業數位化與社會責任,並提升消費者權益保護。 本份指南提出六項建議: 促進企業內部及外部訂定相關準則 例如規定公司在利用演算法和AI時,必須將影響評估列入開發流程,並列為公司應遵守的道德倫理守則,以確保開發的產品或服務符合公平及道德。 提升透明度 使用者如有興趣了解演算法及其含義,企業應協助調查並了解使用者想獲知的訊息,並透過相關訊息管道提升產品及服務透明度。因此,企業應努力使演算法及其操作和含義能夠被使用者理解。此亦涉及即將實施的歐盟一般資料保護規則中的透明度義務。在機器學習或深度學習情況下,可能會增加理解性和可追溯性難度,但有助於分析流程並使其更接近人類理解的方法在科學和商業實踐中,應特別關注並進一步討論。另外,透過教育及使用說明協助及控制功能,教導消費者係建立雙方信任的重要手段。企業應在第一線中說明產品或服務中使用的手段(演算法,機器學習,AI)。除了解釋使用那些技術來改進產品和服務外,應一併解釋如何從技術控制過程中獲得相關知識以及提供那些後援支持。另外,例如透過幫助頁面,儀表板或部落格,解釋發生什麼以及如何做出某些影響深遠的自動化決策,使用戶更了解有關使用自動決策相關訊息。因此建議企業採取強制有效以建立信任的措施,使用戶理解是否及如何使用相關演算法,此可能包括使用自動化決策,使用特定資料組和使用技術的目的,亦即使用戶對演算法,機器學習或AI支持的決策有基本的了解。 為全體利益使用相關技術 人工智慧等新技術之重要性不應被低估,目前在生活和工業等眾多領域皆有廣泛應用。對於個人和集體而言,將可帶來巨大的利益,因此應該充分利用。例如,人工智慧可降低語言障礙,幫助行動不便的人可更加獨立自主生活,改善醫療診斷,提升能源供應效率,甚至是交通規劃和搜索停車位,都只是人工智慧偉大且已被使用的案例。為促進技術發展,應公平地利用其優勢並預留商業應用模式的空間,同時充分解決涉及的具體風險。產業特定的解決方案十分重要,但應兼顧受影響者的利益,並與廣大公眾利益找出妥協平衡點,且應排除不適當的歧視。建議在使用決策支持技術時,應事先檢查相關後果並與其利益比較。例如,可以在資料保護影響評估的框架進行。作為道德準則的一部分,必須確保演算法盡可能量準確地預測結果。 開發安全的資料基礎 資料係人工智慧支援決策的基礎。與人為決策者相同,資料不完整或錯誤,將導致做出錯誤的決定。因此決策系統的可靠性仍取決資料的準確性。但資料質量和資料來源始終不能追溯到源頭,如果可能的話,只有匯總或非個人資料可用於分析或分類用戶群組。因此,確切細節不可被使用或揭露。因此建議企業應考慮要使用的資料、資料的類別和在使用AI系統前仔細檢查資料使用情況,特別是在自我學習系統中資料引入的標準,並根據錯誤來源進行檢查,且儘可能全面記錄,針對個人資料部分更應謹慎處理。 解決機器偏差問題 應重視並解決所謂機器偏差和演算法選擇和模型建立領域的相關問題。解釋演算法,機器學習或AI在基層資料選擇和資料庫時所產生決策偏見相當重要,在開發預期用途的演算法時必須納入考量,對員工應針對道德影響進行培訓,並使用代表性紀錄來創建可以識別和最小化偏差的方法。企業並應該提高員工的敏感度並培訓如何解決並減少機器偏見問題,並特別注意資料饋送,以及開發用於檢測模式的內、外部測試流程。 適合個別領域的具體措施和文件 在特別需要負責的決策過程,例如在車輛的自動控制或醫療診斷中,應設計成由責任主體保留最終的決策權力,直到AI的控制品質已達到或高於所有參與者水平。對類人工智慧的信任,並非透過對方法的無條件追踪來實現,而是經過仔細測試,學習和記錄來實現

TOP