創用CC(Creative Commons)的聯合創始人萊斯格在被強制移除他放在Youtube上的演講影片,影片包含群眾跳舞與受版權保護的音樂的剪輯,萊斯格之後即向美國聯邦法院提出申訴。
創用CC是一個非營利組織,創造各種自由的權利去促進著作的分享利用。
根據週四在美國麻塞諸塞區地方法院的訴狀,哈佛法學院教授萊斯格在2010年6月在南韓首爾一場創用CC的會議上,發表「文化與科技創新的現在和過去」的演講,此演講包含業餘音樂影片的剪輯,描繪一群人隨著法國樂隊「鳳凰」演奏的Lisztomania歌曲跳舞。
演講的影片在今年6月被放在Youtube網站上,萊斯格在6月30日接獲Youtube的通知,此影片被內容擁有者或被Viacome公司線上授權者依據Youtube的過濾程序辨識並阻止。大約在6月30日,澳洲墨爾本解放音樂(Liberation Music)公司也依據數位千禧年法案(DMCA),對Youtube提出了移除通知要求移除影片,因為侵害解放音樂的著作權。在6月30日,Youtube以電子郵件通知萊斯格影片已經被移除,萊斯格向Youtube提出反通知,Youtube轉發給解放音樂,解放音樂反過來威脅萊斯格,如果他不撤回反訴,將在麻塞諸塞州法院起訴他。
美國維護科技時代人權與自由的電子先鋒基金會(Electronic Frontier Foundation, EFF)代表萊斯格辯稱,使用剪輯的問題,特別是內容是一個有關文化和網路的公開演講,是被允許在合理使用的原則下,因此,並不侵害被告的著作權。萊斯格使用的著作權是最小範圍且非基於商業使用目的,也從娛樂改為教育目的。演講的影片並不造成任何市場的損害。
英國2017年數位經濟法(Digital Economy Act 2017)已於2017年4月27日經英國國會通過,該法第四章規範智慧財產權,其中第34條條文內容意旨係公共廣電服務(Public Service Broadcaster)對其經轉播之內容享有著作財產權,任何欲轉播公共廣電服務內容之有線電視平臺將不得無償轉播,應交付授權金。 在舊法之架構下,英國1988年著作、設計及專利法(Copyright, Design and Patents Act 1988)第73條免除有線電視平臺轉播公共廣電服務內容所生之著作權侵權之責任。舉例而言,維珍集團旗下的電視媒體(Virgin Media)若轉播英國獨立電視臺ITV之節目,因不涉著作權侵權,故毋庸給付授權金。該條之立法目的原係為扶持80年代後有線電視發展之政策目標,然現今因多頻道、衛星數位電視,甚至是網路平臺持續蓬勃發展,該條文已相對過時,故透過2017年數位經濟法將該條文刪除。 英國公共廣電服務業者如BBC、Channel 4和ITV近年來大力倡導並遊說此立法政策,強調大多數的英國原創節目都是由其產出,主張有線電視平臺應當給付合理的轉播授權金,始能支持公共廣電服務業者持續為英國民眾帶來高品質的節目內容。惟,考量部分公共廣電服務業者與有線電視平臺之關係,如維珍媒體是ITV之大股東,往後公共廣電服務是否能有足夠的議價能力收取到合理的授權金,抑或反而造成英國民眾須支出更多節目費用,值得關注。
智慧綠建築推動方案之修正—新增公有新建建築物應符合綠建築指標 美國科羅拉多州通過《人工智慧消費者保護法》2024年5月17日,科羅拉多州州長簽署了《人工智慧消費者保護法》(Consumer Protections for Artificial Intelligence Act,Colorado AI Act,下簡稱本法),其內容將增訂於《科羅拉多州修訂法規》(Colorado Revised Statutes,簡稱CRS)第6篇第17部分,是美國第一部廣泛對AI規範的法律,將於2026年2月1日生效。 本法旨在解決「高風險人工智慧系統」的演算法歧視(Algorithmic Discrimination)的問題 ,避免消費者權益因為演算法之偏見而受到歧視。是以,本法將高風險AI系統(High-risk Artificial Intelligence System)定義為「部署後作出關鍵決策(Consequential Decision)或在關鍵決策中起到重要作用的任何AI系統」。 而後,本法藉由要求AI系統開發者(Developers)與部署者(Deployers)遵守「透明度原則」與「禁止歧視原則」,來保護消費者免受演算法歧視。規定如下: (一)系統透明度: 1.開發者應向部署者或其他開發者提供該系統訓練所使用的資料、系統限制、預期用途、測試演算法歧視之文件以及其他風險評估文件。 2.部署者應向消費者揭露高風險人工智慧系統的預期用途,也應在高風險人工智慧系統做出決策之前向消費者提供聲明,聲明內容應該包含部署者之聯絡方式、該系統的基本介紹、部署者如何管理該系統可預見之風險等資訊。 (二)禁止歧視: 1.開發者應實施降低演算法歧視之措施,並應協助部署者理解高風險人工智慧系統。此外,開發者也應該持續測試與分析高風險人工智慧系統可能產生之演算法歧視風險。若開發者有意修改該系統,應將更新後的系統資訊更新於開發者網站,並須同步提供給部署者。 2.部署者應該實施風險管理計畫,該風險管理計畫應包含部署者用於識別、紀錄降低演算法歧視風險之措施與負責人員,且風險管理計畫應定期更新。在制定風險管理計畫時,必須參考美國商務部國家標準暨技術研究院(National Institute of Standards and Technology, NIST)的《人工智慧風險管理框架》(AI Risk Management Framework, AI RMF 2.0)與ISO/IEC 42001等風險管理文件。 美國普遍認為科羅拉多州的《人工智慧消費者保護法》為目前針對人工智慧系統最全面之監管法規,可作為其他州有關人工智慧法規的立法參考,美國各州立法情況與作法值得持續關注。
美國白宮公布巨量資料追蹤報告與政策建議