法國通過具爭議性的iTune法

  法國眾議院與參議院於 2006 06 30 通過倍受爭議的 iTune 法,其主要理念在闡述著作權法的設計應該要防止將音樂著作消費者侷限在僅能利用特定設備聽取音樂的藩籬中,而目前 iTunes 提供的音樂格式僅可利用 iPod 設備播放,明顯違反此一理念。


  眾議院原先通過之條文要求歌曲必須可以在任何設備上播放,但此一規範受到蘋果公司反對,認為如此規定將降低音樂檔案的安全性,而造成「鼓勵盜版」的結果。參議院為此修改規範內容,於規定中設計小部分空間賦予廠商可以運用
DRM 技術限制音樂於特定設備播放之音調;且若廠商獲得著作權人 ( 唱片公司及著作人 ) 之同意,仍得限制特定音樂格式僅得於特定設備中播放 ( 如: iTunes 的情況 )


  社會主義與綠黨之國會議員目前正針對此一規範提出違憲主張,若該主張無法成立,法國將成為歐洲訂定此一規範之先驅,預料其他歐洲國家將可能跟隨法國之腳步進行規範,如此情勢可以從挪威消費者保護官晚近作出之決議,認為
DRM 技術已破壞競爭法則,必須加以修正,以及其他國家包括丹麥、瑞典之類似決議窺知一二。

相關連結
※ 法國通過具爭議性的iTune法, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=729&no=55&tp=1 (最後瀏覽日:2026/02/26)
引註此篇文章
你可能還會想看
創用CC創始人主張合理使用對抗Youtube的移除通知

  創用CC(Creative Commons)的聯合創始人萊斯格在被強制移除他放在Youtube上的演講影片,影片包含群眾跳舞與受版權保護的音樂的剪輯,萊斯格之後即向美國聯邦法院提出申訴。   創用CC是一個非營利組織,創造各種自由的權利去促進著作的分享利用。   根據週四在美國麻塞諸塞區地方法院的訴狀,哈佛法學院教授萊斯格在2010年6月在南韓首爾一場創用CC的會議上,發表「文化與科技創新的現在和過去」的演講,此演講包含業餘音樂影片的剪輯,描繪一群人隨著法國樂隊「鳳凰」演奏的Lisztomania歌曲跳舞。   演講的影片在今年6月被放在Youtube網站上,萊斯格在6月30日接獲Youtube的通知,此影片被內容擁有者或被Viacome公司線上授權者依據Youtube的過濾程序辨識並阻止。大約在6月30日,澳洲墨爾本解放音樂(Liberation Music)公司也依據數位千禧年法案(DMCA),對Youtube提出了移除通知要求移除影片,因為侵害解放音樂的著作權。在6月30日,Youtube以電子郵件通知萊斯格影片已經被移除,萊斯格向Youtube提出反通知,Youtube轉發給解放音樂,解放音樂反過來威脅萊斯格,如果他不撤回反訴,將在麻塞諸塞州法院起訴他。   美國維護科技時代人權與自由的電子先鋒基金會(Electronic Frontier Foundation, EFF)代表萊斯格辯稱,使用剪輯的問題,特別是內容是一個有關文化和網路的公開演講,是被允許在合理使用的原則下,因此,並不侵害被告的著作權。萊斯格使用的著作權是最小範圍且非基於商業使用目的,也從娛樂改為教育目的。演講的影片並不造成任何市場的損害。

美國科羅拉多州通過《人工智慧消費者保護法》

2024年5月17日,科羅拉多州州長簽署了《人工智慧消費者保護法》(Consumer Protections for Artificial Intelligence Act,Colorado AI Act,下簡稱本法),其內容將增訂於《科羅拉多州修訂法規》(Colorado Revised Statutes,簡稱CRS)第6篇第17部分,是美國第一部廣泛對AI規範的法律,將於2026年2月1日生效。 本法旨在解決「高風險人工智慧系統」的演算法歧視(Algorithmic Discrimination)的問題 ,避免消費者權益因為演算法之偏見而受到歧視。是以,本法將高風險AI系統(High-risk Artificial Intelligence System)定義為「部署後作出關鍵決策(Consequential Decision)或在關鍵決策中起到重要作用的任何AI系統」。 而後,本法藉由要求AI系統開發者(Developers)與部署者(Deployers)遵守「透明度原則」與「禁止歧視原則」,來保護消費者免受演算法歧視。規定如下: (一)系統透明度: 1.開發者應向部署者或其他開發者提供該系統訓練所使用的資料、系統限制、預期用途、測試演算法歧視之文件以及其他風險評估文件。 2.部署者應向消費者揭露高風險人工智慧系統的預期用途,也應在高風險人工智慧系統做出決策之前向消費者提供聲明,聲明內容應該包含部署者之聯絡方式、該系統的基本介紹、部署者如何管理該系統可預見之風險等資訊。 (二)禁止歧視: 1.開發者應實施降低演算法歧視之措施,並應協助部署者理解高風險人工智慧系統。此外,開發者也應該持續測試與分析高風險人工智慧系統可能產生之演算法歧視風險。若開發者有意修改該系統,應將更新後的系統資訊更新於開發者網站,並須同步提供給部署者。 2.部署者應該實施風險管理計畫,該風險管理計畫應包含部署者用於識別、紀錄降低演算法歧視風險之措施與負責人員,且風險管理計畫應定期更新。在制定風險管理計畫時,必須參考美國商務部國家標準暨技術研究院(National Institute of Standards and Technology, NIST)的《人工智慧風險管理框架》(AI Risk Management Framework, AI RMF 2.0)與ISO/IEC 42001等風險管理文件。 美國普遍認為科羅拉多州的《人工智慧消費者保護法》為目前針對人工智慧系統最全面之監管法規,可作為其他州有關人工智慧法規的立法參考,美國各州立法情況與作法值得持續關注。

馬來西亞個人資料保護法於2013年11月15日正式施行

  馬來西亞於2010年訂定個人資料保護法(Personal Data Protection Act, PDPA),惟當時並未立即施行,至2013年11月15日,才連同相關規則、命令正式施行。   任何因商業往來而取得個人資料之人,在馬來西亞境內以自動化工具處理(或授權、控制個人資料之處理)時,都必須遵循該法及其相關法令的規定。否則,將有可能面臨50萬元令吉(相當於新台幣450萬元)罰鍰或三年以下有期徒刑。   除此之外,2013年個人資料保護命令(Personal Data Protection Order 2013)更規定,通訊業、金融業、保險業、健康、遊樂業、運輸業、教育、直銷業、服務業、不動產業、公益事業等11種行業別的資料利用者,必須在2014年02月15日前向個資保護委員會註冊並取得執照。   針對施行前蒐集的個人資料,該法賦予三個月的寬限期,然而施行後所蒐集者立即適用,其中包括以下規定: 1.告知當事人蒐集目的、有權請求存取及更正,並提供聯絡窗口、電話、傳真號碼或e-mail等相關資訊,於21日內回覆當事人請求; 2.除履行契約所必要等情形外,處理個人資料前應取得當事人同意,且該同意若係透過既有表單取得,外觀上應與其他事項有所區別; 3.在蒐集目的內利用個人資料,將個人資料提供予第三人時,應定期維護該名單; 4.實施並確保從業人員遵循安全政策,該政策須符合個資保護委員會所定安全標準; 5.確保個人資料之完整性、正確性及最新性; 6.制訂保存期間政策; 7.除接受國事先經過核准、取得當事人同意或已盡相當能事確保個人資料不會以違反個資法規定之方式處理外,原則上禁止國際傳輸等。   馬來西亞由於該法的施行,早先於新加坡成為東協十國當中,第一個全面實施相關法規的國家,通訊暨多媒體部部長Ahmad Shabery Cheek表示,此舉將有助於馬來西亞躋身已開發國家之林。

美國國會提出SHIELD法案 圍堵專利蟑螂橫行

  為反制專利蟑螂利用訴訟方式滋擾實際從事研發以及實施專利者,美國國會於2012年8月提出SHIELD法案(Saving High-Tech Innovators from Egregious Legal Disputes Act of 2012 ),顧名思義本法案之目的在於防免高科技創新者陷於惡意挑起的法律爭端之中。該法案補充美國聯邦專利法規定,使得法院得在發現當事人一造並無合理勝訴之可能而仍舊對電腦硬體或軟體專利之有效性提起訴訟,或主張被侵權時,法院得判決其回復全部訴訟之費用支出予除美國以外勝訴之一造(the prevailing party),包括合理之律師費。   SHIELD法案原立意良善,但其也可能就像兩面刃,例如法案的規範內容用語抽象,以致於在企圖達到其立法目的外,未同時設想可能造成的法律陷阱或未預期之法律效果。就法案內容來看,其賦予法院得判決要求回復訴訟費用及律師費之人(所謂勝訴之一造)並不限於原告。又本法案得適用在任何電腦或軟體專利的訴訟,因此,當兩家大型公司相互就專利實施進行對決時,SHIELD法案無異使得原本已經成本很高的競爭更提高雙方的賭注。此外,法案中對「電腦」的定義,不限於一般認知的「軟體或電腦硬體公司」,使得從金融業到汽車製造都可能涵蓋在內,例如銀行就有許多系統可能同時連接具專利之電腦或其他軟體組件。更重要的是,何時勝訴方可獲得律師費之補償判決,法案亦沒有給法院明確之範圍。   雖然本法案最後通過與否或通過施行後的樣貌仍未可知,但可得知的是對於部分NPE之負面利用專利制度之行為,已促使政府與法界思索專利制度如何衡平專利權保護而更能達到專利制度設置之目的,而其未來顯然仍有一段遙遠的路要走。

TOP