日本「電子資訊技術產業協會」 (Japan Electronics and Information Technology Industries Association , JEITA) 、美國「家電協會」 (Consumer Electronics Association , CEA) 及歐洲「資訊通信技術產業協會」 (European Information & Communications Technology Industry Association,EICTA) 等家電業界團體,本月 13 日在布魯塞爾召開的國際會議上,聯名反對各國為對抗著作權侵害而採取的私人錄音補償金制度,其表示該制度在今日已經是個過時的制度。目前在日本沸沸揚揚的「 iPod 應否徵收補償金」議題,也受到了製造業一方的強烈反對。
所謂的「私人錄音補償金制度」,係指對 MD 、 DVD 及光碟等錄音、儲存設備,課徵其售價 1% ~ 3% ,以該筆金錢補償著作權人因錄音設備銷售而造成的潛在損失。憂心數位時代來臨可能造成盜版行為的日益猖獗,主要國家紛紛導入了私人錄音補償金制度;但隨著版權管理 (DRM) 技術的精進,已大幅增加違法複製的困難度,立論於錄音設備可能助長盜版的私人錄音補償金制度,所受到的質疑也愈來愈強烈。
日本文部省轄下的「文化審議會著作權小組」,針對 iPod 等播放設備應否徵收補償金,在製造商及消費者代表的反彈下,迄今仍無定論。在 13 日跨國製造業聯合聲明出現後,更強化了反對一方的聲浪。
美國聯邦第二上訴巡迴法院於去年12月9日做出判決,維持先前佛羅里達州南區地方法院對於 Perfect Web Tech. 公司之專利第6,631,400號(以下簡稱專利400號)做出該專利無效之簡易裁決。第二上訴巡迴法院在 Perfect Web Technologies Inc. v. InfoUSA Inc. 一案中對於判斷一項專利的顯而易見性 (obviousness) 上,“常識”(common sense)所代表的意義做出解釋。 此案最初係由 Perfect Web Tech 控訴InfoUSA 侵害其所持專利400號,該專利為 “一種管理大批 (bulk) 電子郵件傳送到各不同鎖定目標的方法”。專利400號包含了4道程序,第一至第三道程序包含將大批的電子郵件寄送到一鎖定目標對象的群組,並計算當中寄送成功的數量。第四道程序則為重覆程序一至三,直到寄送成功的數量超過原設定的最低成功數量。對此InfoUSA向法院提出裁定專利400號無效的簡易裁決,而地方法院以 “程序一至三為先前技術 (prior art),程序四則僅為合乎邏輯的常識做法”而准予該請求並裁定專利400號無效。 第二上訴巡迴法院維持原判的理由在於專利400號不符合於KSR案中關於 “顯而易見性”的判斷原則。訴訟雙方皆同意程序一至三為先前技術,而法院認為程序四是 “常識”下的產物, “是一般人都顯然會去嘗試的結果”。Linn 法官更進一步指出像這樣的案子根本不需要專家證詞,只需用一般人的常識判斷即可。但是判決中亦同時聲明,若要援用 “常識”來判斷一項專利的顯而易見性,地院或專利審查官必須要能將判斷的依據解釋清楚以受公評。此判決結果意味著如果係爭的專利技術較為複雜,被告將必須要依賴有利的專家證詞以成功證實爭論的要點僅止於常識運用且具有顯而易見性。
強化政府橫向協調,提升AI治理—澳洲擬於2026年初設立AI安全研究所澳洲政府於2025年11月25日宣布,將於2026年初設立AI安全研究所(AI Safety Institute)。澳洲AI安全研究所的設立目標,為提供相關的專業能力,以監管、測試與共享AI在技術、風險、危害層面的資訊。經由辨識潛在的風險,提供澳洲政府與人民必要的保護。AI安全研究所將以既有之法律與監管框架為基礎,因應AI風險,協助政府各部門調整相關規範。其主要業務如下: .協助政府掌握AI技術的發展趨勢,動態應對新興的風險與危害; .強化政府對先進AI技術發展及潛在影響的理解; .共享AI資訊與作為協調政府各部門的樞紐; .經由國家AI中心(National AI Centre,NAIC)等管道,提供事業、政府、公眾與AI相關的機會、風險和安全的指導; .協助澳洲履行國際AI安全協議的承諾。 AI安全研究所並為2025年12月2日,工業、科學與資源部(Department of Industry, Science and Resources)發布的國家AI計畫(National AI Plan,下稱澳洲AI計畫)中,保障應用AI安全性的關鍵項目。澳洲AI計畫指出,AI安全研究所將關注AI的上游風險(upstream AI risks),與下游危害(downstream AI harms)。所稱之上游風險,係指AI模型和系統的建構、訓練方式,與AI本身的能力,可能產生的疑慮。下游危害,則係指使用AI系統時,可能的實質影響。 AI安全研究所將支援與國際、政府各部門間之合作;並共享新興的AI技術能力,以及對AI上游風險的見解,發布安全研究成果,提供產業與學術界參考。AI安全研究所監測、分析與共享資訊,提出政府各部門,對AI下游危害,可採取的一致性應對建議。 綜上所述,澳洲政府提出國家AI計畫,於既有的法制體系,滾動調整相關規範,以應對AI風險。並成立AI安全研究所,追蹤國際AI發展脈動,及時提供澳洲政府應對建議,協調各部門採取一致性的行動。澳洲政府對新興AI技術,所採取策略的具體成效,仍有待觀察。 本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。 本文同步刊登於TIPS網站(https://www.tips.org.tw)
OTT影音發展與著作權-以英國為例