瑞典法院就iPhone 是否屬於著作權法上「私人重製工具」之實務見解

  瑞典最高法院(Högsta domstolen)於2015/11/18 針對集管團體Copyswede 與瑞典電信公司Telia Sonera 之訴訟案發出審查允許(prövningstillstånd)之決定。此案之爭點在iPhone手機若屬於瑞典著作權法 § 26 k上之為私人重製之工具(en produkt som är särskilt ägnad för privatkopiering),則應納入私人重製補償金之對象。

  Copyswede是依瑞典著作權法管理私人重製補償金之團體,於本案中向Telia Sonera 請求繳納補償金,理由在於瑞典電信公司Telia Sonera自2009/01/01進口iPhone各型式手機,Copyswede主張iPhone手機型式為一種適合用於私人重製之工具,故Telia Sonera應繳納補償金,於是向此案一審法院Södertörns tingsrätt提出訴訟。一審法院以iPhone手機之功能及其實際使用情形為判斷基準,以中間裁定方式(Mellamdom)認定iPhone手機確屬瑞典著作權法上之「私人重製之工具」,二審法院Svea hovrätt亦採相同見解。不服此一認定之Telia Sonera於是請求瑞典最高法院進行審查。

相關連結
※ 瑞典法院就iPhone 是否屬於著作權法上「私人重製工具」之實務見解, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=7200&no=64&tp=1 (最後瀏覽日:2025/11/24)
引註此篇文章
你可能還會想看
美國總統簽署通過2010年二十一世紀通訊和視訊無障礙法

  美國總統歐巴馬於2010年10月8日簽署通過2010年二十一世紀通訊與視訊無障礙法(Twenty-First Century Communications and Video Accessibility Act of 2010),將使美國約3600萬之聽、視障人士能無障礙的參與網路時代。該法案係增進身心障礙人士無障礙使用通訊傳播服務之保障,因應新興科技之發展,修訂既有法規的不足。由於新興科技的發展擴大身心障礙者使用科技的障礙與落差。同時,美國電信法放鬆管制的趨勢,將通訊服務區分為「電信服務」與「資訊服務」,使新興通訊服務因歸屬於「資訊服務」而不受管制。 在既有法規出現不足的情形下,美國國會於2010年8月通過該法,因應美國身心障礙人士使用新興通訊傳播工具與服務之障礙,修訂了許多內容: • 使具備接取網際網路能力之智慧手機,改進用戶界面使視障人士能易於使用。 • 透過口述影像之要求,以聲音描述媒體之非對白內容,如場景變化、表情、事件等,使視障人士,更充分地欣賞電視媒體內容。 要求節目指南和功能選單的設計,更易於視障人士使用。透過隱藏性字幕的要求,對媒體內容更多細節的描述,使聽障人士亦能充分瞭解電視節目內容。要求的控制接收或播放媒體之設備,應有易用之設計,如按鈕或專用圖示,使字幕或口述影像之功能能易於開啟或關閉。擴展進階通訊服務之定義,包含VOIP、及時訊息(如MSN)及視訊會議。並要求這些進階通訊服務能易於被聽、視障人士使用。   對低收入的且具有聽、視雙重障礙人士,提供高達 1000萬美元,補助通訊設備接取電話及網際網路,使這些人能夠更充分地參與社會。該法將能確保身心障礙人士能無障礙使用通訊工具、獲取資訊與視訊媒體內容,無論何種形式(文字、視訊、語音),也無論傳輸媒介(有線、無線、衛星、IP網路),建構無障礙之通訊傳播環境。

英國發布人工智慧網路資安實務守則

英國政府於2025年1月31日發布「人工智慧網路資安實務守則」(Code of Practice for the Cyber Security of AI,以下簡稱「實務守則」),目的是提供人工智慧(AI)系統的網路資安指引。該實務守則為英國參考國際上主要標準、規範後所訂定之自願性指引,以期降低人工智慧所面臨的網路資安風險,並促使人工智慧系統開發者與供應商落實基本的資安措施,以確保人工智慧系統的安性和可靠性。 由於人工智慧系統在功能與運作模式上與傳統網路架構及軟體有明顯的不同,因此產生新的資安風險,主要包含以下: 1. 資料投毒(Data Poisoning):在AI系統的訓練資料中蓄意加入有害或錯誤的資料,影響模型訓練結果,導致人工智慧系統產出錯誤推論或決策。 2. 模型混淆(Model Obfuscation):攻擊者有意識地隱藏或掩飾AI模型的內部運作特徵與行為,以增加系統漏洞、引發混亂或防礙資安管理,可能導致AI系統的安全性與穩定性受損。 3. 輸入間接指令(Indirect Prompt Injection):藉由輸入經精心設計的指令,使人工智慧系統的產出未預期、錯誤或是有害的結果。 為了提升實務守則可操作性,實務守則涵蓋了人工智慧生命週期的各階段,並針對相關角色提出指導。角色界定如下: 1. 人工智慧系統開發者(Developers):負責設計和建立人工智慧系統的個人或組織。 2. 人工智慧系統供應鏈(Supply chain):涵蓋人工智慧系統開發、部署、營運過程中的的所有相關個人和組織。 實務守則希望上述角色能夠參考以下資安原則,以確保人工智慧系統的安全性與可靠性: 1. 風險評估(Risk Assessment):識別、分析和減輕人工智慧系統安全性或功能的潛在威脅的過程。 2. 資料管理(Data management):確保AI系統整個資料生命週期中的資料安全及有效利用,並採取完善管理措施。 3. 模型安全(Model Security):在模型訓練、部署和使用階段,均應符合當時的技術安全標準。 4. 供應鏈安全(Supply chain security):確保AI系統供應鏈中所有利益相關方落實適當的安全措施。 「人工智慧網路資安實務守則」藉由清晰且全面的指導方針,期望各角色能有效落實AI系統安全管控,促進人工智慧技術在網路環境中的安全性與穩健發展。

談我國基因改造生物田間試驗管理規範之現況與修正方向

我國遊戲軟體著作權爭議探討

TOP