英國消費者保護法明確將數位內容商品消費納入規範,加重企業經營者責任

  英國在今年10月1日正式實施新的消費者保護法,除了明確規定30天內可以退還瑕疵商品外(舊法並無規定明確的期間),最主要重要變革在於納入數位內容商品消費的相關條款,以促進目前蓬勃發展的數位內容產業。

  依照新法的規定,所謂的數位內容係指以數位形式(in digital form)所產製或提供之資料,據此包括了任何可以下載的商品以及串流服務,例如app、音樂、電影、遊戲以及電子書。其中關於消費者之保障如下:
一、在一定要件下有權利要求企業經營者修復或替換有瑕疵之數位內容商品;
二、若數位內容商品之瑕疵無法回復時,得要求企業經營者退還百分之百所支付的款項;
三、除此之外,若是數位內容商品因故而造成消費者的載具損害時,例如因所販售的軟體帶有電腦病毒而使消費者電腦中毒,企業經營者應負損害賠償責任。

  根據英國娛樂產業公會(Entertainment Retailers Association),英國在去年(2014)有關數位內容商品(音樂、影片、遊戲)的消費額達到28億英鎊(約897億新台幣),英國舊消費者保護法並未針對數位內容商品有明確的規範,尤以近年數位內容商品的糾紛不斷(尤以遊戲為大宗),此次修法無疑是對常在網路購買數位商品的消費者一大保障。

相關連結
※ 英國消費者保護法明確將數位內容商品消費納入規範,加重企業經營者責任, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=7021&no=66&tp=1 (最後瀏覽日:2026/02/22)
引註此篇文章
你可能還會想看
LPL與華映在美侵權訴訟–加州法院駁回部份主張

  韓國樂金飛利浦(LPL)在美國加州控告華映(CPT)專利侵害案,自2002年8月起,至今已纏訟五年之久。   LPL控告CPT侵害其4件Side-mount專利(US6,002,457、US5,926,237、US6,373,537、US6,020,942),與2件Process專利(US4,624,737、US5, 825,449)。華映表示,前4件被加州法院以欠缺依據駁回。對此判決,華映表示欣慰。   LPL與華映之間的專利侵權訴訟爭議不休。華映強調,其在尊重智慧財產權的理念下蒐集證據進行因應,加州法院雖以LPL所提Side Mount訴訟欠缺依據(Lack of Standing)下令駁回LPL訴訟,但就另二件Process專利部份,目前法院對於雙方所提交之post trial motion作出部份同意及部份駁回的決定(Order),但法院尚未做出正式判決。   彭博社報導已傳出,美國洛杉磯聯邦法院網站已公佈裁決文,並同意LPL對華映加重侵權賠償的請求,以及持續侵權與判決前和判決後之利益與法律費用賠償。但並未透露加重賠償之確切金額。就此,華映發表聲明指出,對法官准許LPL部分訴求的初步決定,感到遺憾。華映表示其已掌握證據,待收到法院正式判決後將積極因應,且不排除上訴。

世界經濟論壇發布《人工智慧公平性和包容性藍圖》白皮書

  世界經濟論壇(World Economic Forum, WEF)於2022年6月29日發布《人工智慧公平性和包容性藍圖》白皮書(A Blueprint for Equity and Inclusion in Artificial Intelligence),說明在AI開發生命週期和治理生態系統中,應該如何改善公平性和強化包容性。根據全球未來人類AI理事會(Global Future Council on Artificial Intelligence for Humanity)指出,目前AI生命週期應分為兩個部分,一是管理AI使用,二是設計、開發、部署AI以滿足利益相關者需求。   包容性AI不僅是考量技術發展中之公平性與包容性,而是需整體考量並建立包容的AI生態系統,包括(1)包容性AI基礎設施(例如運算能力、資料儲存、網路),鼓勵更多技術或非技術的人員有能力參與到AI相關工作中;(2)建立AI素養、教育及意識,例如從小開始開啟AI相關課程,讓孩子從小即可以從父母的工作、家庭、學校,甚至玩具中學習AI系統對資料和隱私的影響並進行思考,盡可能讓使其互動的人都了解AI之基礎知識,並能夠認識其可能帶來的風險與機會;(3)公平的工作環境,未來各行各業需要越來越多多元化人才,企業需拓寬與AI相關之職位,例如讓非傳統背景人員接受交叉培訓、公私協力建立夥伴關係、提高員工職場歸屬感。   在設計包容性方面,必須考慮不同利益相關者之需求,並從設計者、開發者、監督機關等不同角度觀察。本報告將包容性AI開發及治理整個生命週期分為6個不同階段,期望在生命週期中的每個階段皆考量公平性與包容性: 1.了解問題並確定AI解決方案:釐清為何需要部署AI,並設定希望改善的目標變量(target variable),並透過制定包容性社會參與框架或行為準則,盡可能實現包容性社會參與(特別是代表性不足或受保護的族群)。 2.包容性模型設計:設計時需考慮社會和受影響的利益相關者,並多方考量各種設計決策及運用在不同情況時之公平性、健全性、全面性、可解釋性、準確性及透明度等。 3.包容性資料蒐集:透過設計健全的治理及隱私,確定更具包容性的資料蒐集路徑,以確保所建立之模型能適用到整體社會。 4.公平和包容的模型開發及測試:除多元化開發團隊及資料代表性,組織也應引進不同利益相關者進行迭代開發與測試,並招募測試組進行測試與部署,以確保測試人群能夠代表整體人類。且模型可能隨著時間發展而有變化,需以多元化指標評估與調整。 5.公平地部署受信任的AI系統,並監控社會影響:部署AI系統後仍應持續監控,並持續評估可能出現新的利益相關者或使用者,以降低因環境變化而可能產生的危害。 6.不斷循環發展的生命週期:不應以傳統重複循環過程看待AI生命週期,而是以流動、展開及演變的態度,隨時評估及調整,以因應新的挑戰及需求,透過定期紀錄及審查,隨時重塑包容性AI生態系統。   綜上,本報告以包容性AI生態系統及生命週期概念,期望透過基礎設施、教育與培訓、公平的工作環境等,以因應未來無所不在的AI社會與生活,建立公司、政府、教育機構可以遵循的方向。

智慧聯網時代巨量資料法制議題研析-以美國隱私權保護為核心

個人資料保護脈絡下的「綑綁式同意」

TOP