英國BEIS發布第一代(SMETS1)智慧電表相容性公眾諮詢

  英國商業、能源和產業策略部(Business, Energy and Industrial Strategy, BEIS)於2018年4月17日發布公眾諮詢,議題為「最大化第一代(SMETS1)智慧電表的相容性(interoperability)」,該諮詢將截止於2018年5月24日。

  英國對於SMETS1的推廣分為兩階段進行,基礎建設階段始於2011年,主要安裝階段則於2016年11月開始,國家數據及通訊供應商-資料通訊公司(Data Communications Company, DCC)自此階段開始營運,直至2020年智慧電表建置完成。

  因現今由各能源供應商使用自身資料及通訊設備裝設第一代智慧型電表,造成消費者無法任意更換能源供應商之情況。對此,英國政府之長期政策目標雖為SMETS1最終可全數透過DCC進行運作,然由於現階段尚未強制能源供應商使用DCC所提供之服務,使用SMETS1的消費者仍無法自由的轉換能源供應商。

  本文件提出了兩個方案向公眾諮詢:

  1. 要求能源供應商於六個月時限內至DCC註冊其所提供且合於規範的SMETS1,或將SMETS1更換為SMETS2(第二代智慧電表)。而於2020年12月31日前,所有未註冊之SMETS1將強制更換為SMETS2。
  2. 若能源供應商已嘗試所有合適的解決方法,仍無法於2019年底前使SMETS1在智慧模式下運作,就必須在2020年6月底前將SMETS1更換為SMETS2。 若供應商係於2019年後才取得SMETS1,於獲得SMETS1之後的六個月內採取所有相關措施後仍無法令SMETS1以智慧模式運作,亦應更換為SMETS2。最終,所有不能運行智慧模式之SMETS1將於2020年12月31日前被完全汰換。

  英國政府期透過更完善的政策規劃改善現階段SMETS1透過個別能源供應商之數據及通訊系統運作之情況,以確保SMETS1之智慧模式於消費者更換供應商時能維持正常運作,使消費者可確實獲取改用智慧電表之利益。我國於2015年已開始推動低壓智慧電表建置,英國面臨之問題值得借鏡,政府於推廣低壓智慧電表之同時應注意智慧電表基礎設施之相容性,以增進低壓智慧電表建置效率及降低建置成本。

本文為「經濟部產業技術司科技專案成果」

相關連結
相關附件
※ 英國BEIS發布第一代(SMETS1)智慧電表相容性公眾諮詢, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8034&no=55&tp=1 (最後瀏覽日:2026/04/21)
引註此篇文章
你可能還會想看
日本垃圾電郵法制2005年修正動態

英國金融行為監督總署公布《加密資產指引》諮詢文件

  英國金融行為監督總署(Financial Conduct Authority, FCA)與英國財政部、英格蘭銀行於2018年3月共同組成「加密資產專案小組」(Cryptoasset Taskforce),為英國政府「金融科技產業戰略」(Fintech Sector Strategy)之一環。2019年1月23日,FCA公布《加密資產指引》(Guidance on Cryptoassets)諮詢文件,除在配合加密資產專案小組之調查、研究外,亦在於落實FCA作為金融監理主管機關,盤點及釐清法規適用之職責,以妥適因應金融科技發展。公眾意見徵集期間至2019年5月4日,FCA並預計在同年夏季提出最終版本的報告。   依據《加密資產指引》,FCA臚列了四項監理代幣(token)可能的法源依據,包含: (1)受監管活動指令(Regulated Activities Order)下的「特定投資項目」。 (2)歐盟金融工具市場指令II(MiFID II)下的「金融工具」。 (3)電子貨幣條例(E-Money Regulations)下之「電子貨幣」。 (4)支付服務條例(Payment Services Regulations)。   由於加密資產市場與分散式記帳技術發展迅速,參與者迫切需求更清晰之監理規範,包含交易匯兌、主管機關等,避免因誤觸受管制之活動(regulated activities)而遭受裁罰。其次,FCA亦希望能強化消費者保護,依照加密資產商品類型,讓消費者知道可以尋求何種法律上之保障。

英國發布《資料主體近用權指引》說明資料近用權法遵重點及實例解析

  英國資訊委員辦公室(Information Commissioner’s Office, ICO)於2020年10月21日發布《資料主體近用權指引》(Guidance of Right of access),針對資料主體行使資料近用權之請求(Data Subject Access Request, DSAR),受請求之機構應如何進行識別判斷、簡化處理方式,以及特殊例外情況等法遵重點提供指導方針,並進行實例說明解析,以幫助受請求之機構在面臨資料主體之近用權請求時能快速且有效的處理。   英國「個人資料保護法」(The Data Protection Act 2018)依據歐盟「一般資料保護規則」(GDPR)於2018年重新修訂,其中資料近用權更是對於資料主體相當重要的基本權利,進而影響受請求之機構必須了解如何有效率的處理資料近用權之請求,並確實履行其在法規上所要求的保護義務,主要分為三點: 在資料主體確認其資料近用權所欲請求的範圍之前,受請求之機構依法應回覆時限應予以暫停,以利受請求之機構能有更充裕完整的時間釐清及回應資料主體之近用權請求。 為了避免受請求之機構耗費大量時間判斷何謂「明顯過度之請求」(manifestly excessive request),該指引提供相關定義說明及判別標準。 針對「明顯過度之請求」收取處理費用所包含的項目,例如受請求之機構處理請求所增加人力行政成本,在受請求之機構收取處理費用時可將其納入斟酌。

德國向歐盟提交《人工智慧白皮書-歐洲卓越與信任概念》及《人工智慧,物聯網和機器人技術對安全和責任之影響報告》意見

  德國聯邦政府於2020年6月29日,針對歐盟執委會於2020年2月19日公布的《人工智慧白皮書-歐洲卓越與信任概念》(Weißbuch zur Künstlichen Intelligenz – ein europäisches Konzept für Exzellenz und Vertrauen)及《人工智慧,物聯網和機器人技術對安全和責任之影響報告》(Bericht über die Auswirkungen künstlicher Intelligenz, des Internets der Dinge und der Robotik in Hinblick auf Sicherheit und Haftung) 提交意見,期能促進以負責任、公益導向、以人為本的人工智慧開發及使用行為,並同時提升歐盟的競爭力及創新能力。   歐盟執委會所發布的人工智慧的白皮書及人工智慧對安全和責任的影響報告,一方面可促進人工智慧使用,另一方面則藉此提醒相關風險。本次意見主要集結德國聯邦經濟與能源部、教育與研究部、勞動與社會事務部、內政、建築及社區部以及司法與消費者保護部之意見。德國政府表示,投資人工智慧為重要計畫之一,可確保未來的創新和競爭力,以及應對諸如COVID-19疫情等危機。最重要的是,可透過人工智慧的應用扶持中小型公司。然而在進行監管時,必須注意應促進技術發展而非抑制創新。   在《人工智會白皮書-歐洲卓越與信任概念》中指出,人工智慧發展應在充分尊重歐盟公民的價值觀和權利的前提下,實現AI的可信賴性和安全發展之政策抉擇,並於整體價值鏈中實現「卓越生態系統」(Ökosystem für Exzellenz),並建立適當獎勵機制,以加速採用AI技術為基礎之解決方案。未來歐洲AI監管框架將創建一個獨特的「信任生態系統」(Ökosystem für Vertrauen),並確保其能遵守歐盟法規,包括保護基本權利和消費者權益,尤其對於在歐盟營運且具有高風險的AI系統更應嚴格遵守。此外,應使公民有信心接受AI,並提供公司和公共組織使用AI進行創新之法律確定性。歐盟執委會將大力支持建立以人為本之AI開發方法,並考慮將AI專家小組制定的道德準則投入試行階段。德國政府指出,除了要制定並遵守歐洲AI的監管政策外,應特別注重保護人民之基本權,例如個人資料與隱私、消費者安全、資料自決權、職業自由、平等待遇等,並呼籲國際間應密切合作,運用人工智慧技術克服疫情、社會和生態永續性等挑戰。另外,德國政府亦支持將人工智慧測試中心與真實實驗室(監理沙盒場域)相結合,以助於加速企業實際運用,也將帶頭促進AI在公部門之運用。   在《人工智慧,物聯網和機器人技術對安全和責任之影響報告》中則指出,歐洲希望成為AI、IoT和機器人技術的領導者,將需要清楚、可預測的法律框架來應對技術的挑戰,包括明確的安全和責任框架,以確保消費者保護及企業合法性。AI、IoT和機器人技術等新數位技術的出現,將對產品安全性和責任方面出現新挑戰,而在當前的產品安全法規上,缺乏相關規範,特別是在一般產品的安全指令,機械指令,無線電設備指令等,未來將以一致地在各框架內針對不同法律進行調修。在責任方面,雖然原則上現有法令尚仍可應對新興技術,但人工智慧規模的的不斷變化和綜合影響,將可能增加對受害者提供賠償的困難度,導致不公平或效率低下的情形產生,為改善此一潛在不確定性,可考慮在歐盟層級調修產品責任指令和國家責任制度,以顧及不同AI應用所帶來的不同風險。德國政府除了支持歐盟作法,在創新與監管取得平衡,更強調應不斷檢視產品安全和產品責任法是否可滿足技術發展,尤其是對重要特定產業的要求,甚至修改舉證責任。並可透過標準化制定,加速人工智慧相關產品與服務的開發。另外,應依照風險高低擬定分類方法,並建議創建高風險AI系統之註冊與事故報告義務,以及相關數據保存、記錄及資料提供之義務,針對低風險AI應用則採自願認證制度。

TOP