英國BEIS發布第一代(SMETS1)智慧電表相容性公眾諮詢

  英國商業、能源和產業策略部(Business, Energy and Industrial Strategy, BEIS)於2018年4月17日發布公眾諮詢,議題為「最大化第一代(SMETS1)智慧電表的相容性(interoperability)」,該諮詢將截止於2018年5月24日。

  英國對於SMETS1的推廣分為兩階段進行,基礎建設階段始於2011年,主要安裝階段則於2016年11月開始,國家數據及通訊供應商-資料通訊公司(Data Communications Company, DCC)自此階段開始營運,直至2020年智慧電表建置完成。

  因現今由各能源供應商使用自身資料及通訊設備裝設第一代智慧型電表,造成消費者無法任意更換能源供應商之情況。對此,英國政府之長期政策目標雖為SMETS1最終可全數透過DCC進行運作,然由於現階段尚未強制能源供應商使用DCC所提供之服務,使用SMETS1的消費者仍無法自由的轉換能源供應商。

  本文件提出了兩個方案向公眾諮詢:

  1. 要求能源供應商於六個月時限內至DCC註冊其所提供且合於規範的SMETS1,或將SMETS1更換為SMETS2(第二代智慧電表)。而於2020年12月31日前,所有未註冊之SMETS1將強制更換為SMETS2。
  2. 若能源供應商已嘗試所有合適的解決方法,仍無法於2019年底前使SMETS1在智慧模式下運作,就必須在2020年6月底前將SMETS1更換為SMETS2。 若供應商係於2019年後才取得SMETS1,於獲得SMETS1之後的六個月內採取所有相關措施後仍無法令SMETS1以智慧模式運作,亦應更換為SMETS2。最終,所有不能運行智慧模式之SMETS1將於2020年12月31日前被完全汰換。

  英國政府期透過更完善的政策規劃改善現階段SMETS1透過個別能源供應商之數據及通訊系統運作之情況,以確保SMETS1之智慧模式於消費者更換供應商時能維持正常運作,使消費者可確實獲取改用智慧電表之利益。我國於2015年已開始推動低壓智慧電表建置,英國面臨之問題值得借鏡,政府於推廣低壓智慧電表之同時應注意智慧電表基礎設施之相容性,以增進低壓智慧電表建置效率及降低建置成本。

本文為「經濟部產業技術司科技專案成果」

相關連結
相關附件
※ 英國BEIS發布第一代(SMETS1)智慧電表相容性公眾諮詢, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8034&no=57&tp=1 (最後瀏覽日:2026/03/04)
引註此篇文章
你可能還會想看
臉書改名Meta,宣告元宇宙的時代來臨

  Facebook宣布改名為「Meta」,決心投入巨額資金發展虛擬實境並研發相關app提供用戶社交會面和辦公場所,藉此定位自己為元宇宙(Metaverse)公司。臉書創辦人Mark Zuckerberg在今(2021)年10月28日宣告將「Facebook」改名為「Meta」的公開信中提及,在元宇宙中,您幾乎能做到所有能想像到的事情,與朋友和家人聚會、工作、學習、購物等行為。   元宇宙這名詞是如此新穎,以至於沒有一個被普遍接受的定義。它被認為是網路的未來。由臉書創辦人上述的公開信可以得知,元宇宙是個讓使用者能身歷其境且包羅萬象的世界,將超脫電玩與娛樂而進入工作和商業的領域。現實生活中一切的行為幾乎都可以在元宇宙中進行,也因此,現實世界的法律問題,也可能發生在元宇宙中,進而影響法律秩序。   隨著區塊鏈和加密貨幣這類科技被廣泛採用,在元宇宙或Web3.0這樣的虛擬空間經營公司、買賣持有商品將順勢發展而來。財產的標記化(tokenization)也意味著任何實體或虛擬物的所有權可以被認證,也在無法竄改的帳本擁有權限碼,使得虛擬世界的交易更可靠。   非同質化代幣(Non-Fungible Tokens,下稱NFTs)是近來彰顯所有權的新興表現方式,這將會在元宇宙的經濟體系中扮演重要角色。所有因契約、租約而來的財產將被標記化,使人們有可能在Opensea這樣的平台購買數位土地、數位房產或者任何其他的數位虛擬物品,且一樣能證明所有權。可以說,數位財產標記化將對法律業產生最大影響。元宇宙將很有可能發展出一個數位城市,使消費者們能在數位世界購買土地,在土地上面建造房屋且將透過NFTs把房子放滿藝術品。消費者們可以好好裝扮自己在元宇宙內的分身,買電影院或者演唱會的票。所有的商品和服務可以透過NFTs標示所有權的方式跟企業購買。   在元宇宙裡,交易行為將與現實世界一模一樣。財產可以被交易、關係可以被建立,也可以成立公司,更會創造出智慧財產,也會產生著作權的爭端,或者發生利用數位資產洗錢、逃漏稅等新型態的犯罪,但元宇宙中的行為人與現實世界行為人不一定有明確連結,使得執法機關更難以追查,甚至產生管轄權之衝突。在元宇宙中存在和營運的公司也如同現實世界一樣,需要法律專家和保險制度降低他們的風險。   元宇宙對法律產業和監管機構帶來的影響是多方面的。Facebook,或者說改名後的Meta,有意激發世人對元宇宙的討論以及關注元宇宙的發展,而律師們和法律事務所也必須熟稔於這個領域,以應付那些即將要投入這項產業的客戶們。

歐盟「人工智慧法」達成政治協議,逐步建立AI準則

歐盟「人工智慧法」達成政治協議, 逐步建立AI準則 資訊工業策進會科技法律研究所 2023年12月25日 隨著AI(人工智慧)快速發展,在各領域之應用日益廣泛,已逐漸成為國際政策、規範、立法討論之重點。其中歐盟人工智慧法案(Artificial Intelligence Act, AI Act,以下簡稱AIA法案)係全球首部全面規範人工智慧之法律架構,並於2023年12月9日由歐洲議會及歐盟部長歷史會達成重要政治協議[1],尚待正式批准。 壹、發佈背景 歐洲議會及歐盟部長理事會針對AIA法案已於本年12月9日達成暫時政治協議,尚待正式批准。在法案普遍實施前之過渡期,歐盟執委會將公布人工智慧協定(AI Pact),其將號召來自歐洲及世界各地AI開發者自願承諾履行人工智慧法之關鍵義務。 歐盟人工智慧法係歐盟執委會於2021年4月提出,係全球首項關於人工智慧的全面法律架構,該項新法係歐盟打造可信賴AI之方式,將基於AI未來可證定義(future proof definition),以等同作法直接適用於所有會員國[2]。 貳、內容摘要 AIA法案旨在確保進入並於歐盟使用之AI人工智慧系統是安全及可信賴的,並尊重人類基本權利及歐盟價值觀,在創新及權利義務中取得平衡。對於人工智慧可能對社會造成之危害,遵循以風險為基礎模式(risk-based approach),即風險越高,規則越嚴格,現階段將風險分為:最小風險(Minimal risk)、高風險(High-risk)、無法接受的風險(Unacceptable risk)、特定透明度風險(Specific transparency risk)[3]。與委員會最初建議版本相比,此次臨時協定主要新增內容歸納如下: 臨時協議確立廣泛域外適用之範圍,包含但不限於在歐盟內提供或部署人工智慧系統的企業[4]。但澄清該法案不適用於專門用於軍事或國防目的之系統。同樣,該協定規定不適用於研究和創新目的之人工智慧系統,也不適用於非專業原因之個人AI使用。 臨時協議針對通用AI(General purpose AI)[5]模型,訂定相關規定以確保價值鏈之透明度;針對可能造成系統性風險之強大模型,訂定風險管理與重要事件監管、執行模型評估與對抗性測試等相關義務。這些義務將由執委會與業界、科學社群、民間及其他利害關係人共同制定行為準則(Codes of practices)。 考量到人工智慧系統可用於不同目的之情況,臨時協議針對通用AI系統整合至高風險系統,並就基礎模型部分商定具體規則,其於投放市場之前須遵守特定之透明度義務,另強調對於情緒識別系統有義務在自然人接觸到使用這種系統時通知他們。 臨時協議針對違反禁止之AI應用,罰款金額自3,500萬歐元 或全球年營業額7%(以較高者為準)。針對違反其他義務罰款1,500萬歐元或全球年營業額3%,提供不正確資訊罰 款750萬歐元或全球年營業額1.5%。針對中小及新創企業違反人工智慧法之行政罰款將設定適當之上限。 參、評估分析 在人工智慧系統之快速發展衝擊各國社會、經濟、國力等關鍵因素,如何平衡技術創新帶來之便利及保護人類基本權利係各國立法重點。此次歐盟委員會、理事會和議會共同對其2021年4月提出之AIA法案進行審議並通過臨時協議,係歐洲各國對於現下人工智慧運作之監管進行全面的討論及認可結果,對其他國家未來立法及規範有一定之指引效果。 此次臨時協議主要針對人工智慧定義及適用範圍進行確定定義,確認人工智慧系統產業鏈之提供者及部署者有其相應之權利義務,間接擴大歐盟在人工智慧領域之管轄範圍,並對於人工智慧系統的定義縮小,確保傳統計算過程及單純軟體使用不會被無意中禁止。對於通用人工智慧基礎模型之部分僅初步達成應訂定相關監管,並對基礎模型之提供者應施加更重之執行義務。然由於涉及層面過廣,仍需業界、科學社群、民間及其他利害關係人討論準則之制定。 面對AI人工智慧之快速發展,各國在人工智慧之風險分級、資安監管、法律規範、資訊安全等議題持續被廣泛討論,財團法人資訊工業策進會科技法律研究所長期致力於促進國家科技法制環境,將持續觀測各國法令動態,提出我國人工智慧規範之訂定方向及建議。 本文同步刊登於TIPS網站(https://www.tips.org.tw) [1]Artificial Intelligence Act: deal on comprehensive rules for trustworthy AI,https://www.europarl.europa.eu/news/en/press-room/20231206IPR15699/artificial-intelligence-act-deal-on-comprehensive-rules-for-trustworthy-ai (last visited December 25, 2023). [2]European Commission, Commission welcomes political agreement on Artificial Intelligence Act,https://ec.europa.eu/commission/presscorner/detail/en/ip_23_6473 (last visited December 25, 2023). [3]Artificial intelligence act,P5-7,https://superintelligenz.eu/wp-content/uploads/2023/07/EPRS_BRI2021698792_EN.pdf(last visited December 25, 2023). [4]GIBSON DUNN, The EU Agrees on a Path Forward for the AI Act,https://www.gibsondunn.com/eu-agrees-on-a-path-forward-for-the-ai-act/#_ftn2 (last visited December 25, 2023). [5]General purpose AI-consisting of models that “are trained on broad data at scale, are designed for generality of output, and can be adapted to a wide range of distinctive tasks”, GIBSON DUNN, The EU Agrees on a Path Forward for the AI Act,https://www.gibsondunn.com/eu-agrees-on-a-path-forward-for-the-ai-act/#_ftn2(last visited December 25, 2023).

美國國家標準與技術研究院公布人工智慧風險管理框架(AI RMF 1.0)

美國國家標準與技術研究院(National Institute of Standards and Technology, NIST)於2023年1月26日公布「人工智慧風險管理框架1.0」(Artificial Intelligence Risk Management Framework, AI RMF 1.0),該自願性框架提供相關資源,以協助組織與個人管理人工智慧風險,並促進可信賴的人工智慧(Trustworthy AI)之設計、開發與使用。NIST曾於2021年7月29日提出「人工智慧風險管理框架」草案進行公眾徵詢,獲得業界之建議包含框架應有明確之衡量方法以及數值指標、人工智慧系統設計時應先思考整體系統之假設於真實世界中運作時,是否會產生公平性或誤差的問題等。本框架將隨著各界使用後的意見回饋持續更新,期待各產業發展出適合自己的使用方式。 本框架首先說明人工智慧技術的風險與其他科技的差異,定義人工智慧與可信賴的人工智慧,並指出設計該自願性框架的目的。再來,其分析人工智慧風險管理的困難,並用人工智慧的生命週期定義出風險管理相關人員(AI actors)。本框架提供七種評估人工智慧系統之信賴度的特徵,包含有效且可靠(valid and reliable):有客觀證據證明人工智慧系統的有效性與系統穩定度;安全性(safe):包含生命、健康、財產、環境安全,且應依照安全風險種類決定管理上的優先次序;資安與韌性(secure and resilient);可歸責與資訊透明度(accountable and transparent);可解釋性與可詮譯性(explainable and interpretable);隱私保護(privacy-enhanced);公平性—有害偏見管理(fair – with harmful bias managed)。 本框架亦提出人工智慧風險管理框架核心(AI RMF Core)概念,包含四項主要功能:治理、映射(mapping)、量測與管理。其中,治理功能為一切的基礎,負責孕育風險管理文化。各項功能皆有具體項目與子項目,並對應特定行動和結果產出。NIST同時公布「人工智慧風險管理框架教戰手冊」(AI RMF Playbook),提供實際做法之建議,並鼓勵業界分享其具體成果供他人參考。

法國高等教育暨研究部宣布額外投資新創企業培育計畫,強化產業競爭力與發展深度技術

為強化產業競爭力與發展深度技術,法國高等教育暨研究部(Ministère de l'enseignement supérieur et de la recherche)於2023年1月9日宣布將額外投資5億歐元,以培育更多的研究型新創企業。 基於2021年10月12日法國總統宣布的《法國2030投資計畫》(France 2030),法國政府將於五年內投入540億歐元於新創相關事務,且目前已於2022年達到成立25間獨角獸公司的中期目標。為進一步提高學研機構以研發成果衍生新創之數量,讓新創公司數量成長2倍,法國高等教育暨研究部部長Sylvie Retacleau與法國產業部(Ministre chargé de l'Industrie)部長Roland Lescure提出以下三大行動,並額外投資5億歐元執行: (1)建立25個大學創新中心(Pôles Universitaires d'Innovation, PUI):法國政府將投入1.6億歐元,在大學網站上提供創新戰略、單一治理及敏捷方法,藉此激發研發團隊潛力及創意。PUI將在不額外增設法律規範之情況下,與現有政策結合推動上述措施。 (2)透過既有措施推動深度科技:透過i-Lab、法國科技新興獎學金、深度技術發展援助計畫等現有措施,以及增設法國科技實驗室獎學金,加速深度技術發展計畫。此外,未來也將提供6500萬歐元的補助。 (3)加強推廣研究工作及專題研究計畫(Programmes et équipements prioritaires de recherché, PEPR)成果:未來法國政府將投入2.75億歐元,挑選17項研究成果,建立評估研發成果之檢測及支援能力,並依領域性質,研究各領域專利證書、標準化和相關法規。

TOP