歐盟執委會(European Commission)於2022年7月29日提出《近用電錶及用電資料之相互操作性要求及非歧視性與透明性程序實施規則草案》(Commission Implementing Regulation (EU) on interoperability requirements and non-discriminatory and transparent procedures for access to metering and consumption data),於2022年9月5日草案第二階段之公眾意見徵集結束。本草案以進一步落實《內部電力市場指令》(Directive (EU) 2019/944)中賦予用戶近用有關用電及包括行政手續費用、使用輸配電過路費等資料,促進智慧電錶系統(smart metering system)於資料模型階段及應用層面之相互操作性(interoperability),提高市場參與者資料近用與交換之標準,以及未來創新能源服務標準等目標。 為落實上述指令之要求,本草案旨在規定系統相互操作性以及資料近用的非歧視性與透明性要求,其重點如下:
(1)本草案適用對象為經認證之歷史計量及用電資料、未經認證的近即時計量(non-validated near-real time metering)、用電資料形式的計量以及用電資料。
(2)確保供應商於用戶同意下能夠以透明且連續性的方式近用用戶資料(包括判讀及使用)。用戶亦得近用其於智慧電錶系統的資料。
(3)根據會員國的實踐,定義歐盟層級在商業模式層面、功能層面及資訊層面等一般性規則與程序規定的「參考模型」(reference model)。參考模型為特定服務及程序所需的基本工作程序,包括:
A. 由各種角色、職責及其相互作用組成的「角色模型」,包括計量資料管理員(metered data administrator)、計量站管理員(metering point administrator)、資料近用提供者及權限管理員的角色和職責;
B. 由資訊對象、屬性以及該對象間關係組成的「資訊模型」;
C. 詳細說明程序步驟的「程序模型」。
(4)為有效確保資料近用程序的透明度,有必要收集會員國提供的國家實踐報告,並報告至歐盟層級,同時協助會員國報告其國家實踐。
(5)適用本草案之個人資料需遵守《歐盟一般資料保護規則》(GDPR);由於智慧電錶符合終端設備的要求,也適用《電子通訊個人資料處理暨隱私權保護指令》(Directive 2002/58/EC)。
本文為「經濟部產業技術司科技專案成果」
因應生成式AI(Generative AI)快速發展,日本經產省和總務省彙整及更新自2017年起陸續發布之各項AI指引,於2024年1月19日共同公布「AI業者指引草案」(AI事業者ガイドライン案,以下簡稱指引),公開向民眾徵集意見。上述草案除提出AI業者應遵守以人為本、安全性、公平性、隱私保護、透明性、問責性、公平競爭、創新等共通性原則外,並進一步針對AI開發者(AI Developer)、AI提供者(AI Provider)及AI利用者(AI Business User)提出具體注意事項,簡述如下: (1)AI開發者:研發AI系統之業者。由於在開發階段設計或變更AI模型將影響後續使用,故指引認為開發者應事先採取可能對策,並在倫理和風險之間進行權衡,避免因重視正確性而侵害隱私或公平性,或因過度在意隱私保護而影響透明性。此外,開發者應盡量保留紀錄,以便於預期外事故發生時可以進行說明。 (2)AI提供者:向AI使用者或非業務上使用者提供AI系統、產品或服務之業者。提供者應以系統順利運作及正常使用為前提,提供AI系統和服務,並避免侵害利害關係人之利益。 (3)AI使用者:基於商業活動使用AI系統或服務之業者。使用者應於提供者所設定之範圍內使用AI,以最大限度發揮AI效益,提高業務效率及生產力。
歐盟公布人工智慧白皮書歐盟執委會於2020年2月19日發表《人工智慧白皮書》(White Paper On Artificial Intelligence-A European approach to excellence and trust)指出未來將以「監管」與「投資」兩者並重,促進人工智慧之應用並同時解決該項技術帶來之風險。 在投資方面,白皮書提及歐洲需要大幅提高人工智慧研究和創新領域之投資,目標是未來10年中,每年在歐盟吸引超過200億歐元關於人工智慧技術研發和應用資金;並透過頂尖大學和高等教育機構吸引最優秀的教授和科學家,並在人工智慧領域提供世界領先的教育課程。 而在監管方面,白皮書提到將以2019年4月發布之《可信賴之人工智慧倫理準則》所提出之七項關鍵要求為基礎,未來將制定明確之歐洲監管框架。在監管框架下,應包括下列幾個重點:1.有效實施與執行現有歐盟和國家法規,例如現行法規有關責任歸屬之規範可能需要進一步釐清;2.釐清現行歐盟法規之限制,例如現行歐盟產品安全法規原則上不適用於「服務」或是是否涵蓋獨立運作之軟體(stand-alone software)有待釐清;3.應可更改人工智慧系統之功能,人工智慧技術需要頻繁更新軟體,針對此類風險,應制定可針對此類產品在生命週期內修改功能之規範;4.有效分配不同利害關係者間之責任,目前產品責任偏向生產者負責,而未來可能須由非生產者共同分配責任;5.掌握人工智慧帶來的新興風險,並因應風險所帶來之變化。同時,白皮書也提出高風險人工智慧應用程式的判斷標準與監管重點,認為未來應根據風險來進行不同程度之監管。執委會並透過網站向公眾徵求針對《人工智慧白皮書》所提出建議之諮詢意見,截止日期為2020年5月19日。
RFID應用與相關法制問題研析-個人資料在商業應用上的界限 美國情報體系發布「情報體系運用人工智慧倫理架構」美國國家情報體系(United States Intelligence Community)係於1981年依據行政命令第12333號(Executive Order 12333)所建立,其任務為蒐集、分析與提供外國情報與反情報資訊美國國家領導人,服務對象包含美國總統、執法單位以及軍事單位。其於2020年6月提出「情報體系人工智慧倫理架構」(Artificial Intelligence Ethics Framework for the Intelligence Community),為人工智慧系統與訓練資料、測試資料之採購、設計、研發、使用、保護、消費與管理提出指引,並指出人工智慧之利用須遵從以下事項: 一、於經過潛在風險評估後,以適當且符合目的之方法利用; 二、人工智慧之使用應尊重個人權利與自由,且資料取得應合法且符合相關政策與法規之要求; 三、應於利用程序內結合人類判斷與建立問責機制,以因應AI產品之風險並確保其決策之適當性。 四、於不破壞其功能與實用性之前提下,盡可能確認、統計以及降低潛在之歧視問題。 五、AI進行測試時應同時考量其未來利用上可預見之風險。 六、持續維持AI模型之迭代(Iteration)、版本與改動之審查。 七、AI之建立目的、限制與設計之輸出項目,應文件化。 八、盡可能使用可解釋與可理解之方式,讓使用者、審查者與公眾理解為何AI會產出相關決策。 九、持續不定期檢測AI,以確保其符合當初建置之目的。 十、確認AI於產品循環中各階段之負責人,包含其維護相關紀錄之責任。