人工智慧(Artificial Intelligence, AI)的應用,已逐漸滲透到日常生活各領域中。為提升AI運用之效益,減少AI對個人與社會帶來之負面衝擊,英國資訊委員辦公室(Information Commissioner’s Office, ICO)於2019年3月提出「AI稽核框架」(Auditing Framework for Artificial Intelligence),作為確保AI應用合乎規範要求的方法論,並藉機引導公務機關和企業組織,評估與管理AI應用對資料保護之風險,進而建構一個可信賴的AI應用環境。
AI稽核框架主要由二大面向所構成—「治理與可歸責性」(governance and accountability)以及「AI特定風險領域」(AI-specific risk areas)。「治理與可歸責性」面向,係就公務機關和企業組織,應採取措施以遵循資料保護規範要求的角度切入,提出八項稽核重點,包括:風險偏好(risk appetite)、設計階段納入資料保護及透過預設保護資料(data protection by design and by default)、領導管理與監督(leadership management and oversight)、政策與程序(policies and procedures)、管理與通報架構(management and reporting structures)、文書作業與稽核紀錄(documentation and audit trails)、遵循與確保能力(compliance and assurance capabilities)、教育訓練與意識(training and awareness)。
「AI特定風險領域」面向,則是ICO特別針對AI,盤點下列八項潛在的資料保護風險,作為風險管理之關注重點:
一、 資料側寫之公平性與透明性(fairness and transparency in profiling);
二、 準確性(accuracy):包含AI開發過程中資料使用之準確性,以及應用AI所衍生資料之準確性;
三、 完全自動化決策模型(fully automated decision making models):涉及人類介入AI決策之程度,歐盟一般資料保護規則(General Data Protection Regulation, GDPR)原則上禁止無人為介入的單純自動化決策;
四、 安全性與網路(security and cyber):包括AI測試、委外處理資料、資料重新識別等風險;
五、 權衡(trade-offs):不同規範原則之間的取捨,如隱私保護與資料準確性;
六、 資料最少化與目的限制(data minimization and purpose limitation);
七、 資料當事人之權利行使(exercise of rights);
八、 對廣泛公共利益和權利之衝擊(impact on broader public interests and rights)。
ICO將持續就前述AI特定風險領域,進行更深入的分析,並開放公眾討論,未來亦將提供相關技術和組織上之控制措施,供公務機關及企業組織進行稽核實務時之參考。
歐盟執委會(European Commission)於2021年4月21日提出「人工智慧法律調和規則草案」(Proposal for a Regulation Laying Down Harmonised Rules on Artificial Intelligence (Artificial Intelligence Act) and Amending Certain Union Legislative Acts)(簡稱AI規則草案),旨在平衡「AI運用所帶來的優勢」與「AI對個人或社會所帶來的潛在負面衝擊」,促使會員國在發展及運用AI時,能採取協調一致的態度及方法,共同維護歐洲公民基本權利與歐盟價值。 歐盟自2019年起即倡議發展「值得信賴的AI」(Trustworthy AI)。AI規則草案之提出,除了落實執委會2019年至2024年之政策願景外,亦呼應2020年歐洲議會(European Parliament)之建議—針對AI應用之機會與利益採取立法行動,並確保合乎倫理原則。惟鑒於歐盟在環境、健康、公共事務、金融、交通、農業等領域對AI應用之高度需求,以及企業仰賴AI技術提升競爭優勢等因素,執委會係以「風險為基礎」之概念取向(risk-based approach)制定AI規則草案,避免對新技術發展造成不必要的限制或阻礙。 本規則草案將AI系統,依其「對歐盟基本權利或價值所創造的風險程度」,分為下列三種類型,並施以不同程度的監理方式: 一、不可接受之風險:原則上禁止使用此類型AI系統或使其進入歐盟市場。例如:利用潛意識技術操控個人、在公共場合利用「即時遠端生物辨識系統」進行執法、公務機關普遍對個人進行社會評分等。 二、高風險:於附錄中列出所謂高風險AI系統,要求高風險AI系統之提供者遵循風險管理、資料治理、文件紀錄保存、透明性與資訊揭露、人為監督、健全性、準確性與資安等要求;且AI系統進入歐盟市場前,需進行符合性評估(conformity assessment),進入市場後,則需持續監控。 三、非不可接受之風險亦非高風險:鼓勵AI系統提供者或使用者,自願建立行為準則(codes of conduct)。 AI規則草案亦鼓勵會員國建立AI監理沙盒(regulatory sandbox)機制,且以中小企業、新創公司為優先對象,使創新AI系統進入市場之前,能於可控環境中依明確計畫進行開發、測試與驗證。
智慧聯網時代巨量資料法制議題研析-以美國隱私權保護為核心 紐西蘭隱私專員辦公室「揭露涉及隱私案件之機關名稱」政策生效紐西蘭隱私專員辦公室日前針對「是否及如何揭露涉及隱私案件之機關(公務機關或非公務機關)名稱」發布政策;該政策自2014年12月1日起生效。 根據紐西蘭1993年隱私法的規定,隱私專員可決定公開有助於貫徹隱私法立法意旨的資訊等;只要符合此規定,原則上隱私專員也可揭露涉及所調查隱私案件之機關名稱。據此,紐西蘭隱私專員辦公室即於日前針對是否及如何揭露上述機關名稱制定並公布政策。 須說明的是,即使機關確有違法情事,其名稱亦不必然會被揭露,如果有法律上原因或有理由認定不適揭露時,則隱私專員將不會簽署授權揭露之文件。 根據該政策,如機關違反隱私法之行為將導致難以回復之損害、其行為將導致嚴重之後果、該機關被認定為故意違反法律、揭露機關名稱有利於公益,或存在不揭露機關名稱將導致同領域、產業之其他機關受到不合理之牽連或不利益等情形時,則違反機關之名稱較可能被揭露。反之,如果僅屬單一事件、機關之行為較不至於致不利影響,或存在揭露機關名稱反不利於公益等情形時,則機關名稱則較可能不會被揭露。
日本公告修正電業法(電気事業法),將放寬電力工作物定義,並新增電力事業類型日本於2020年(令和2年)6月12日公告修正「電業法」(電気事業法,以下簡稱新電業法),並預計於2022年(令和4年)4月1日正式施行。本次修正有以下兩個重點:(1)調整電力工作物之定義;(2)新增電力事業之種類,以符合國際技術及市場之變遷。 日本新電業法調整了電力工作物之定義,將儲能設備納入了電力工作物之定義中,日本新電業法下所謂電力工作物係指:「為了發電、儲能、變電、輸電、配電或其他以電力使用為目的而設置之機械、器具、水壩、水道、蓄水池、電路、電線或其他工作物(但船舶、車輛或航空器等,則依其他法令定之)。」此外,日本新電業法也於電力事業之種類下,新增了「特定電力批發業」(特定卸供給業)此一新型電力事業。依日本新電業法對於「特定電力批發業」之定義,所謂「特定電力批發業」,係指:「自其他發電及儲能設備設置者(但不包含發電業者)處聚合其發出或放出之電力而再向售電業、一般輸配電業、輸電業、特定輸電業供應電力者。」又依日本經濟產業省規劃,「特定電力批發業」得自行設置儲能設備,自產消合一之用電戶(prosumer)之儲能設備或發電設備(包含但不限於再生能源)購入電力,並轉而再至電力交易市場向其他售電業者販售電力;但「特定電力批發業」不得直接從發電業者或其他售電業購買電力,也不得直接售電予用電戶,故特定電力批發制度實際上是旨在賦予聚合商(アグリゲーター)參與市場之地位。