歐盟2019電子政府基準報告

  歐盟執委會(European Commission, EC)於2019年10月18日發布電子政府基準報告(eGovernment Benchmark 2019: trust in government is increasingly important for people)。電子政府基準是歐盟的年度檢測工具,用以確認公部門中資通訊技術使用狀況,亦是歐盟2016-2020年的重點政策之一:2016年4月,歐盟執委會發布「歐盟e政府四年行動計畫」(EU eGovernment Action Plan 2016-2020),歐盟應致力落實「公共行政現代化」、「跨境數位行動服務」和「加強公部門與公民和企業的數位互動」等三面向。電子政府基準報告即因應此一政策方向而生。

  電子政府基準的評測指標有四:以使用者為中心(User centricity)、透明度(Transparency)、跨境移動(Cross-border mobility)、其他關鍵促成因素(Key enablers)。報告中評估2019年總體表現最佳的國家是馬爾他、奧地利等;立陶宛和芬蘭等國則為其次;表現低於平均者則多為東南歐國家。報告中亦提到,現階段公民已十分容易在機關官網上取得所需資訊,但相較於提供給一般公民的服務,機關官網對企業提供之服務通常更加完整及清楚。另外,在推行各項電子政府措施時,公民對政府的信任益發重要。唯有公民信任該機關,包含對機關安全在線服務、個人資料透明度、公共網路安全等的信賴,機關數位化改革才能常態運作。因此,電子政府的發展是建立在人們信任相關數位服務,並與政府交流時更容易知悉並利用該服務。

  再觀我國電子化政府之發展,自民國87年至今已進入第五階段。初期致力建設政府骨幹網路和電子認證、90年代持續深化及擴大政府網路應用,並推動10大旗艦計畫實現網路政府主動、分眾、持續及紮根之服務。101年後建構電子化政府之設備、網路和應用服務,發展資訊服務系統整合、全程服務及跨部門協調。近期分別有「第五階段電子化政府計畫-數位政府」和「服務型政府推動計畫」,以資料驅動、公私協力、以民為本之核心理念,透過巨量資料、開放資料和服務個人化等工具,發展跨機關一站式整合服務及打造多元協作環境,落實數位政府服務。

本文為「經濟部產業技術司科技專案成果」

相關連結
※ 歐盟2019電子政府基準報告, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8375&no=57&tp=1 (最後瀏覽日:2026/02/02)
引註此篇文章
你可能還會想看
南韓個資保護委員會發布人工智慧(AI)開發與服務處理公開個人資料指引

南韓個資保護委員會(Personal Information Protection Commission, PIPC)於2024年7月18日發布《人工智慧(AI)開發與服務處理公開個人資料指引》(인공지능(AI) 개발·서비스를 위한 공개된 개인정보 처리 안내서)(以下簡稱指引)。該指引針對AI開發與服務處理的公開個人資料(下稱個資)制定了新的處理標準,以確保這些資料在法律上合規,且在使用過程中有效保護用戶隱私。 在AI開發及服務的過程中,會使用大量從網路上收集的公開資料,這些公開資料可能包含地址、唯一識別資訊(unique identifiable information, UII)、信用卡號等個資。這些公開的個資是指任意人可藉由網路抓取技術自公開來源合法存取的個資,內容不限於個資主體自行公開的資料,還包括法律規定公開的個資、出版物和廣播媒體中包含的個資等。由於公開資料眾多,在現實中很難在處理這些公開個資以進行AI訓練之前,取得每個個資主體的單獨同意及授權,同時,南韓對於處理這些公開個資的現行法律基礎並不明確。 為解決上述問題,PIPC制定了該指引,確認了蒐集及利用公開個資的法律基礎,並為AI開發者和服務提供者提供適用的安全措施,進而最小化隱私問題及消除法律不確定性。此外,在指引的制定過程中,PIPC更參考歐盟、美國和其他主要國家的做法,期以建立在全球趨勢下可國際互通的標準。 指引的核心內容主要可分為三大部分,第一部分:應用正當利益概念;第二部分:建議的安全措施及保障個資主體權利的方法;及第三部分:促進開發AI產品或服務的企業,在開發及使用AI技術時,注意可信任性。 針對第一部分,指引中指出,只有在符合個人資料保護法(Personal Information Protection Act, PIPA)的目的(第1條)、原則(第3條)及個資主體權利(第4條)規定範圍內,並滿足正當利益條款(第15條)的合法基礎下,才允許蒐集和使用公開個資,並且需滿足以下三個要求:1.目的正當性:確保資料處理者有正當的理由處理個資,例如開發AI模型以支持醫療診斷或進行信用評級等。2.資料處理的必要性:確保所蒐集和利用的公開資料是必要且適當的。3.相關利益評估:確保資料處理者的正當利益明顯超越個資主體的權利,並採取措施保障個資主體的權利不被侵犯。 而第二部分則可區分為技術防護措施、管理和組織防護措施及尊重個資主體權利規定,其中,技術防護措施包括:檢查訓練資料來源、預防個資洩露(例如刪除或去識別化)、安全存儲及管理個資等;管理和組織防護措施包括:制定蒐集和使用訓練資料的標準,進行隱私衝擊影響評估(PIA),運營AI隱私紅隊等;尊重個資主體權利規定包括:將公開資料蒐集情形及主要來源納入隱私政策,保障個資主體的權利。 最後,在第三部分中,指引建議AI企業組建專門的AI隱私團隊,並培養隱私長(Chief Privacy Officers, CPOs)來評估指引中的要求。此外,指引亦呼籲企業定期監控技術重大變化及資料外洩風險,並制定及實施補救措施。 該指引後續將根據PIPA法規修訂、AI技術發展及國際規範動向持續更新,並透過事前適當性審查制、監管沙盒等途徑與AI企業持續溝通,並密切關注技術進步及市場情況,進而推動PIPA的現代化。

FDA公布修訂行動醫療APP指導原則

  美國於2015年2月5日公布修訂之行動醫療應用程式指導原則(Mobile Medical Applications, Guidance for Industry and Food and Drug Administration Staff),取代原先在2013年9月公布之版本。本次的修訂主要是將美國2015年2月9日公布之醫療設備資訊系統、醫療影像儲存設備、及醫療影像傳輸設備指導原則(Medical Device Data Systems, Medical Image Storage Devices, and Medical Image Communications Devices, Guidance for Industry and Food and Drug Administration Staff)規範納入其中。   2015年2月9日公布之醫療設備資訊系統、醫療影像儲存設備及醫療影像傳輸設備指導原則,擬降低FDA的管理程度,採用風險性評估方式,針對部分醫療設備資訊系統、醫療影像儲存設備及醫療影像傳輸設備等三種屬於第一級低風險之醫療器材,得不受ㄧ般管制,例如不需要登記、上市後報告及品質系統法規遵守等。原先,美國於2011年先將醫療設備資訊系統從第三級之高風險醫療器材,降低為第一級低風險之醫療器材,但經過長期間的使用經驗後,FDA認為,此等醫療器材設備在健康照護中十分重要,但相對於其他醫療器材,風險則較低,因此,將放寬程序。   行動健康應用程式亦可能歸類為上述之醫療器材,因此,為與上述的指導原則相符合,對於行動健康應用程式的審查亦作部分放寬。例如,當應用程式與資療資訊系統結合,而成為應受規範之醫療器材時,原先之規定為應進入醫療器材之規範程序,但新修訂之指導原則,則再放寬。僅將涉及積極的病人監測或醫療器材數據分析時,才需要回歸醫療器材之審查方式,其他醫療資訊系統若僅為儲存、傳輸等功能,而非主要提供診斷、治療等功能時,則可以不受醫療器材之規範限制,因風險程度較低,因此改由FDA視個案審查即可。為鼓勵相關產業的發展,FDA將風險性低之醫裁降低管理程度,其後續發展值得觀察。

美國聯邦通訊傳播委員會完成空白頻段干擾測試

  美國聯邦通訊傳播委員會(Federal Communications Commission, FCC)於今(2008)年初完成700MHz頻譜拍賣後,在8月份針對空白頻段(white space)中可用以抗干擾之技術進行測試,並於8月11日完成測試。完整的測試報告預計將在9月份公布。FCC並可望在未來幾個月內表決是否開放空白頻段。   所謂「空白頻段」係指無線電視數位化之後,位於各電視頻道之間未被使用之閒置頻段。Google、Motorola、Microsoft等公司近一、二年來持續遊說FCC開放空白頻段(white space)免執照使用,以促進無線寬頻服務之發展。   儘管數位無線電視台及Verizon等正使用該頻段之業者有干擾疑慮,然主張開放空白頻段之公司深信開放空白頻段對於新興無線寬頻服務之發展將大有助益,且透過感測技術(sensing technology)或地理定位科技(geolocation technology),即可使得無線裝置於使用空白頻段之同時,不至於干擾數位無線電視台或其他取得執照使用該頻段之業者。   關於試驗結果,無線麥克風業者Shure之資深公關經理Mark Brunner 表示,感測技術幾乎完全無法準確偵測使用中之無線麥克風或電視頻道是否正播送中,自然無法避免干擾發生。支持開放空白頻段之Motorola公司則表示,儘管感測技術無法避免干擾發生,但是Motorola所使用之地理偵測科技則在測試中被證實可有效避開正在使用中之頻段,避免干擾情況發生。

澳洲數位轉型局12月發布《政府負責任使用人工智慧政策2.0》,以強化公部門之AI風險管理

2025年12月初,澳洲數位轉型局(Digital Transformation Agency,下稱DTA)發布《政府負責任使用AI政策2.0》(Policy for the responsible use of AI in Government 2.0),旨在進一步強化公部門在AI的透明度、問責性與風險管理能力,於2025年12月15日生效,取代 2024年9月實施的過渡版本。 一、適用範圍 政策適用於所有非企業型聯邦實體(Non-corporate Commonwealth entities),即不具獨立法人地位、直接隸屬於政府的機關或單位。企業型聯邦實體則被鼓勵自願遵循。政策定位為「補充與強化既有法制」,非另訂獨立規範,因此在實務中須與公務員行為準則、資安規範及資料治理制度併行適用。 二、政策重點 在政策施行的12個月內,適用機關須完成以下要求,以確保落實AI治理架構: (一)制度建置 1. AI 透明度聲明:機關須在政策生效後 6 個月內發布「AI 透明度聲明」,公開 AI 使用方法與現況。聲明中須說明機關風險管理流程、AI 事件通報機制及內外部申訴管道,確保使用過程透明、可追蹤。 2. 人員指定與培訓: 機關須指定制度問責人員(Accountable officials)以及AI使用案例承辦人(Accountable use case owners)。 所有員工皆須進行關於負責任使用AI的培訓,機關並依員工職務權責提供個別員工進階訓練。 3. 建立內部AI使用案例註冊清單(Internal AI use case register),以供後續追蹤 該清單至少包含: (1)使用案例負責人(Accountable use case owners):記錄並持續更新範疇內 AI 使用案例的指定負責人。 (2)風險等級(Risk rating):AI使用案例的風險等級資訊。 (3)異動紀錄:當使用案例的風險評級或負責人變更時,須即時更新清單。 (4)自定義欄位:各機關可根據其需求,自行增加欄位。 (二)AI 使用案例範疇判斷 機關須在評估所有新案例,依以下特徵判斷AI應用是否屬於「範疇內(In-scope)」的應用: 1.對個人、社群、組織或環境造成重大損害。 2.實質影響行政處分或行政決策。 3.在無人工審查的情況下,大眾將直接與AI互動或受其影響。 4.涉及個人、敏感資料等資訊。 (三)進階風險評估 依AI影響評估工具(Impact Assessment Tool)針對公眾近用權;不公平歧視;加重刻板印象;損害人、組織或環境;隱私顧慮;資料敏感之安全顧慮;系統建置之安全顧慮;公眾信任等8類別,加以判斷範疇內AI應用,若有任一類別被評為「高風險」,即判定為「高風險」;若所有類別中最高的分數為「中風險」,則整體判定為中風險。 判定為中、高風險之AI應用,均需進行全面審核。中風險須列出所有中風險項目及其控管措施,主要為內部控管;而高風險則要求向DTA報告,且每年至少進行一次全面審核與風險再評估。 澳洲欲透過發布AI透明度聲明、更新AI使用案例註冊清單、強制執行AI應用之風險評估及人員培訓,確保公部門對AI的負責任使用與問責。而我國企業可參考資策會科法所創意智財中心發布之《重要數位資料治理暨管理制度規範(EDGS)》,落實AI資料管理與追蹤。 本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。 本文同步刊登於TIPS網站(https://www.tips.org.tw)

TOP