本文為「經濟部產業技術司科技專案成果」
英國文化、媒體暨體育部(Department for Culture, Media & Sport)於2016年12月21日發佈「網路安全規範與誘因評論」(Cyber Security Regulation and Incentives Review)(下稱本評論),本評論旨在評估新增規範或誘因對於強化整體經濟活動中之網路風險管理的必要性。 本評論的主要結論與建議為: 1.保護公民免於受到犯罪或其它形式的傷害具備明確的公益性,保護個人資料的相關規範亦具有強烈的正當性基礎。 2.有鑑於此,英國政府將藉由施行歐盟「一般資料保護規則」(General Data Protection Regulation,下稱GDPR)來增進整體經濟活動中的網路安全風險管理。英國政府藉由GDPR所課與企業在合理時間內向主管機關通報資料外洩事件之法律義務,以及GDPR在企業違反個資保護義務之罰鍰機制,要求產業界對網路安全的風險管理積極採取行動。 3.英國政府將採取若干措施來增加資料保護與網路安全之間的連結,以強化網路風險的管理。這些措施包括加強資訊委員辦公室(Information Commissioner’s Office),以及國家網路安全中心(National Cyber Security Center)之業務上合作關係、與投資人社群合作來制定網路安全規範,以及經由新的管理者論壇(Regulators’ Forum)與管理者合作,並且彼此分享良好的做法以及網路威脅的資訊等。 4.目前英國政府暫不在GDPR以外訂定其他的一般網路安全規範。
美國聯邦資料戰略〈2020年行動計畫〉美國白宮於2018年3月發布〈總統管理方案(President’s Management Agenda)〉,其中發展「聯邦資料戰略(Federal Data Strategy)」,將資料作為戰略資產,藉以發展經濟、提高聯邦政府效能、促進監督與透明度,為方案中重要之工作目標之一。「聯邦資料戰略」之架構上主要包括四個組成部分,以指導聯邦資料之管理和使用:1.使命宣言:闡明戰略之意圖與核心目的;2.原則:有十大恆定原則對於機關進行指導;3.實作規範:有四十項實作規範指導機關如何利用資料之價值;4.年度行動計畫:以可衡量之活動來實踐這些實作規範。 於2019年12月23日,〈2020年行動計畫〉之最終版正式發布,其將建立堅實之基礎,在未來十年內支持戰略之實踐。詳言之,〈2020年行動計畫〉之內涵主要包含三大部分與二十個行動: 機關行動:旨在支持機關利用其資料資產,包括六大行動:(1)行動1:確認用於回答對於機關而言具有優先性之問題所需之資料;(2)行動2:將機關之資料治理制度化;(3)行動3:評估資料與相關基礎設施之成熟度;(4)行動4:確認提高員工資料技能之機會;(5)行動5:確認用於機關開放資料計劃之優先資料資產;(6)行動6:發布與更新資料庫存。 實踐共同體之行動:由特定機關或一群機關就一共通主題所採取之行動,可加速並簡化現有要求之執行,包括下列四大活動:(1)行動7:成立聯邦首席資料官委員會;(2)行動8:改善用於AI研究與發展之資料與模型資源;(3)行動9:改善財務管理資料標準;(4)行動10:將地理空間資料實務整合至聯邦資料事業中。 共享解決方案行動:為所有機關之利益、由單一機關或委員會試行或發展之活動:(1)行動11:開發聯邦事業資料資源儲存庫;(2)行動12:創建美國預算管理局聯邦資料政策委員會;(3)行動13:制定策畫之資料技能目錄;(4)行動14:制定資料倫理框架;(5)行動15:開發資料保護工具組;(6)行動16:試行一站式之標準研究應用程序;(7)行動17:試行一種自動化之資訊收集評論工具,該工具支持資料庫存之創建與更新;(8)行動18:試行用於聯邦機構之增強型資料管理工具;(9)行動19:制定資料品質評估與報告指引;(10)行動20:發展資料標準之儲存庫。 〈2020年行動計畫〉確定機關之初步行動,其對建立流程、建立能力、調整現有工作以更好地將資料作為戰略資產至關重要。未來之年度行動計畫將會在〈2020年行動計畫〉之基礎上進一步發展出針對聯邦資料管理之協調方案。
歐盟電子通訊市場之事前管制與界定 歐盟提出人工智慧法律框架草案歐盟執委會於2020年2月公布《人工智慧白皮書》(AI White Paper)後,持續蒐集各方意見並提出新的人工智慧規範與行動。2021年4月針對人工智慧法律框架提出規範草案(Proposal for a Regulation on a European approach for Artificial Intelligence),透過規範確保人民與企業運用人工智慧時之安全及基本權利,藉以強化歐盟對人工智慧之應用、投資與創新。 新的人工智慧法律框架未來預計將統一適用於歐盟各成員國,而基於風險規範方法將人工智慧系統主要分為「不可接受之風險」、「高風險」、「有限風險」及「最小風險」四個等級。「不可接受之風險」因為對人類安全、生活及基本權利構成明顯威脅,故將被禁止使用,例如:政府進行大規模的公民評分系統;「高風險」則是透過正面例舉方式提出,包括:可能使公民生命或健康處於危險之中的關鍵基礎設施、教育或職業培訓、產品安全、勞工與就業、基本之私人或公共服務、可能會干擾基本權之司法應用、移民與庇護等面向,而高風險之人工智慧在進入市場之前須要先行遵守嚴格之義務,並進行適當風險評估及緩解措施等。「有限風險」則是指部分人工智慧應有透明度之義務,例如當用戶在與該人工智慧系統交流時,需要告知並使用戶意識到其正與人工智慧系統交流。最後則是「最小風險」,大部分人工智慧應屬此類型,因對公民造成很小或零風險,各草案並未規範此類人工智慧。 未來在人工智慧之治理方面,歐盟執委會建議各國現有管理市場之主管機關督導新規範之執行,且將成立歐洲人工智慧委員會(European Artificial Intelligence Board),推動人工智慧相關規範、標準及準則之發展,也將提出法規沙盒以促進可信賴及負責任之人工智慧。