歐盟新一代關鍵資訊基礎設施保護計畫

  2011年3月31日,歐盟執委會啟用新一代的關鍵資訊基礎設施保護計畫(Critical Information Infrastructure Protection, CIIP)。上一代的關鍵資訊基礎設施保護計畫在2009年公布並已取得一定的成果。新一代的計畫集中在全球化的挑戰,著重在歐盟成員國與全球其他國家的合作,與相互之間的合作關係。

  為了達成這個目標,歐盟執委會訂定以下的行動綱要:
(1)準備和預防:利用成員國論壇(European Forum for Member States, EFMS)分享資訊及政策。
(2)偵測和反應:發展資訊分享及警示系統,建置民眾、中小型企業與政府部門間的資訊分享、警示系統。
(3)緩和及復原:發展成員國間緊急應變計畫,組織反應大規模網路安全事件,強化各國電腦緊急反應團隊的合作。
(4)國際與歐盟的合作:根據歐盟成員國論壇所制訂的,歐洲網際網路信賴穩定指導原則和方針,進行全球大規模網路安全事故的演習。
(5)制訂資訊通信技術的標準:針對關鍵資訊基礎設施制訂技術標準。

  另外,在2011年4月14-15日舉行的關鍵資訊基礎設施保護電信部長級會議(Telecom ministerial conference on CIIP),整個會議針對歐盟成員國、私人企業、產業界及其他國家進行策略性的對話,強化彼此在數位環境中的合作與信任關係。並針對新一代的關鍵資訊基礎設施保護計畫,向歐盟執委會提出相關政策建言。

  受全球化、資訊化發展的影響,以及各國間互賴程度的增加,使得影響關鍵資訊基礎設施(CIIP)安全的問題,不再侷限於單一區域,更需要各方多元的合作。

相關連結
※ 歐盟新一代關鍵資訊基礎設施保護計畫, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=5496&no=57&tp=1 (最後瀏覽日:2026/03/11)
引註此篇文章
你可能還會想看
美國法院對於網路無障礙判決歧異

  加州聯邦中區地方法院於2014年6月在Jancik v. Redbox Automated Retail, LLC (No. SACV 13-1387-DOC, 2014 WL 1920751 (C.D. Cal. May 14, 2014))一案中,判決影片自動出租機公司Redbox勝訴。法院認為,雖然Redbox在其經營的線上影視串流服務中未提供隱藏字幕(closed captioning),導致聽障者無法藉由閱讀影片字幕來了解劇情,但「網站」非美國身心障礙者法(Americans with Disabilities Act,下稱ADA)第三章「民間事業體所營運之公共設施與服務」中所稱「公共設施」(public accommodation),即無障礙建置範疇不包含提供公眾商品與服務的「網站」,因此業者不須提供具可及性之商品,例如:附字幕影片。法院認為第三章並未就公共設施中商品特色和內容有所規範,因此業者無義務改善其他影片存貨規格,使其能為身障者所觀看;又Redbox線上影視串流服務僅有網路通路,依ADA文義解釋,網站亦非屬於公共設施,無提供無障礙建置之必要。   本案與第一巡迴上訴法院在NAD v. Netflix案見解大相逕庭,該案以「美國國家聽障人士協會」(National Association of the Deaf, NAD)為首之公協會,集體對美國知名線上串流影視節目網站Netflix提起訴訟,控告其線上影視節目未提供隱藏字幕,使得聽障人士無法觀看該影片內容,法院判決該平臺網站屬於「公共設施」,依ADA第302條規範,身心障礙者有權利享受公共設施之設備,不得因殘障而受差別對待。有關網站是否屬於ADA第三章所稱公共設施,而使得私法人有改善網頁無障礙技術義務,仍有待觀察。

德國聯邦資訊技術,電信和新媒體協會針對AI及自動決策技術利用提出建議指南

  德國聯邦資訊技術,電信和新媒體協會於2018年2月6日在更安全的網路研討會中針對利用人工智慧及自動決策技術利用提出建議指南(Empfehlungen für den verantwortlichen Einsatz von KI und automatisierten Entscheidungen),旨在提升企業數位化與社會責任,並提升消費者權益保護。 本份指南提出六項建議: 促進企業內部及外部訂定相關準則 例如規定公司在利用演算法和AI時,必須將影響評估列入開發流程,並列為公司應遵守的道德倫理守則,以確保開發的產品或服務符合公平及道德。 提升透明度 使用者如有興趣了解演算法及其含義,企業應協助調查並了解使用者想獲知的訊息,並透過相關訊息管道提升產品及服務透明度。因此,企業應努力使演算法及其操作和含義能夠被使用者理解。此亦涉及即將實施的歐盟一般資料保護規則中的透明度義務。在機器學習或深度學習情況下,可能會增加理解性和可追溯性難度,但有助於分析流程並使其更接近人類理解的方法在科學和商業實踐中,應特別關注並進一步討論。另外,透過教育及使用說明協助及控制功能,教導消費者係建立雙方信任的重要手段。企業應在第一線中說明產品或服務中使用的手段(演算法,機器學習,AI)。除了解釋使用那些技術來改進產品和服務外,應一併解釋如何從技術控制過程中獲得相關知識以及提供那些後援支持。另外,例如透過幫助頁面,儀表板或部落格,解釋發生什麼以及如何做出某些影響深遠的自動化決策,使用戶更了解有關使用自動決策相關訊息。因此建議企業採取強制有效以建立信任的措施,使用戶理解是否及如何使用相關演算法,此可能包括使用自動化決策,使用特定資料組和使用技術的目的,亦即使用戶對演算法,機器學習或AI支持的決策有基本的了解。 為全體利益使用相關技術 人工智慧等新技術之重要性不應被低估,目前在生活和工業等眾多領域皆有廣泛應用。對於個人和集體而言,將可帶來巨大的利益,因此應該充分利用。例如,人工智慧可降低語言障礙,幫助行動不便的人可更加獨立自主生活,改善醫療診斷,提升能源供應效率,甚至是交通規劃和搜索停車位,都只是人工智慧偉大且已被使用的案例。為促進技術發展,應公平地利用其優勢並預留商業應用模式的空間,同時充分解決涉及的具體風險。產業特定的解決方案十分重要,但應兼顧受影響者的利益,並與廣大公眾利益找出妥協平衡點,且應排除不適當的歧視。建議在使用決策支持技術時,應事先檢查相關後果並與其利益比較。例如,可以在資料保護影響評估的框架進行。作為道德準則的一部分,必須確保演算法盡可能量準確地預測結果。 開發安全的資料基礎 資料係人工智慧支援決策的基礎。與人為決策者相同,資料不完整或錯誤,將導致做出錯誤的決定。因此決策系統的可靠性仍取決資料的準確性。但資料質量和資料來源始終不能追溯到源頭,如果可能的話,只有匯總或非個人資料可用於分析或分類用戶群組。因此,確切細節不可被使用或揭露。因此建議企業應考慮要使用的資料、資料的類別和在使用AI系統前仔細檢查資料使用情況,特別是在自我學習系統中資料引入的標準,並根據錯誤來源進行檢查,且儘可能全面記錄,針對個人資料部分更應謹慎處理。 解決機器偏差問題 應重視並解決所謂機器偏差和演算法選擇和模型建立領域的相關問題。解釋演算法,機器學習或AI在基層資料選擇和資料庫時所產生決策偏見相當重要,在開發預期用途的演算法時必須納入考量,對員工應針對道德影響進行培訓,並使用代表性紀錄來創建可以識別和最小化偏差的方法。企業並應該提高員工的敏感度並培訓如何解決並減少機器偏見問題,並特別注意資料饋送,以及開發用於檢測模式的內、外部測試流程。 適合個別領域的具體措施和文件 在特別需要負責的決策過程,例如在車輛的自動控制或醫療診斷中,應設計成由責任主體保留最終的決策權力,直到AI的控制品質已達到或高於所有參與者水平。對類人工智慧的信任,並非透過對方法的無條件追踪來實現,而是經過仔細測試,學習和記錄來實現

美國欲修改HIPAA規則以促進「整合醫療照護」,並發表公眾意見徵詢書

  美國《健康保險可攜性及責任法》(HIPAA)係「保護個人電子醫療資訊隱私」的法規。其「受規範對象」(Covered Entity)為:使用電子方式傳送任何醫療資訊的醫療計畫、健康資訊處理機構(Health Care Clearinghouses)或醫療照護提供者。2018年12月14日,美國衛生及公共服務部(下稱:官方)發表〈公眾意見徵詢書:修改HIPAA規則以促進整合醫療照護〉(Request for Information on Modifying HIPAA Rules to Improve Coordinated Care),擬修正方向如下: (一)促進醫療行為、整合醫療照護、專案管理的資料分享   HIPAA原先僅允許受規範機關在醫療行為、支付、營運中揭露受保護健康資訊(PHI)。然而,這並不包含醫療照護或專案管理。官方傾向修法讓醫療照護或專案管理成為允許揭露PHI的情形。同時,也希望修法讓PHI的取得更具時效性,以利於病歷在受規範對象間的流通。 (二)推動親友參與解決當事人鴉片類藥物成癮和精神疾病問題   HIPAA允許受規範對象在特定條件下,向照護者(Caregiver)揭露PHI,包含緊急狀況,也包含嚴重的精神疾病。然而,許多受規範對象因為擔心違反HIPAA,而不願通知當事人的親友。這種狀況相當不利於整合醫療照護和專案管理的發展。目前官方尚未研擬出具體改善方法,希望外界可以提出方案。 (三)會計資料的揭露以存取報告代替   在當事人申請下,受規範對象或其商業夥伴應提供近六年內與PHI相關的會計資料。然而,許多受規範對象的系統無法分離出應提供給當事人的部分,只好提供整份會計資料,因而造成龐大負擔。官方擬修法,只提供當事人「存取報告」(Access Report),該報告會載明誰曾經存取電子紀錄。 (四)隱私權行為通知(Notice of Privacy Practices)   受規範對象在許多狀況下,需取得當事人隱私權行為通知的書面同意書,這次的修法希望可以減少書面同意,以利於受規範對象發展整合醫療照護。

歐盟執委會公布《可信賴的AI政策及投資建議》

  歐盟執委會於2018年6月成立人工智慧高級專家組(The High-Level Expert Group on Artificial Intelligence, AI HLEG),主要負責兩項工作:(1)人工智慧倫理準則;(2)人工智慧政策與投資建議。並於2019年4月8日提出《可信賴的人工智慧倫理準則》(Ethics Guidelines for Trustworthy AI),2019年6月公布之《可信賴的AI政策及投資建議》(Policy and Investment Recommendations for Trustworthy Artificial Intelligence)則是人工智慧高級專家組所交付之第二項具體成果。   該報告主要分為兩大部分,首先第一部分是要透過可信賴的人工智慧建立對歐洲之正面影響,內容提及人工智慧應保護人類和社會,並促進歐洲公司各部門利用人工智慧及技術移轉,而公部門則扮演人工智慧增長及創新之催化劑,以確保歐洲具有世界一流之研究能力;第二部分則是影響歐洲各成員國建立可信賴之人工智慧,內容則提及將發展人工智慧相關基礎設施、教育措施、政策規範及資金投資,同時合法、有道德的使用各項數據。   在本報告中關於法規面的建議則是進一步制定政策和監管框架,確保人工智慧在尊重人權、民主及創新下發展,因此將建立人工智慧政策制定者、開發者及用戶間的對話機制,若是遇到將對社會或是人類產生重大影響之敏感性人工智慧系統,除透過歐洲人工智慧聯盟(The European AI Alliance)進行對話之外,也需要在尊重各成員國之語言及文化多樣性下展開協調機制。另外,報告中也特別提到如果政府以「保護社會」為由建立一個普遍的人工智慧監督系統是非常危險的作法,政府應該承諾不對個人進行大規模監視,並在遵守法律及基本權利下進行人工智慧系統之發展。

TOP