歐盟將推出「數位綠色證書」,促進疫情期間成員國內人員之安全入出境

  為防止新冠肺炎之傳播,欲入境歐盟的旅客被要求提供各式健康證明文件,然而在判斷該文件的真實性時,缺乏標準化的格式,導致旅客在入出境歐盟時產生各種問題,也容易產生欺詐或偽造文件的風險。為解決上述問題,歐盟委員會於2021年3月17日表示將推出「數位綠色證書」(Digital Green Certificate),證書分為三種,分別是:「已接種新冠肺炎疫苗證書」、「新冠肺炎檢測結果呈陰性證書」及「已從新冠肺炎痊癒證書」。透過綠色數位證書,希望能解決歐盟在疫情期間,各成員國人員入出境之安全問題。此證書預計將於所有歐盟成員國間通用,並對冰島、列支敦斯登、挪威和瑞士開放。

  證書將免費以數位或紙本兩種形式提供,證書上之QR碼中將包含旅客必要個人資訊:姓名,出生日期,簽發日期,有關疫苗、檢測、恢復等等,並含有數位簽名,以確保證書之真實性及安全性。歐盟委員亦將成立一項計畫,使成員國開發特定的驗證軟體,以驗證某證書是否為歐盟所核發。

  數位綠色證書不具強制性,將由成員國各自決定具體執行措施,且各成員國對持有數位綠色證書之旅客應公平待之,例如:成員國若接受某非數位綠色證書之疫苗接種證明而得免除某些檢疫或隔離,在相同條件下,成員國亦應接受數位綠色證書發出之疫苗接種證書而同樣免除該項檢疫或隔離。然而,歐盟目前僅接受下列四種被歐盟許可之疫苗:輝瑞(BioNTech Pfizer)、莫德納(Moderna)、AZ(AstraZeneca),及楊森製藥(Janssen Pharmaceutica),其他疫苗目前不被認可。此外,委員會並保證,持證人之個資並不會被成員國所留存。

相關連結
你可能會想參加
※ 歐盟將推出「數位綠色證書」,促進疫情期間成員國內人員之安全入出境, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8646&no=55&tp=1 (最後瀏覽日:2026/04/25)
引註此篇文章
你可能還會想看
川普簽署行政命令以促進美國AI領域的發展

  美國總統川普於2019年2月11日簽署一項行政命令,發布「美國AI倡議」(American AI Initiative),旨在確保美國在AI領域的領導地位,川普並說道:「美國在AI領域的領導地位對於維護美國的經濟和國家安全至關重要」。「美國AI倡議」從五大方面來促進美國在AI領域的領導地位,包括: (一) 投資AI的開發   指示聯邦機構在研發任務及編排預算時,將AI作為優先投資項,確保美國對於AI基礎研發的長遠重視,此外,政府機構並應說明如何將預算用於AI研發開支,以增進對於AI投資的評估。 (二) 數據和資源共享   將聯邦政府中所擁有的統計數據資料、運算模型及運算資源提供給AI研發人員,促進交通和醫療保健等領域的AI發展。 (三) 建立政府標準及監管   白宮科技政策辦公室和美國國家與技術研究院(NIST)制定標準,以提升AI系統的「可靠、穩健、值得信賴、安全、可移轉和具協同性」。透過為不同技術和產業的AI制定使用指南,確保AI的使用安全和適當監管。 (四) 人才培訓   要求各機構為AI進步形成的就業市場變化做好準備,並考慮透過技能培訓課程、獎學金和學徒制度,因應市場人力產生之變化。 (五) 國際參與   與其他國家制定合作策略,協同AI技術的開發,同時確保AI領域之開發符合和不損及美國人的價值觀和利益。   此項倡議雖提及許多面向之發展,但仍然缺少發展細節,亦未提及計畫新資金的投入,因此,許多人對此倡議皆提出質疑。曾協助歐巴馬政府制定AI報告的哈佛大學教授Jason Furman即表示,此「倡議」雖令人鼓舞,但僅是邁出第一步,關鍵的考驗將在於是否能以強而有力的方式確實貫徹執行倡議中的內容,此倡議仍欠缺細節及執行面之部分。

紐西蘭IT專家組織2012年5月發布雲端運算實務準則

  紐西蘭最為歷史悠久的IT專家組織(Institute of IT Professionals NZ)於2012年5月發布雲端運算實務準則(Cloud Computing Code of Practice),藉此彌補實務上缺乏雲端運算標準與實務指針的問題;本準則為自願性遵循規範,以紐西蘭為市場的外國雲端業者、及紐西蘭的業者皆可適用之,並可向公眾宣示其已遵行此準則,然倘若未遵行而為遵行之宣示,則屬誤導或詐欺行為而觸犯公平交易法(Fair Trading Act 1986)。本準則有四個主要目標:1. 促進紐西蘭雲端產業的服務標準;2. 確立應揭露(disclosure)的標準;3. 促進雲端服務提供者與用戶間就資料保護、隱私與主權等事項的揭示;4.強化紐西蘭雲端運算產業的整合性。     依據此準則,雲端業者的資訊揭露範圍至少應包含業者基本資料、資訊所有權、管理及保護、與服務提供之適當管理措施等。在資訊所有權層面,業者應表明是否對所上載的資料或資訊主張所有權;而當用戶透過雲端服務利用或傳輸的資料而儲存於其他上游業者的網路或系統時,業者應確認其資料所有權之歸屬。     在資料管理與保障層面,業者應表明遵從何種資訊安全標準或實務,其已向美國雲端產業聯盟(Cloud Security Alliance)進行STAR登記,或者已通過其他標準的驗證;此外應表明儲存資料伺服器之一處或多處所在地。再者,業者亦須表明服務關係繼續中或終止後,業者或客戶對於客戶所擁有資料之存取權限。     在服務提供的適當管理措施上,包含業者的備份(Backup)程序及維護措施,皆應為揭露,使用戶得據以評估是否採取進一步的資料保護措施;此外包括服務的繼續性要求,如備援措施…等,亦應為揭露;又鑒於雲端服務有地理多樣性(Geographic Diversity)的特質,業者應使用戶知悉其提供服務、或營業活動的地點,以判斷此等服務可能適用的法權(Legal Jurisdiction)。     依據此準則,雲端業者亦可例如透過服務水準協議(Service Level Agreement)對個別用戶承諾特別的服務支援方案,以提供更好的服務品質。

印度宣布將推出數位印度法案取代過時的資訊科技法

印度電子及資訊科技部(Ministry of Electronics and Information Technology, MeitY)於2023年3月展開了一次公開諮詢和協商,介紹了印度政府以創建印度數位技術生態系統為目的而建構的法律新框架,該框架以《數位印度法案》(Digital India Act)為核心,用來取代已有22年歷史的《資訊科技法》(Information Technology Act)。MeitY強調,現行資訊科技法的創立時代背景中不僅缺乏電子商務、社交媒體平台等現代網路服務,甚至印度還未進入數位化時代,因此有必要進行通盤的法規調整,以符合當代和未來的社會變遷和對法規範的需求。 目前《數位印度法案》的草案細節尚未公布,但是MeitY的介紹揭露印度在未來政策中所重視的幾個方向: 1.新的中介類別:重新定義數位經濟產業中的中介機構類別(如數位媒體、搜尋引擎、遊戲、人工智慧、OTT平台、電信服務業者……等),並依據未來的技術發展及產業轉型,適時的調整新的分類。 2.網路犯罪刑事化:將網路犯罪(如網路色情、詐騙、霸凌、身分冒用或未經授權散播個人資料)歸類為刑事犯罪;過去的資訊科技法僅對此類行為予以罰款。 3.問責機制:建立一個線上的民刑事檢舉、審判機構,並且提供方便使用者採取權利救濟措施的線上管道;另外印度政府也將涉及演算法透明度(algorithmic transparency)、人工智慧的定期風險評估(periodic risk assessments)等評估機制納入監管項目的考量中。以建立網路用戶的權利救濟措施及數位服務者提供服務過程中的責任釐清。 4.防壟斷機制:提出開放網路(Open Internet)的概念,認為網路服務應該是具有選擇性的、容許競爭的、多樣性的,在確保網路服務的多樣性和非歧視性及非壟斷性的前提下運作;印度政府希望能夠監理佔有主導地位的廣告平台和應用程式平台,防止市場力量過度集中造成壟斷。 5.年齡門檻:對於未成年人在社交平台、遊戲和賭博程式中的資訊蒐集、資訊安全和隱私保護加以規範,並且避免以鎖定未成年人為對象的資料蒐集機制。 除了以上五點外,MeitY在介紹《數位印度法案》時也表示為了應對現今數位化時代的發展,並且確保公民的權利保障延伸到數位世界中,將承認被遺忘權(right to be forgotten)、不受歧視權(right against discrimination)和數位繼承權(right to digital inheritance)等數位時代中發展出來的權利。另外,將「推動公私部門及個人於使用數位資訊時的相關規範」以及「保護個人資料的資料保護法案」等議題做為評量指標,以做為規劃印度國家數位治理時的重要考量。這些方針都揭示了印度正在試圖踏上更有規模、更安全且可信賴的數位生態系統建置之路,《數位印度法案》的相關發展細節值得再持續關注。

歐盟提出人工智慧法律框架草案

  歐盟執委會於2020年2月公布《人工智慧白皮書》(AI White Paper)後,持續蒐集各方意見並提出新的人工智慧規範與行動。2021年4月針對人工智慧法律框架提出規範草案(Proposal for a Regulation on a European approach for Artificial Intelligence),透過規範確保人民與企業運用人工智慧時之安全及基本權利,藉以強化歐盟對人工智慧之應用、投資與創新。   新的人工智慧法律框架未來預計將統一適用於歐盟各成員國,而基於風險規範方法將人工智慧系統主要分為「不可接受之風險」、「高風險」、「有限風險」及「最小風險」四個等級。「不可接受之風險」因為對人類安全、生活及基本權利構成明顯威脅,故將被禁止使用,例如:政府進行大規模的公民評分系統;「高風險」則是透過正面例舉方式提出,包括:可能使公民生命或健康處於危險之中的關鍵基礎設施、教育或職業培訓、產品安全、勞工與就業、基本之私人或公共服務、可能會干擾基本權之司法應用、移民與庇護等面向,而高風險之人工智慧在進入市場之前須要先行遵守嚴格之義務,並進行適當風險評估及緩解措施等。「有限風險」則是指部分人工智慧應有透明度之義務,例如當用戶在與該人工智慧系統交流時,需要告知並使用戶意識到其正與人工智慧系統交流。最後則是「最小風險」,大部分人工智慧應屬此類型,因對公民造成很小或零風險,各草案並未規範此類人工智慧。   未來在人工智慧之治理方面,歐盟執委會建議各國現有管理市場之主管機關督導新規範之執行,且將成立歐洲人工智慧委員會(European Artificial Intelligence Board),推動人工智慧相關規範、標準及準則之發展,也將提出法規沙盒以促進可信賴及負責任之人工智慧。

TOP