英國數位文化媒體暨體育部發布數位身分之公眾諮詢,發布法制政策回應並揭示相關原則

  英國數位文化媒體暨體育部(Department for Digital, Culture, Media and Sport, DCMS)2020年9月1日發布「數位身分:政府諮詢回應」(Digital Identity: Call for Evidence Response)文件,以回應過去英國政府曾於2019年7月向各界蒐集如何為成長中的數位經濟社會建立數位身分系統之意見。依據諮詢意見之成果,英國政府計畫調修現行法規,使相關身分識別流程以最大化容許數位身分之使用,並發展有關數位身分之消費者保護立法;立法中將特別規範個人之權利、如何賠償可能產生的侵害,以及設定監督者等相關內容。數位身分策略委員會(Digital Identity Strategy Board)並提出六項原則,以加強英國之數位身分布建與政策:

  1. 隱私:當個人資料被使用時,應確保具備相關措施以保障其保密性與隱私;
  2. 透明性:當個人身分資訊於使用數位身分產品而被利用時,必須確保使用者可了解其個資被誰、因何原因,以及在何時被利用;
  3. 包容性:當人們希望或需要數位身分時即可取得。例如不備有護照或駕照等紙本文件時,對於其取得數位身分不應產生障礙;
  4. 互通性(interoperability):應設定英國之技術與運作標準,使國際與國內之使用上可互通;
  5. 比例性:使用者需求與其他因素(如隱私與安全)之考量應可平衡,使數位身分之使用可被信賴;
  6. 良好監理:數位身分標準將與政府政策與法令連結,未來之相關規範將更加明確、一致並可配合政府對於數位管制之整體策略。

本文為「經濟部產業技術司科技專案成果」

相關連結
你可能會想參加
※ 英國數位文化媒體暨體育部發布數位身分之公眾諮詢,發布法制政策回應並揭示相關原則, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8575&no=55&tp=1 (最後瀏覽日:2026/01/09)
引註此篇文章
你可能還會想看
世界衛生組織透過「COVID-19疫苗全球取得機制COVAX」,促進疫苗研發及公平分配

  世界衛生組織(World Health Organization, WHO)於2020年8月24日公布「COVID-19疫苗全球取得機制(COVID-19 Vaccines Global Access Facility, COVAX)」,由全球疫苗與預防注射聯盟(Global Alliance for Vaccines and Immunisation, GAVI)、流行病預防創新聯盟(Coalition for Epidemic Preparedness Innovations, CEPI)及WHO共同主導,與多家疫苗廠商合作,協助取得多種疫苗組合的授權及核准,促進COVID-19全球疫苗研發及公平分配。   COVAX是WHO「獲取COVID- 19工具加速計畫(Access to COVID-19 Tools Accelerator, ACT Accelerator)」下的疫苗分配機制。ACT-Accelerator透過匯集各國政府、衛生機構、科學界、產業界、民間團體的力量,共同合作開發創新診斷方法、加速融資研發治療工具、制定公平分配與交付疫苗機制、確保衛生系統與社區網路連接等四大領域,以盡快結束大流行疫情。   COVAX作為COVID-19疫苗聯合採購機制,預計2021年底要提供20億劑疫苗,籌資181億美元;由GAVI與高收入國家簽訂投資契約,透過全球融資機制採購9.5億劑疫苗,同時搭配WHO制定的疫苗倫理分配架構,使COVAX能夠集中各國經濟體的購買力,保證候選疫苗的採購數量,鼓勵擁有專業知識的疫苗廠商盡速投入大規模的新疫苗生產,確保參與COVAX的國家及經濟體,皆能迅速、公平公正地取得大量有效的疫苗。   COVAX承諾將為全球92個中低收入經濟體提供參與COVAX的融資工具;超過80個高收入經濟體已提交參與COVAX的意向書,將從公共財政預算中編列全球疫苗研發的捐助資金,並與92個中低收入國家結成疫苗合作夥伴。透過COVAX機制產出的疫苗,將會按照參與國人口比例公平地分配給所有國家,並且優先提供疫苗給衛生醫療工作者、老年人及疾病弱勢群體;隨後再根據各國家需求、易受感染程度與COVID-19威脅情況,提供更多劑量的支援。

英國與美國為人工智慧安全共同開發簽署合作備忘錄

英國技術大臣(U.K. Secretary of State for Science)蜜雪兒·多尼蘭(Michelle Donelan)和美國商務部長(U.S. Secretary of Commerce)吉娜·雷蒙多(Gina Raimondo)於2024年4月1日在華盛頓特區簽署一份合作備忘錄(MOU),雙方將共同開發先進人工智慧(frontier AI)模型及測試,成為首批就測試和評估人工智慧模型風險等進行正式合作之國家。 此備忘錄之簽署,是為履行2023年11月在英國的布萊切利公園(Bletchley Park)所舉行的首屆人工智慧安全峰會(AI Safety Summit)上之承諾,諸如先進AI的急速進步及濫用風險、開發者應負責任地測試和評估應採取之適當措施、重視國際合作和資訊共享之必要性等等,以此為基礎羅列出兩國政府將如何在人工智慧安全方面匯集技術知識、資訊和人才,並開展以下幾項聯合活動: 1.制定模型評估的共用框架(model evaluations),包括基礎方法(underpinning methodologies)、基礎設施(infrastructures)和流程(processes)。 2.對可公開近用模型執行至少一次聯合測試演習(joint testing exercise)。 3.在人工智慧安全技術研究方面進行合作,以推進先進人工智慧模型之國際科學知識,並促進人工智慧安全和技術政策的一致性。 4.讓英、美兩國安全研究所(AI Safety Institute)間的人員互相交流利用其團體知識。 5.在其活動範圍內,依據國家法律、法規和契約規定來相互共享資訊。 換言之,兩國的機構將共同制定人工智慧安全測試之國際標準,以及適用於先進人工智慧模型設計、開發、部署、使用之其他標準。確立一套通用人工智慧安全測試方法,並向其他合作夥伴分享該能力,以確保能夠有效應對這些風險。就如英國技術大臣蜜雪兒·多尼蘭強調的,確保人工智慧的安全發展是全球性問題,只有通過共同努力,我們才能面對技術所帶來的風險,並利用這項技術幫助人類過上更好的生活。

澳洲政府發布國家區塊鏈路線圖,建立澳洲區塊鏈技術發展策略與目標

  澳洲產業創新科技部(Department of Industry, Innovation and Science)於2020年2月7日發布「國家區塊鏈路線圖:向區塊鏈賦能之未來前進(National Blockchain Roadmap: Progressing towards a blockchain-empowered future)」政策文件。此路線圖為澳洲政府為彰顯其對區塊鏈技術之重視,並認知到區塊鏈與其他科技結合後將可進一步增進工作機會、促進經濟成長、減少商業成本與提升整體生產力,因此提出之區塊鏈發展方向規劃。   本路線圖文件指出,為實現區塊鏈技術,澳洲政府將於三個關鍵領域建立相關策略:一、建立有效且合理的規範與標準;二、建立可驅動創新之技術與能力;以及三、促進國際投資與合作。   路線圖文件並針對2020至2025年之區塊鏈發展進行規劃,相關措施包含: 重新命名國家區塊鏈諮詢委員會為國家區塊鏈路線圖推動委員會,並使其具有監督路線圖推動之職權。 建立由產業、研究團隊以及政府合作之團隊,以分析未來可能之應用案例。 對目前使用案例進行經濟分析與研究可能措施選項。 建立與連結政府端區塊鏈使用者,以促進學習交流與進一步應用。 進行國際研究以辨識出其他國家中適合學習做為政府服務之實際案例。 與區塊鏈服務提供商密切合作進行商業創新研究,以提出可供實際案例運用之解決方案。 確保區塊鏈發展涵蓋於整體國家策略中以促進數位科技能力管理。 使產業與教育機構合作發展關於區塊鏈資格技能之共同框架與課程內容。 為澳洲區塊鏈新創公司提出能力發展協助計畫,使其可向全球擴張並與支持合格企業。 引導外資投資以促進澳洲區塊鏈生態系建立。 引導既有雙邊協議進行區塊鏈前端計畫之合作與發展。 增加政府部門合作以確保澳洲企業可與發展中之新興數位貿易基礎設施進行連結等。   澳洲政府期待透過推動本路線圖與結合先前提出之AI路線圖政策,達成於2030年前成為數位經濟國家之目標。

歐盟發布新人工智慧規範,以風險程度判斷防止科技濫用

  歐盟執委會於2021年4月21日提出「人工智慧規則」(AI regulation)草案,成為第一個結合人工智慧法律架構及「歐盟人工智慧協調計畫」(Coordinated Plan on AI)的法律規範。規範主要係延續其2020年提出的「人工智慧白皮書」(White Paper on Artificial Intelligence)及「歐盟資料策略」(European Data Strategy),達到為避免人工智慧科技對人民基本權產生侵害,而提出此保護規範。   「人工智慧規則」也依原白皮書中所設的風險程度判斷法(risk-based approach)為標準,將科技運用依風險程度區分為:不可被接受風險(Unacceptable risk)、高風險(High-risk)、有限風險(Limited risk)及最小風險(Minimal risk)。   「不可被接受的風險」中全面禁止科技運用在任何違反歐盟價值及基本人權,或對歐盟人民有造成明顯隱私風險侵害上。如政府對人民進行「社會評分」制度或鼓勵兒童為危險行為的語音系統玩具等都屬於其範疇。   在「高風險」運用上,除了作為安全設備的系統及附件中所提出型態外,另將所有的「遠端生物辨識系統」(remote biometric identification systems)列入其中。規定原則上禁止執法機構於公眾場合使用相關的生物辨識系統,例外僅在有目的必要性時,才得使用,像尋找失蹤兒童、防止恐怖攻擊等。   而在為資料蒐集行為時,除對蒐集、分析行為有告知義務外,也應告知系統資料的準確性、安全性等,要求高度透明化(Transparency obligations)。不只是前述的不可被接受風險及高風險適用外,有限風險運用中的人工智慧聊天系統也需要在實際和系統互動前有充足的告知行為,以確保資料主體對資料蒐集及利用之情事有充足的認知。   在此新人工智慧規範中仍有許多部份需要加強與討論,但仍期望在2022年能發展到生效階段,以對人工智慧科技的應用多一層保障。

TOP