英國發布國家資料戰略(National Data Strategy)

  英國數位、文化、媒體暨體育部(Department for Digital, Culture, Media & Sport)於2020年9月9日發布「國家資料戰略」(National Data Strategy),作為英國規劃其政府資料流通運用的整體性框架。數位、文化、媒體暨體育部長Oliver Dowden表示,資料為驅動現代社會經濟發展的關鍵。於今年COVID-19的全球疫情流行期間,政府、企業、組織等彼此及時共享重要資訊,除達成了防疫目標,更維繫了各層面的經濟生活。因此,本戰略則規劃活用此段期間獲得的知識與經驗,試圖透過資料的釋出流通與運用,讓英國經濟自COVID-19疫情中復甦,提高生產力與創造新型業態,改善公共服務,並使之成為推動創新的樞紐。

  為優化英國資料的運用,本戰略提出了四個核心面向:(1)資料基礎(data foundation):資料應以標準化格式,且符合可發現(findable)、可取用(accessible)、相容性(interoperable)與可再利用(reusable)的條件下記載;(2)資料技能(data skills):應藉由教育體系等培養一般人運用資料的技能;(3)提升資料可取得性(data availability):鼓勵於公共、私人與第三部門加強協調、取用與共享具備適切品質的資料,並為國際間的資料流通提供適當的保護;(4)負責任的資料(responsible):確保各方以合法、安全、公平、道德、可持續、和可課責(accountable)的方式使用資料,並支援創新與研究。

  基此,本戰略進一步提示了五個優先任務:(1)釋出資料的整體經濟價值:建立適切的條件,使資料在經濟體系內可取得且具備可取用性,同時保護私人的資料權(data rights)、以及企業的相關智慧財產權;(2)建構具發展性且可信賴的資料機制:協助企業家與新創人士以負責任及安全的方式使用資料,避免產生監管上的不確定性或風險,並藉以推動經濟發展。同時,也期待藉由機制的建立,鼓勵公眾參與資料的數位經濟應用;(3)改變政府運用資料的方式,提升效率及改善公共服務:以COVID-19疫情期間政府對資料積極運用為契機,推動政府間的整體資料有效管理、使用與共享措施,為相關作法建構一致性的標準與最佳實踐方式;(4)建立資料基礎設施的安全性與彈性:資料基礎設施為國家關鍵資產,應避免其遭遇安全或服務中斷的風險,進而導致資料驅動的相關業務或組織服務中斷;(5)推動國際資料流(international flow of data):與國際夥伴合作,確保資料的流通運用不會因各地域的制度不同,而受到不當限制。

本文為「經濟部產業技術司科技專案成果」

相關連結
你可能會想參加
※ 英國發布國家資料戰略(National Data Strategy), 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8553&no=55&tp=1 (最後瀏覽日:2026/04/25)
引註此篇文章
你可能還會想看
資訊揭露立場分歧:著作權集體管理團體條例修正草案

  著作權集體管理團體條例(集管條例)自2010年2月10日公布施行以來,終於今年(2019)5月中旬展開修法公聽會,智慧局提出三大項修法目的:「一、強化專責機關監督輔導;二、提升集管團體公信力與透明度;三、健全著作權授權市場環境。」依此分別提出修正條文。   其中,關於集管團體的財務治理透明化的規定,智慧局參考歐盟指令與德國集管條例,增訂集管團體之資產負債表、收支決算表、現金流量表等財務報表之揭露的法律義務(修正第21條第1項),且「應上網供公眾查閱」(增訂第22條第2項),係為建立集管團體公信力並強化良善治理與健全體質。   在場集管團體持不同意見,認集管團體僅係對身為會員的權利人以及利用人負責,且每年均已被主管機關與會員檢視相關報表,似無公開上網讓不特定大眾開放查閱之理。利用人則提出「重複管理」是須要被解決的議題,以授權移轉的實務問題舉例,故希望未來修新法有即時性的權利與管理的資訊揭露。權利人則反應授權金分配不透明,建議以資訊化的方式讓報酬分配機制透明化,並可應用區塊鍊技術達成之。

加拿大政府擬將安樂死合法化

  加拿大聯邦政府於2016年4月14日向國會提交「醫助善終」法案,即C-14法案(Bill C-14),以修正加拿大的刑法(Criminal Code)相關規定;另外,亦會一併修正年金法(Pension Act)、矯正和有條件釋放法(Corrections and Conditional Release Act)、加拿大部隊成員和退伍軍人重建和賠償法(Canadian Forces Members and Veterans Re-establishment and Compensation Act)相關名詞之解釋。   該法案通過後,醫生、護士、藥師及其他協助執行任務之人,將可對符合資格之病人,以醫療方式協助其結束生命,而免於背負刑法加工自殺罪之責任。   可以使用醫療方式結束生命(Medical Assistance in Dying)之人,必須符合以下列出的所有條件,缺一不可: (1)須為加拿大籍;或是在加拿大停留至少一段時間,可使用加拿大的醫療健康服務者。 (2)年齡至少18歲以上,且可對其健康自主作出決定。 (3)患有極為嚴重且不可治癒之重大醫療情況。 (4)在沒有外界壓力之情形下,自願性的要求以醫療方式結束其自身之生命者。 (5)在接受醫療方式結束生命前,須簽署知情同意書(Informed Consent)。   加拿大議會認同那些處於極為嚴重、難以忍受且無法治癒疾病之族群,有向專業醫療人員尋求結束自己生命的權利;但這需要非常健全的法令體系,以避免任何可能的錯誤或濫用,因為生命一旦消逝就再也無法回復。對於處於弱勢之族群,例如生命品質不佳者、老年人、重病或殘障者,亦應尊重其生命之固有價值,保護他們免於被引誘結束自己的生命是非常重要的。   這部法案是一個衡平的法案,同時保護弱勢族群之生命價值,也保護了特殊族群尋求醫療方式結束自己生命的權利。新法案需待國會投票審議通過後,才能生效。

美國參議院通過《兒童網路隱私保護法》與《兒童網路安全法》,有望加強兒少網路安全保護力道

在數位時代,兒童及青少年長時間使用網際網路已成為生活常態,然而,兒少在高度使用社群媒體的同時,也透過演算法大量獲取諸如飲食失調、自殘等「有毒內容」(toxic content)。在享受網路便利性的同時,兒少也面臨遭受騷擾、霸凌,被迫轉學甚至輕生等困境,心理健康面臨危機。為解決前揭問題,美國參議院於2024年7月30日通過《兒童網路隱私保護法》(Children’s Online Privacy Protection Act, COPPA)修正法案及《兒童網路安全法》(Kids Online Safety Act, KOSA)之立法,加強兒少網路安全之保護。 COPPA早於1998年制定,並於2000年開始施行,該法案對於網路營運商蒐集未滿13歲兒童之個人資料相關隱私政策訂有規範,惟自訂定後迄今約25年,均未因應時代變遷做出調整,終於在本次會期提出修正草案。另KOSA之立法重點,則在於要求網路平台業者對兒童預設提供最高強度隱私設定,並建立控制措施,提供父母保護子女及認知到有害行為的機制,課予網路平台業者預防及減輕兒童陷於特定危險(如接收宣傳有毒內容之廣告)之義務等。此二法案經參議院投票通過後,合併為一案送交眾議院審核,重點說明如下: 1.將網路隱私保護主體擴張至未滿13歲之兒童及未滿17歲之青少年(下稱兒少),禁止網路平台業者在未經兒少使用者同意情況下,蒐集其個人資料。 2.禁止網路平台業者對兒少投放定向廣告(targeted advertising)。 3.為保護「合理可能會使用(reasonably likely to be)」網路平台的兒少,調整法案適用的「實際認知(actual knowledge)」標準,將適用範圍擴及至「合理可能被兒少使用(reasonably likely to be used)」的網路平台。 4.建立「清除鈕(eraser button)」機制,使兒少及其父母得以要求網路平台業者在技術可行情況下,刪除自兒少所蒐集之個人資料。 5.要求商務部(the Secretary of Commerce)於新法頒布後180日內,應成立並召集兒童網路安全會議(Kids Online Safety Council),進行包含識別網路平台對兒少造成危害之風險,提出相關評估、預防及減輕危害之建議措施及方法、進行與網路對兒少造成危害相關主題之研究等業務。 觀本次可謂美國對於兒少網路保護之重大進展,惟此法案後續是否能順利提請總統簽署成法,正式具約束效力,仍須持續關注眾議院未來動向。

英國發布人工智慧網路資安實務守則

英國政府於2025年1月31日發布「人工智慧網路資安實務守則」(Code of Practice for the Cyber Security of AI,以下簡稱「實務守則」),目的是提供人工智慧(AI)系統的網路資安指引。該實務守則為英國參考國際上主要標準、規範後所訂定之自願性指引,以期降低人工智慧所面臨的網路資安風險,並促使人工智慧系統開發者與供應商落實基本的資安措施,以確保人工智慧系統的安性和可靠性。 由於人工智慧系統在功能與運作模式上與傳統網路架構及軟體有明顯的不同,因此產生新的資安風險,主要包含以下: 1. 資料投毒(Data Poisoning):在AI系統的訓練資料中蓄意加入有害或錯誤的資料,影響模型訓練結果,導致人工智慧系統產出錯誤推論或決策。 2. 模型混淆(Model Obfuscation):攻擊者有意識地隱藏或掩飾AI模型的內部運作特徵與行為,以增加系統漏洞、引發混亂或防礙資安管理,可能導致AI系統的安全性與穩定性受損。 3. 輸入間接指令(Indirect Prompt Injection):藉由輸入經精心設計的指令,使人工智慧系統的產出未預期、錯誤或是有害的結果。 為了提升實務守則可操作性,實務守則涵蓋了人工智慧生命週期的各階段,並針對相關角色提出指導。角色界定如下: 1. 人工智慧系統開發者(Developers):負責設計和建立人工智慧系統的個人或組織。 2. 人工智慧系統供應鏈(Supply chain):涵蓋人工智慧系統開發、部署、營運過程中的的所有相關個人和組織。 實務守則希望上述角色能夠參考以下資安原則,以確保人工智慧系統的安全性與可靠性: 1. 風險評估(Risk Assessment):識別、分析和減輕人工智慧系統安全性或功能的潛在威脅的過程。 2. 資料管理(Data management):確保AI系統整個資料生命週期中的資料安全及有效利用,並採取完善管理措施。 3. 模型安全(Model Security):在模型訓練、部署和使用階段,均應符合當時的技術安全標準。 4. 供應鏈安全(Supply chain security):確保AI系統供應鏈中所有利益相關方落實適當的安全措施。 「人工智慧網路資安實務守則」藉由清晰且全面的指導方針,期望各角色能有效落實AI系統安全管控,促進人工智慧技術在網路環境中的安全性與穩健發展。

TOP