歐盟執委會發布第二份「數位十年狀況報告」,說明「2030年數位十年政策計畫」當前進展

歐盟執委會(European Commission)於2024年7月2日發布第二份「數位十年狀況報告」(State of the Digital Decade Report)(下稱該報告),全面檢視「2030年數位十年政策計畫」(Digital Decade Policy Programme 2030, DDPP)之施行現況。特別的是,該報告今年首次新增歐盟成員國提出之「數位十年國家戰略路線圖」(National Digital Decade Strategic Roadmaps),說明預計投入數位轉型之措施、行動及資金。

為了呼籲歐盟成員國加強行動,進而促進經濟繁榮並提升社會凝聚力,歐盟執委會於該報告提出兩大面向之建議。首先,於數位基礎設施及企業之部分,該報告指出,目前高品質之5G網路覆蓋率僅有歐盟領土之50%。對此,各成員國與執委會應共同努力創建真正之數位單一市場(Digital Single Market)。此外,歐洲公司對於人工智慧、雲端、巨量資料之採用率遠低於DDPP欲達成之75%目標。若欲實踐商業部門數位化,應鼓勵中小企業採用創新之數位工具,且應積極投資具有高度發展可能性之新創企業。

其次,於數位技能與公共服務之層面,該報告提及,社會經濟相關之數位轉型過程中,以人為本係一貫之核心理念。然而,目前僅55.6%之歐盟人口具備基本數位技能,各成員國應採取多元方法於各級學校推動培養教育。又,為提升公共服務數位化,各成員國應致力於線上提供重要公共服務、電子健康紀錄,以利民間及企業方便運用。

最後,歐盟成員國須於2024年12月2日前審視、調整「數位十年國家戰略路線圖」,以符合DDPP闡述之目標。此外,歐盟執委會將監督、評估報告中建議之實施情形,並於2025年發布之「數位十年狀況報告」追蹤改善進度。

本文為「經濟部產業技術司科技專案成果」

相關連結
你可能會想參加
※ 歐盟執委會發布第二份「數位十年狀況報告」,說明「2030年數位十年政策計畫」當前進展, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=9248&no=16&tp=1 (最後瀏覽日:2026/04/08)
引註此篇文章
你可能還會想看
論數位經濟下研究報告開放近用及著作權例外國際新發展

美國聯邦地方法院駁回臨床試驗軟體公司Medidata對競爭對手Veeva的營業秘密訴訟

  美國紐約南區聯邦地方法院(S.D.N.Y.)於2022年7月15日駁回了臨床試驗軟體公司Medidata Solutions Inc. (以下簡稱Medidata公司)控告競爭對手Veeva Systems Inc. (以下簡稱Veeva公司)竊取其營業秘密的請求。   原告Medidata公司於2017年1月指控被告Veeva公司陸續挖角其數名離職員工,部份員工離職時私自拷貝公司檔案,其中包含原告的產品研發、商業策略等營業秘密,而被告根據這些資訊開發了和原告相似的軟體,造成其重大損害,因此向被告請求4.5億美元的損害賠償。   被告Veeva公司抗辯雖然這些員工離職時私自保留原告的檔案,但原告在訴訟中並未明確說明哪些屬於該公司的營業秘密,亦即未特定營業秘密標的;此外,即便這些離職員工自行保留的檔案中有包含原告所稱之營業秘密,但原告提出的證據不足以證明被告有不當取用(misappropriation)其營業秘密,僅根據被告有僱用原告離職員工等事實,即推論被告有不當取用。原告試圖透過此模糊和毫無根據的主張,限制產業的創新、競爭、人才流動。   本案歷經五年的纏訟,法院最終駁回原告請求。法官指出,原告在整個訴訟過程中並未明確定義哪些資訊屬於營業秘密,原告似乎認為任何資訊皆屬於其營業秘密,這樣的主張無異於代表任何公司永遠無法挖角其他公司的員工,因為這些員工到新公司任職後所說的任何話,都會間接地揭露他們在之前工作中所學習到的事情,因此駁回原告之訴。   從本案可以觀察到,企業應定期盤點公司內部資訊,明確界定營業秘密範圍,並落實管理及妥善留存相關證據,發生侵害營業秘密爭議時才能有效舉證。 「本文同步刊登於TIPS網站(https://www.tips.org.tw )」

落實完善數位資料管理機制,有助於降低AI歧視及資料外洩風險

落實完善數位資料管理機制, 有助於降低AI歧視及資料外洩風險 資訊工業策進會科技法律研究所 2023年07月07日 近年來,科技快速發展,AI(人工智慧)等技術日新月異,在公私部門的應用日益廣泛,而且根據美國資訊科技研究與顧問公司Gartner在2023年5月發布的調查指出,隨著由OpenAI開發的ChatGPT取得成功,更促使各領域對於AI應用的高度重視與投入[1],與此同時,AI歧視及資料外洩等問題,亦成為社會各界的重大關切議題。 壹、事件摘要 目前AI科技發展已牽動全球經濟發展,根據麥肯錫公司近期發布的《生成式人工智慧的經濟潛力:下一個生產力前沿(The next productivity frontier)》研究報告指出,預測生成式AI(Generative AI)有望每年為全球經濟增加2.6兆至4.4兆的經濟價值[2]。同時在美國資訊科技研究與顧問公司Gartner對於超過2500名高階主管的調查中,45%受訪者認為ChatGPT問世,增加其對於AI的投資。而且68%受訪者認為AI的好處大於風險,僅有5%受訪者認為風險大於好處[3]。然而有社會輿論認為AI的判斷依賴訓練資料,將可能複製人類偏見,造成AI歧視問題,而且若程式碼有漏洞或帳戶被盜用時,亦會造成資料外洩問題。 貳、重點說明 首先,關於AI歧視問題,以金融領域為例,近期歐盟委員會副主席Margrethe Vestager強調若AI用於可能影響他人生計的關鍵決策時,如決定是否能取得貸款,應確保申請人不受性別或膚色等歧視[4],同時亦有論者認為若用於訓練AI的歷史資料,本身存有偏見問題,則可能導致系統自動拒絕向邊緣化族群貸款,在無形之中加劇,甚至永久化對於特定種族或性別的歧視[5]。 其次,關於資料外洩問題,資安公司Group-IB指出因目前在預設情況下,ChatGPT將保存使用者查詢及AI回應的訊息紀錄,若帳戶被盜,則可能洩露機敏資訊。據統計在2022年6月至2023年5月間,在亞太地區有近41000個帳戶被盜,而在中東和非洲地區有近25000個帳戶被盜,甚至在歐洲地區也有近17000個帳戶被盜[6]。另外在2023年3月時,ChatGPT除了發生部分用戶能夠檢視他人聊天紀錄標題的問題外,甚至發生個人資料外洩問題,即用戶可能知悉他人的姓名、電子郵件,付款地址,信用卡到期日及號碼末四碼等資料[7]。 參、事件評析 對於AI歧視及資料外洩等問題,應透過落實完善數位資料治理與管理機制,以降低問題發生的風險。首先,在收集訓練資料時,為篩選適合作為模型或演算法基礎的資料,應建立資料評估或審查機制,減少或避免使用有潛在歧視問題的資料,以確保分析結果之精確性。 其次,不論對於訓練資料、分析所得資料或用戶個人資料等,均應落實嚴謹的資料保密措施,避免資料外洩,如必須對於資料進行標示或分類,並依照不同標示或分類,評估及採取適當程度的保密措施。同時應對於資料進行格式轉換,以無法直接開啟的檔案格式進行留存,縱使未來可能不慎發生資料外洩,任意第三人仍難以直接開啟或解析資料內容。甚至在傳送帳戶登入訊息時,亦應採取適當加密傳送機制,避免遭他人竊取,盜取帳戶或個人資料。 財團法人資訊工業策進會科技法律研究所長期致力於促進國家科技法制環境完善,於2021年7月發布「重要數位資料治理暨管理制度規範(Essential Data Governance and Management System,簡稱EDGS)」,完整涵蓋數位資料的生成、保護與維護,以及存證資訊的取得、維護與驗證的流程化管理機制,故對於不同公私部門的AI相關資料,均可參考EDGS,建立系統性數位資料管理機制或強化既有機制。 本文同步刊登於TIPS網站(https://www.tips.org.tw) [1]Gartner, Gartner Poll Finds 45% of Executives Say ChatGPT Has Prompted an Increase in AI Investment (May 3, 2023), https://www.gartner.com/en/newsroom/press-releases/2023-05-03-gartner-poll-finds-45-percent-of-executives-say-chatgpt-has-prompted-an-increase-in-ai-investment (last visited June 30, 2023). [2]McKinsey, The economic potential of generative AI: The next productivity frontier (June 14, 2023), https://www.mckinsey.com/capabilities/mckinsey-digital/our-insights/the-economic-potential-of-generative-AI-the-next-productivity-frontier#introduction (last visited June 30, 2023). [3]Gartner, supra note 1. [4]Zoe Kleinman, Philippa Wain & Ashleigh Swan, Using AI for loans and mortgages is big risk, warns EU boss (June 14, 2023), https://www.bbc.com/news/technology-65881389 (last visited June 30, 2023). [5]Ryan Browne & MacKenzie Sigalos, A.I. has a discrimination problem. In banking, the consequences can be severe (June 23, 2023), https://www.cnbc.com/2023/06/23/ai-has-a-discrimination-problem-in-banking-that-can-be-devastating.html (last visited June 30, 2023). [6]Group-IB, Group-IB Discovers 100K+ Compromised ChatGPT Accounts on Dark Web Marketplaces; Asia-Pacific region tops the list (June 20, 2023), https://www.group-ib.com/media-center/press-releases/stealers-chatgpt-credentials/ (last visited June 30, 2023). [7]OpenAI, March 20 ChatGPT outage: Here’s what happened (Mar. 24, 2023),https://openai.com/blog/march-20-chatgpt-outage (last visited June 30, 2023).

英國實行個人健康和社會照護資訊連結服務(care.data)

  隨著英國國家健康服務(National Health Service, NHS)的改革,英國於去(2012)年3月27日通過衛生和社會照護法(The Health and Social Care Act 2012)。當中一項主要的變革即是成立衛生與社會照護資訊中心(The Health and Social Care Information Centre, HSCIC)作為醫療健康資料的專責機構。而這樣的變革,也影響過去病歷資料的蒐集、分享和分析方式。依據衛生和社會照護法的規定,HSCIC若受到衛生部長(Secretary of State for Health)指示、或來自照護品質委員會(Care Quality Commission, CQC)、英國國家健康與臨床卓越研究院(National Institute for Health and Clinical Excellence, NICE)、醫院監管機構Monitor的命令要求時,在這類特定情況之下,可以無需尋求病患同意,而從家庭醫師(GP Practice)處獲得病患的個人機密資料(Personal Confidential Data, PCD)。   今(2013)年3月獲NHS授權, 由HSCIC於6月開始執行的care.data服務,即是依據前述立法所擬定之方案。care.data藉由定期蒐集醫療照護過程中的相關資料,對病患於國內所為的各項健康和社會照護資訊(例如病患的住院、門診、意外事故和緊急救護記錄)進行具延續性之連結。以提供即時、正確的NHS治療和照護資訊給民眾、門診醫師和相關部門之官員,進而達到care.data所設定的六項目標,支援病患進行治療的選擇、加強顧客服務、促進資訊透明性、優化成果產出、增加問責性,並驅動經濟成長。   然而,由於care.data是以英國民眾就醫行為中,屬於基礎醫療的家庭醫師(General Practitioner, GP)系統為基礎,所提取的資料包括家族歷史、接種疫苗、醫師診斷、轉診記錄、生理指標,以及所有NHS處方。其次,care.data在進行初級和次級資料連結時,將會透過NHS號碼、生日、性別和郵遞區號,這四項可識別資料的比對。因此雖然care.data在涉及敏感性資料時會加以排除,但此項服務仍引起社會上相當大的爭議。包括部分醫師、隱私專家和的社會團體皆提出質疑,質疑care.data是否有充分告知病人、HSCIC所宣稱的匿名性是否足夠、此項服務對醫病關係的衝擊、該服務所宣稱的資料分享退出機制(opt-out)並未妥善等。   care.data是NHS所推出的創新資料現代化服務,但同時也涉及病患隱私權保護之議題。反觀我國近來所推動的醫療健康資訊加值再利用政策,英國的案例值得我們持續觀察其發展。

TOP