歐盟發布「2021年數位經濟與社會指數」,指出數位轉型持續但不均

  歐盟執委會於2021年11月12日發布「2021年數位經濟與社會指數」(Digital Economy and Society Index 2021, DESI 2021),指數顯示歐盟各成員國都在持續推動數位轉型,但存在前段國家與後段國家之間的鴻溝仍然巨大,為了達成「歐洲數位十年:2030數位轉型目標」(Europe’s Digital Decade: digital targets for 2030),各成員國間應加強在數位轉型的協力合作。

  DESI 2021統計資料取自2020年第一季到第二季之間,因此對於COVID-19疫情肆虐下對歐洲各國數位化的影響,需要等到2022年的指數方能呈現。不過DESI 2021資料顯示,56%的歐盟公民已經具備基本的數位技能,而歐盟資通訊專業人員數量來到840萬人,相較前一年的780萬人有顯著成長,但仍有55%的企業表示推動數位轉型最大的困難在於找不到資通訊人才。

  在連線能力方面,歐盟推動「超高容量網路」(very high-capacity network, VHCN)的成果使家戶普及比例來到59%,相較前一年的50%亦有明顯增長,但相較全球高速寬頻網路普及目標仍有相當大的差距;在鄉村VHCN的布建上,則由2019年的22%來到2020年的28%。5G網路方面,完成頻譜分配的國家從16個成長至25個,其中有13個國家已經啟動5G商轉。

  在數位科技整合方面,運用雲端技術的公司比例出現顯著成長,由2018年的16%成長至2020年的26%,大型企業持續擴大數位科技應用,包含運用企業資源規劃(Enterprise Resource Planning, ERP)進行電子資訊分享、雲端軟體的使用等。資料顯示數位轉型正在不斷落實與推進,但是要達成2030數位轉型目標仍有相當大的差距,有賴各國的合作與努力。

本文為「經濟部產業技術司科技專案成果」

相關連結
相關附件
你可能會想參加
※ 歐盟發布「2021年數位經濟與社會指數」,指出數位轉型持續但不均, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8767&no=86&tp=1 (最後瀏覽日:2025/10/16)
引註此篇文章
科法觀點
你可能還會想看
歐盟執委會通過關於《人工智慧責任指令》之立法提案

  歐盟執委會(European Commission)於2022年9月28日通過《人工智慧責任指令》(AI Liability Directive)之立法提案,以補充2021年4月通過之《人工智慧法》草案(Artificial Intelligence Act)。鑑於人工智慧產品之不透明性、複雜性且具自主行為等多項特徵,受損害者往往難以舉證並獲得因人工智慧所造成之損害賠償,《人工智慧責任指令》立法提案即為促使因人工智慧而受有損害者,得以更容易獲得賠償,並減輕受損害者請求損害賠償之舉證責任。   《人工智慧責任指令》透過引入兩個主要方式:(一)可推翻之推定(rebuttable presumptions):人工智慧責任指令透過「因果關係推定(presumption of causality)」來減輕受損害者之舉證責任(burden of proof)。受損害者(不論是個人、企業或組織)若能證明人工智慧系統因過失或不遵守法規要求之義務,致其受有損害(包括基本權利在內之生命、健康、財產或隱私等),並且該損害與人工智慧系統之表現具有因果關係,法院即可推定該過失或不遵守義務之行為造成受損害者之損害。相對的,人工智慧之供應商或開發商等也可提供相關證據證明其過失不可能造成損害,或該損害係由其他原因所致,以推翻該損害之推定。(二)證據揭露機制(disclosure of evidence mechanism):若受害者之損害涉及高風險人工智慧時,得要求自該供應商或開發商等處獲取證據之權利。受害者透過證據揭露機制能夠較容易地尋求法律賠償,並得以找出究責的對象。   歐盟執委會認為以安全為導向的《人工智慧法》,為人工智慧訂定橫向規則,旨在降低風險和防止損害,但仍需要《人工智慧責任指令》之責任規定,以確保損害風險出現時,相關賠償得以被實現。但歐盟執委會仍選擇了較小的干預手段,《人工智慧責任指令》針對過失之責任制度進行改革,並未採取舉證責任倒置(a reversal of the burden of proof)之作法,而是透過「可推翻之推定」,一方面減輕受損害者之舉證責任,使受損害者得對影響人工智慧系統並產生過失或侵害行為之人提出損害賠償;另一方面賦予人工智慧之供應商或開發商等有機會推翻前揭造成損害之推定,以避免人工智慧系統之供應商或開發商面臨更高的責任風險,可能阻礙人工智慧產品和服務創新。

申請專利時請注意:網頁內容亦可能成為「先前技術」(prior art)

  日前英國智慧局 (UK Intellectual Property Office) 裁定一則刊登描述銀行用於網路交易時辨識方法的新聞網頁可以做為「先前技術」的有效證據。該局的副局長,同時亦是專利總審查官 Ben Micklewright 指出,網頁上的日期以及內容應該以英美法民事案件中的「機率的平衡」(on the balance of probabilities) 來衡量其證據力。   法國匯豐銀行(HSBC France) 於2005年7月以一項辨識使用者身份的方法對英國智慧局提出專利申請。該方法包含使用者登入時需輸入一組特定的密碼以辨明身份。HSBC France 於申請時以2004年7月2日在法國的申請日期主張優先權。然而英國智慧局的審查官卻依2項證據核駁了 HSBC France 的上述申請,當中一項即為一篇於2004年2月20日刊載於知名雜誌 Computer Magazine 的網站上的文章。該文章描述了一項由 Lloyds TSB提案的身份辨識方法,與HSBC France 提出專利申請的方法有異曲同工之處。   對此 HSBC France 提出抗辨,指出該文章有電子版與紙本,然審查官卻無法提出紙本來證明其公開發表日期。同時HSBC France 亦主張英國智慧局應追隨一件由歐洲專利局 (EPO) 上訴庭的判決,該判決中指出對於網路上電子文章的證據負荷度應高於傳統文件,即應負「無可懷疑」(beyond reasonable doubt)的舉證力。然而 Ben Micklewright 副局長表示英國智慧局無須追從歐洲專利局的判決,並且因為已存在「先前技術」所以該申請案喪失進步性。他更進一步指出上述申請案無論如何皆無法取得商業方法專利,因為該方法不具備技術的本質(“is not technical in nature”)。

紐西蘭人工智慧論壇所發佈人工智慧原則

  紐西蘭人工智慧論壇(AI Forum)協會成立於2017年,為非營利組織,是紐西蘭政府的重要智庫單位。該協會的AI法律、社會和倫理工作組於2020年3月4日發表了紐西蘭第一份《紐西蘭可信賴的AI指導原則》, 此指導原則目的在提供簡潔有力的人工智慧參考點,以幫助大眾建立對紐西蘭人工智慧的開發和使用的信任。此份AI指導原則對政府具有重要的參考價值。   《紐西蘭可信賴的AI指導原則》,內容摘要如下: 一、公平和正義 (一)適用紐西蘭及其他相關管轄地包含科克群島、紐埃、托克勞、南極羅斯屬地法律; (二)須保護紐西蘭國內法及國際法所規範的人權; (三)須保障《懷唐伊條約》中毛利人的權利; (四)民主價值觀包含選舉的過程和在知情的情況下進行公眾辯論; (五)平等和公正的原則,要求人工智慧系統不會對個人或特定群體造成不公正地損害、排斥、削弱權力或歧視。 二、可靠性、安全性和私密性 AI利益相關者須確保人工智慧系統及資料的可靠、準確及安全性,並在人工智慧系統的整個生命週期中,保護個人隱私以及持續的識別和管控潛在風險。 三、透明度 人工智慧系統的運作應是透明的、可追溯的、並在一定的程度上具可解釋性,在面對責問時能夠被解釋且經得起質疑。 四、人類的監督和責任 AI利益相關者,應該對人工智慧系統及其產出進行適當的監督。 在利益相關者確定適當的問責制度和責任之前,不應使用會對個人或群體造成傷害的技術。 五、福利 AI利益相關者應在適當的情況下設計、開發和使用人工智慧系統,盡可能促進紐西蘭人民和環境的福祉,像是健康、教育、就業、可持續性、多樣性、包容性以及對《懷唐伊條約》獨特價值的認可。   此份AI指引較大的特色有兩點,第一,紐西蘭人工智慧論壇協會的成員組成,其中女性成員比例超過半數。第二,在其指導原則中第一點的「公平和正義」及第五點「福利」中,都特別提到須遵守《懷唐伊條約》以確保毛利人的權益。在這樣的基礎下,能更期待紐西蘭在發展AI技術的過程,能夠更切實的做到公平正義、無歧視。

歐盟議會發布《可信賴人工智慧倫理準則》

  2019年4月9日,歐盟議會發布《可信賴人工智慧倫理準則》(Ethics Guidelines for Trustworthy AI)。此次內容大致延續歐盟人工智慧高階專家小組(High-level Expert Group on Artificial Intelligence)於2018年12月18日發布的《可信賴人工智慧倫理準則草案》(Draft Ethics Guidelines for Trustworthy Artificial Intelligence)之內容,要求人工智慧須遵守行善(do good)、不作惡(do no harm)、保護人類(preserve human Agency)、公平(be fair)與公開透明(operate transparency)等倫理原則;並在4月9日發布的正式內容中更加具體描述可信賴的人工智慧的具體要件,共計七面向概述如下: 人類自主性和監控(Human agency and oversight):AI係為強化人類能力而存在,使人類使用者能夠做出更明智的決策並培養自身的基礎能力。同時,AI應有相關監控機制以確保AI系統不會侵害人類自主性或是引發其他負面效果。本準則建議,監控機制應可透過人機混合(一種整合人工智慧與人類協作的系統,例如human-in-the-loop, human-on-the-loop, and human-in-command)的操作方法來實現。 技術穩健性和安全性(Technical Robustness and safety):為防止損害擴張與確保損害最小化,AI系統除需具備準確性、可靠性和可重複性等技術特質,同時也需在出現問題前訂定完善的備援計劃。 隱私和資料治理(Privacy and data governance):除了確保充分尊重隱私和資料保護之外,還必須確保適當的資料治理機制,同時考慮到資料的品質和完整性,並確保合法近用資料為可行。 透明度(Transparency):資料、系統和AI的商業模型應該是透明的。可追溯性機制(Traceability mechanisms)有助於實現這一目標。此外,應以利害關係人能夠理解的方式解釋AI系統的邏輯及運作模式。人類參與者和使用者需要意識到他們正在與AI系統進行互動,並且必須了解AI系統的功能和限制。 保持多樣性、不歧視和公平(Diversity, non-discrimination and fairness):AI不公平的偏見可能會加劇對弱勢群體的偏見和歧視,導致邊緣化現象更為嚴重。為避免此種情況,AI系統應該設計為所有人皆可以近用,達成使用者多樣性的目標。 社會和環境福祉(Societal and environmental well-being):AI應該使包含我們的後代在內的所有人類受益。因此AI必須兼顧永續發展、環境友善,並能提供正向的社會影響。  問責制(Accountability):應建立機制以妥當處理AI所導致的結果的責任歸屬,演算法的可審計性(Auditability)為關鍵。此外,應確保補救措施為無障礙設計。

TOP