歐盟倡議「邁向資料經濟時代」政策,規劃巨量資料Big Data發展策略

  2014年7月歐盟執委會針對巨量資料規劃新的政策,提出「邁向資料經濟時代」(Towards a thriving data-driven economy)政策,對研究發展帶來激勵,創造更多的商業機會。先前在2010年至2015年巨量資料科技與服務市場觀察報告中,指出預期巨量資料科技複合成長率為40%。從這些國際趨勢觀察,智慧聯網與巨量資料涉及的領域包括健康、食品安全、氣候與能源資源、智慧運輸系統以及智慧城市等,而這些都是當前歐洲無法忽略的問題。因此,此政策中指出應支持重點資料來促進公共服務與市民生活的競爭力與品質,廣泛分享使用並發展公開資料資料以及研究資料、確認相關的法律架構與政策屬有利發展、利用政府採購將資料科技帶入市場等項重點,以促成資料驅動經濟的全球化發展。

  歐盟指委會並指出,推動巨量資料政策的施行尚仰賴於其他的行動計畫以及各個會員國之間的合作 。而在資料蒐集與利用逐漸擴張的情形下,歐盟執委會更於2014年7月2日發出聲明,要求各國政府應重視巨量資料帶來的問題,並且指出在巨量資料的公共諮詢中,有主要四個問題: (1)缺乏跨境的合作(2)未具有充分設施以及資金資助機會(3)缺乏資料專家以及相關技術(4)法規範過於零散且複雜。因此,歐盟執委會提出以下幾點,有助於問題的解決:

1.    透過公私營合作制度資助巨量資料發展,特別是在個人醫療領域上的應用。
2.    在Horizon 2020架構下,設立巨量資料中心,將以資料為基礎,將之與雲端使用構成供給鏈,藉此幫助中小企業。
3.    當透過智慧聯網,及機器與機器間通訊取得資料時,應針對資料所有權以及責任規範建立新的準則。
4.    建構資料標準,找出潛在的缺漏。
5.    建立一系列超級運算中心,增加歐洲資料專家。
6.    在不同會員國建立資料處理設施之聯結網絡 。

  歐盟執委會希望能於上述各項政策推動下,共同建立有助資料經濟發展基礎架構及環境,並鼓勵產業界共同投入巨量資料的應用發展。

相關連結
※ 歐盟倡議「邁向資料經濟時代」政策,規劃巨量資料Big Data發展策略, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=6623&no=66&tp=1 (最後瀏覽日:2025/08/20)
引註此篇文章
你可能還會想看
物聯網時代的資料保護防線-以歐盟GDPR為中心

摩托羅拉告蘋果專利侵權,手機大廠展開互告混戰

  摩托羅拉旗下子公司Motorola Mobility於10月6日向美國國際貿易委員會(ITC)提訴,指蘋果公司的iPhone, iPad, iTouch 以及一些 Mac電腦侵害其專利,同時Motorola Mobility也在伊利諾州北區和佛州南區的聯邦法院提出告訴。值得一提的是,在對法院提出的告訴中僅僅是 “指稱” 多種蘋果公司的產品如Apple iPhone 3G, Apple iPad等侵害其專利權,像這種沒有提出具體證據的告訴儼然已經成為風氣,似乎違反了最高法院於Bell Atlantic Corp. v. Twombly案中指出必須要提出明確的事證而非僅止於推論(speculation)的要求。   Motorola Mobility提出的3項告訴中共包含18項專利,乃是關於無線通訊技術,例如WCDMA (3G)、GPRS, 802.11、天線設計,以及關鍵的智慧手機技術,包括無線電子郵件、近距感測(proximity sensing)、軟體應用管理等。Motorola 智財部門的副總裁Kirk Dailey表示自蘋果進入通訊市場以來即開始與其長期磋商,但因為蘋果拒絕接受授權所以不得不提出告訴以阻止他們繼續侵權。近來手機市場上專利侵權互告頻繁,摩托羅拉的Android智慧手機日前也遭微軟控告侵權,HTC也與蘋果對簿公堂。Google、蘋果等手機市場的新秀顯然已對摩托羅拉、微軟等老前輩構成競爭壓力,形成手機大廠互相控告侵權的戲碼不斷上演。

歐盟議會發布《可信賴人工智慧倫理準則》

  2019年4月9日,歐盟議會發布《可信賴人工智慧倫理準則》(Ethics Guidelines for Trustworthy AI)。此次內容大致延續歐盟人工智慧高階專家小組(High-level Expert Group on Artificial Intelligence)於2018年12月18日發布的《可信賴人工智慧倫理準則草案》(Draft Ethics Guidelines for Trustworthy Artificial Intelligence)之內容,要求人工智慧須遵守行善(do good)、不作惡(do no harm)、保護人類(preserve human Agency)、公平(be fair)與公開透明(operate transparency)等倫理原則;並在4月9日發布的正式內容中更加具體描述可信賴的人工智慧的具體要件,共計七面向概述如下: 人類自主性和監控(Human agency and oversight):AI係為強化人類能力而存在,使人類使用者能夠做出更明智的決策並培養自身的基礎能力。同時,AI應有相關監控機制以確保AI系統不會侵害人類自主性或是引發其他負面效果。本準則建議,監控機制應可透過人機混合(一種整合人工智慧與人類協作的系統,例如human-in-the-loop, human-on-the-loop, and human-in-command)的操作方法來實現。 技術穩健性和安全性(Technical Robustness and safety):為防止損害擴張與確保損害最小化,AI系統除需具備準確性、可靠性和可重複性等技術特質,同時也需在出現問題前訂定完善的備援計劃。 隱私和資料治理(Privacy and data governance):除了確保充分尊重隱私和資料保護之外,還必須確保適當的資料治理機制,同時考慮到資料的品質和完整性,並確保合法近用資料為可行。 透明度(Transparency):資料、系統和AI的商業模型應該是透明的。可追溯性機制(Traceability mechanisms)有助於實現這一目標。此外,應以利害關係人能夠理解的方式解釋AI系統的邏輯及運作模式。人類參與者和使用者需要意識到他們正在與AI系統進行互動,並且必須了解AI系統的功能和限制。 保持多樣性、不歧視和公平(Diversity, non-discrimination and fairness):AI不公平的偏見可能會加劇對弱勢群體的偏見和歧視,導致邊緣化現象更為嚴重。為避免此種情況,AI系統應該設計為所有人皆可以近用,達成使用者多樣性的目標。 社會和環境福祉(Societal and environmental well-being):AI應該使包含我們的後代在內的所有人類受益。因此AI必須兼顧永續發展、環境友善,並能提供正向的社會影響。  問責制(Accountability):應建立機制以妥當處理AI所導致的結果的責任歸屬,演算法的可審計性(Auditability)為關鍵。此外,應確保補救措施為無障礙設計。

英國政府公布「英國醫療器材監管的未來」公眾諮詢結果並確立未來監管方向

  英國藥物及保健產品管理局(Medicines and Healthcare Products Regulatory Agency, MHRA)於2022年6月22日公布「英國醫療器材監管的未來之公眾諮詢政府回應」(Government response to consultation on the future regulation of medical devices in the United Kingdom),確立未來醫材監管方向。本次諮詢收到將盡900件回應(民眾與業者大約各半),結果顯示民眾業者對於強化醫療器材安全監管的支持。   MHRA將強化MHRA的執法權力,以確保病患安全,並且關注健康不平等議題並減少AI偏見問題;其監管設計上會考量歐盟和全球標準,並致力於建立英國符合性評鑑(UK Conformity Assessed, UKCA)。MHRA於安全方面,將增加製造商、進口商與經銷商的責任,並要求有英國地址的負責人對瑕疵商品負擔法律責任(構成法律責任的要件與製造商同)。其亦將要求製造商賠償被不良事件影響的人、禁止行銷上使用引人錯誤之表示、導入醫材之單一識別碼(Unique Device Identifiers, UDI)與增加註冊所需提供之資料,且製造商須建置上市後不良反應監測系統並回報統計上顯著的不良事件趨勢。創新方面,MHRA欲增設「創新醫療器材上市管道」和「軟體醫材上市管道」,以顧及創新與軟體醫材特殊需求。針對一般軟體醫材(software as a medical device, SaMD)與人工智慧軟體醫材(AI as a medical device, AIaMD)的監管,MHRA僅欲於法規中增加「軟體」的定義,其他規範將由指引的形式公布。此外,其將AIaMD視為SaMD的一種,並不會額外訂定AIaMD相關規範。

TOP