歐盟2020年人工智慧白皮書

  歐盟執委會於2020年2月19日發布「人工智慧白皮書」(White Paper on Artificial Intelligence: a European approach to excellence and trust),以打造卓越且可信賴的人工智慧為目標。歐盟認為在推動數位轉型過程中的一切努力,均不應脫離歐盟以人為本的最高價值,包含:開放(open)、公平(fair)、多元(diverse)、民主(democratic)與信任(confident),因此在人工智慧的發展上,除了追求技術的持續精進與卓越外,打造可信賴的人工智慧亦是歐盟所重視的價值。

  歐盟執委會於人工智慧白皮書中分別就如何追求「卓越」與「可信賴」兩大目標,提出具體的措施與建議。在促進人工智慧卓越方面,執委會建議的措施包含:建立人工智慧與機器人領域的公私協力;強化人工智慧研究中心的發展與聯繫;每個成員國內應至少有一個以人工智慧為主題的數位創新中心;歐盟執委會與歐洲投資基金(European Investment Fund)將率先在2020年第1季為人工智慧開發與使用提供1億歐元融資;運用人工智慧提高政府採購流程效率;支持政府採購人工智慧系統等。上述各項措施將與歐盟「展望歐洲」(Horizon Europe)科研計畫密切結合。

  而在建立對人工智慧的信賴方面,執委會建議的措施則包含:建立有效控制人工智慧創新風險但不箝制創新的法規;具高風險的人工智慧系統應透明化、可追溯且可控制;政府對人工智慧系統的監管程度應不低於對醫美產品、汽車或玩具;應確保所使用的資料不帶有偏見;廣泛探討遠端生物辨識技術的合理運用等。歐盟執委會將持續徵集對人工智慧白皮書的公眾意見,並據以在2020年底前提出成員國協力計畫(Coordinated Plan)之建議。

本文為「經濟部產業技術司科技專案成果」

相關連結
相關附件
你可能會想參加
※ 歐盟2020年人工智慧白皮書, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8417&no=65&tp=5 (最後瀏覽日:2025/12/08)
引註此篇文章
你可能還會想看
英國民航局發布航空AI監管策略三文件,以因應AI於航空領域之挑戰與機會

英國民用航空局(United Kingdom Civil Aviation Authority, CAA)於2024年12月3日發布「CAA對新興AI驅動自動化的回應」(The CAA's Response to Emerging AI-Enabled Automation)、「航空人工智慧與先進自動化監管策略」(Part A:Strategy for Regulating AI and Advanced Automation in Aerospace)以及「CAA 應用AI策略」(Part B: Strategy for Using AI in the CAA)等三份文件。首先,前者概述CAA對於AI應用於航空領域之總體立場,強調以確保安全、安保、消費者保護及環境永續等前提下,促進AI技術在相關航空領域之創新與應用;其次,「航空人工智慧與先進自動化監管策略」著重說明如何於航空領域監管AI技術之使用,以兼顧推動創新並維持安全性及穩健性;最後,「CAA 應用AI策略」則聚焦於CAA內部使用AI技術提升監管效率與決策能力的策略。 由於AI正迅速成為航空產業之重要技術,其應用範圍包含航空器、機場、地面基礎設施、空域、航太、消費者服務等,具有提高航空安全性、運作效率、環境永續性與消費者體驗之潛力。然而,相關技術風險與監管挑戰亦伴隨而至,仍需新的監管框架應對潛在風險。因此,總體而言CAA以推動AI創新技術、提升航空產業效率與永續性為目標,透過了解技術前景、建立AI通用語言,並以航空領域之五大原則為監管框架之制定核心,建立靈活的AI監管體系,維持最高水準的安全保障。五大原則及案例分述如下: (1) 安全、安保與穩健性(Safety, Security and Robustness),例如:使用AI分析航空器感測器資料進行預測維護,以利提早發現問題。 (2) 透明與可解釋性(Transparency and Explainability),例如:清楚記錄AI系統如何提出空中交通路線建議。 (3) 可質疑性與矯正機制(Contestability and Redress),例如:制定一套明確的流程,以便航空公司查詢並了解AI生成的安全建議。 (4) 公平與偏見(Fairness and Bias),例如:確保自動化旅客篩查安檢系統公平對待所有旅客。 (5) 問責與治理(Accountability and Governance),例如:明確界定AI系統在機場運營中的監管角色與職責。 .Pindent{text-indent: 2em;} .Noindent{margin-left: 2em;} .NoPindent{text-indent: 2em; margin-left: 2em;} .No2indent{margin-left: 3em;} .No2Pindent{text-indent: 2em; margin-left: 3em} .No3indent{margin-left: 4em;} .No3Pindent{text-indent: 2em; margin-left: 4em}

歐盟第29條資料保護工作小組澄清有關網際行為廣告cookie的使用

  歐盟電子通訊隱私指令(Directive 2002/58/EC on Privacy and Electronic Communications, e-Privacy Directive)第五條(3)中對於cookie(即業者為辨別使用者身份而儲存在用戶端上的資料)設置的規範,將於2011年5月全面施行。惟對於cookie之使用,部分網路業者認為如果網路使用者沒有選擇不要裝置cookie (opt-out),那麼就等同於同意裝置,而不需另外取得使用者的同意。針對此點,歐盟第29條資料保護工作小組(Article 29 Data Protection Working Party)於2010年06月22日對於網際行為廣告作出一份意見(Opinion 2/2010 on online behavioural advertising)。   意見中澄清,網際行為廣告係一種透過cookie的使用,追蹤蒐集網路使用者上網行為的資料,其網路資訊將被使用於日後發放與使用者上網行為相對應的廣告之用。除非是屬於網路使用者明白要求使用cookie,或是使用網路服務所『必要』的cookie(例如,沒有cookie就無法顯示或進行至下一個頁面),則不必先行取得使用者的同意外;其他凡經由cookie所儲存的資料,均應被視為『個人資料』,使用上必需先行取得網路使用者的明示同意,以自行選擇(opt-in)的方式接受cookie的使用,後存於網路使用者的個人電腦中。業者不得以搜尋引擎的cookie設定主張視為網路使用者等同已經明示同意使用cookie進行被追蹤及蒐集資料。   該意見受到許多歐盟及國際之網際出版、廣告及商務業者的反彈,業者表示所蒐集的資料並非可辨認性或敏感性資料,此規範的執行將會嚴重衝擊到廣告產業的收益,建議採行自律規範或使用行為守則來取代上述規定。   由於這項規範尚未於歐盟中被執行,歐盟第29條資料保護工作小組對於技術上如何遵循該規範也並沒有提出具體的建議。

脫歐協議草案:英國將繼續保護已註冊或已授予的智慧財產權

  歐盟委員會(European Commission)於2018年2月28日公佈了歐盟與英國脫歐協議草案(The draft Brexit Withdrawal Agreement),其中規定在英國將會持續地保護先前已註冊或已授予的智慧財產權。   根據該協議草案第50(1)條規定,先前在歐盟已註冊或被核准的商標、設計或植物品種權的持有人,在過渡期結束之前,不須再經任何復審,視同已在英國註冊且具可實施性的智慧財產權。而關於地理標誌、原產地名稱和地方傳統特色,在第50(2)條亦有類似規定。   該協議草案有:智慧財產權註冊程序之規定(第51條);英國繼續就歐盟特定會員國已註冊之商標或外觀設計提供保護(第52條);英國繼續就未註冊的共同體設計提供一定程度的保護(第53條);繼續保護數據庫(第54條);申請歐盟商標和共同體之植物品種權享有優先審查權(第55條);在英國申請植物補充保護證書享有優先權(第56條)及權利耗盡(第57條)等規定。   惟歐洲專利體系以歐洲專利公約(European Patent Convention)為基礎。 因此,有關專利的相關規定未在英國脫歐協議草案出現,亦未在將來的一元專利系統(Unitary Patent system)中被提及,而此系統係源自於兩項歐盟的規章。   目前該協議草案已由歐盟委員會提出,首先將讓歐盟各成員國和歐洲議會先進行磋商,最後再與英國進行協商。

日本內閣府公布生成式AI初步意見彙整文件,提出風險因應、應用及開發兩大關注重點

日本內閣府於2023年5月26日召開第2次「AI戰略會議」(AI戦略会議),並公布「AI相關論點之初步整理」(AIに関する暫定的な論点整理)。鑒於AI對於改善國人生活品質、提高生產力無疑有相當助益,考量生成式AI甫問世,社會大眾對其潛在風險尚心存疑慮,內閣府遂以生成式AI為核心,延續先前已公布之「AI戰略2022」(AI 戦略 2022)、「以人為中心的AI社會原則」(人間中心の AI 社会原則),以「G7廣島峰會」(G7広島サミット)所提出之願景—「符合共同民主價值的值得信賴AI」為目標,提出「風險因應」及「應用與開發」兩大關注重點,供政府有關部門參考之同時,並期待可激起各界對於生成式AI相關議題之關注與討論: 一、風險因應:AI開發者、服務提供者與使用者應自行評估風險並確實遵守法規及相關指引;政府則應針對風險應對框架進行檢討,對於已知的風險,應先以現有的法律制度、指引與機制進行處理,假如現有法制等無法完全因應這些風險,則應參考各國作法盡速對現行制度進行修正。 AI的透明度與可信賴度於風險因應至關重要。若能掌握AI學習使用哪些資料、所學習資料之來源、AI如何產生結果等,就能針對使用目的選擇適合的AI,也較易因應發生之問題,並避免AI產生錯誤結果或在對話中洩漏機密資訊等。對此,本文件呼籲AI開發者及服務提供者依據現行法令和指引主動揭露資訊,政府則應對透明度和可信賴度相關要求進行檢討,並應依普及程度及各國動向對既有的指引進行必要之修正。 二、應用與開發:本文件建議政府部門積極使用生成式AI於業務工作上,找出提升行政效率同時不會洩漏機密之方法,並向民眾宣導AI應用之益處與正確的使用方式,以培養民眾AI相關技能與素養,藉以更進一步建構AI應用與開發之框架,如人才培育、產業環境準備、相關軟硬體開發等。

TOP