歐盟提出人工智慧法律調和規則草案

  歐盟執委會(European Commission)於2021年4月21日提出「人工智慧法律調和規則草案」(Proposal for a Regulation Laying Down Harmonised Rules on Artificial Intelligence (Artificial Intelligence Act) and Amending Certain Union Legislative Acts)(簡稱AI規則草案),旨在平衡「AI運用所帶來的優勢」與「AI對個人或社會所帶來的潛在負面衝擊」,促使會員國在發展及運用AI時,能採取協調一致的態度及方法,共同維護歐洲公民基本權利與歐盟價值。

  歐盟自2019年起即倡議發展「值得信賴的AI」(Trustworthy AI)。AI規則草案之提出,除了落實執委會2019年至2024年之政策願景外,亦呼應2020年歐洲議會(European Parliament)之建議—針對AI應用之機會與利益採取立法行動,並確保合乎倫理原則。惟鑒於歐盟在環境、健康、公共事務、金融、交通、農業等領域對AI應用之高度需求,以及企業仰賴AI技術提升競爭優勢等因素,執委會係以「風險為基礎」之概念取向(risk-based approach)制定AI規則草案,避免對新技術發展造成不必要的限制或阻礙。

  本規則草案將AI系統,依其「對歐盟基本權利或價值所創造的風險程度」,分為下列三種類型,並施以不同程度的監理方式:

一、不可接受之風險:原則上禁止使用此類型AI系統或使其進入歐盟市場。例如:利用潛意識技術操控個人、在公共場合利用「即時遠端生物辨識系統」進行執法、公務機關普遍對個人進行社會評分等。

二、高風險:於附錄中列出所謂高風險AI系統,要求高風險AI系統之提供者遵循風險管理、資料治理、文件紀錄保存、透明性與資訊揭露、人為監督、健全性、準確性與資安等要求;且AI系統進入歐盟市場前,需進行符合性評估(conformity assessment),進入市場後,則需持續監控。

三、非不可接受之風險亦非高風險:鼓勵AI系統提供者或使用者,自願建立行為準則(codes of conduct)。

  AI規則草案亦鼓勵會員國建立AI監理沙盒(regulatory sandbox)機制,且以中小企業、新創公司為優先對象,使創新AI系統進入市場之前,能於可控環境中依明確計畫進行開發、測試與驗證。

相關連結
相關附件
你可能會想參加
※ 歐盟提出人工智慧法律調和規則草案, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8674&no=67&tp=1 (最後瀏覽日:2026/04/30)
引註此篇文章
你可能還會想看
雲端運算所涉法律議題

  雲端運算(Cloud Computing),是一種基於網際網路的運算方式,用以共享軟硬體資源、依需求提供資訊給電腦和其他裝置。本質上其實就是分散式運算 Distributed Computing,其主要應用是讓不同的電腦同時協助你處理運算,故只要具備兩台以上電腦,讓他們之間互相溝通,協助您處理工作,就是基本的分散式運算。   雲端運算是繼1980年代大型電腦到用戶端-伺服器的大轉變之後的又一種巨變。使用者不再需要了解「雲端」中基礎設施的細節,不必具有相應的專業知識,也無需直接進行控制。雲端運算概念下描繪了一種基於網際網路而新增加的新興IT服務、使用和交付模式,藉由網際網路來提供各種不同的資源、服務功能而且經常是虛擬化的。 「雲端運算」供應模式以及實用定義如下: ‧ 軟體服務化 (SaaS):透過網際網路存取雲端的應用程式 (例如:Salesforce.com、趨勢科技 HouseCall)。 ‧ 平台服務化 (PaaS):將客戶開發的應用程式部署到雲端的服務 (例如:Google AppEngine 與 Microsoft Azure)。 ‧ 基礎架構服務化 (IaaS):有時亦稱「公用運算」(Utility Computing),意指處理器、儲存、網路以及其他資源的租用服務 (例如:Amazon 的 EC2、Rackspace 以及 GoGrid)。   雲端運算服務所涉及的法律議題相當廣泛,包含隱私權、個人資料保護、資料管轄權、契約責任、智慧財產權保護與營業秘密等。在隱私權問題方面,使用者的隱私或機密風險,乃至權利義務狀態會因為雲端供應商所提供之服務與隱私權政策(privacy policy)而有顯著不同,也可能因為資訊型態或雲端運送使用者類型不同而有差異。在雲端運算服務契約方面,發生資訊安全事件導致資料失竊或毀損時,供應商責任或注意義務如何於契約中合理分配風險,亦是契約方面重要議題。

美國情報體系發布「情報體系運用人工智慧倫理架構」

  美國國家情報體系(United States Intelligence Community)係於1981年依據行政命令第12333號(Executive Order 12333)所建立,其任務為蒐集、分析與提供外國情報與反情報資訊美國國家領導人,服務對象包含美國總統、執法單位以及軍事單位。其於2020年6月提出「情報體系人工智慧倫理架構」(Artificial Intelligence Ethics Framework for the Intelligence Community),為人工智慧系統與訓練資料、測試資料之採購、設計、研發、使用、保護、消費與管理提出指引,並指出人工智慧之利用須遵從以下事項: 一、於經過潛在風險評估後,以適當且符合目的之方法利用; 二、人工智慧之使用應尊重個人權利與自由,且資料取得應合法且符合相關政策與法規之要求; 三、應於利用程序內結合人類判斷與建立問責機制,以因應AI產品之風險並確保其決策之適當性。 四、於不破壞其功能與實用性之前提下,盡可能確認、統計以及降低潛在之歧視問題。 五、AI進行測試時應同時考量其未來利用上可預見之風險。 六、持續維持AI模型之迭代(Iteration)、版本與改動之審查。 七、AI之建立目的、限制與設計之輸出項目,應文件化。 八、盡可能使用可解釋與可理解之方式,讓使用者、審查者與公眾理解為何AI會產出相關決策。 九、持續不定期檢測AI,以確保其符合當初建置之目的。 十、確認AI於產品循環中各階段之負責人,包含其維護相關紀錄之責任。

東京都公布「新創全球創新政策」

東京都政府在2022年底發布了「新創全球創新政策」,希望能透過新創全球化的發展帶動產業年輕化,挽救東京在全球新創圈的頹勢。2022年新創生態城市排名東京名列第12名,在其之前的亞洲城市包含第5名的北京、第8名的上海及第10名的首爾,說明了東京在亞洲城市的新創生態排名不如其城市發展一樣的領先群雄。其手段包含在2023年2月以Sustainable High City Tech Tokyo(永續科技城市東京,簡稱為SusHi Tech Tokyo,取壽司的日文諧音)為題,展開一連串將東京打造成新創城市的策略。 關於「新創全球創新政策」中法制方面的政策規劃如下: 1.重新設計法規以培養國內企業家-掌握新創公司的需求,舉行說明會或交流會,來具體後續修法內容。除此之外建立伴走支援制度蒐集新創事業之需求,整合需求對接各主管機關,並協助制度修改之後續追蹤。 2.重新設計全球企業家進入日本的法規-為了增加東京本土的創業公司數量,並加速東京創業公司的全球擴張,制定從海外吸引高級人才的規定,將提出一系列放寬高技能人才簽證簽發條件的特區提案。 3.協助日本新創企業留住外國人才-鬆綁留日簽證規定,使在日一流大學畢業的高階外國人才得於畢業後進入日本新創企業就業或自行成立新創企業。 其他包含結合相關單位包含大學、財團法人與政府部門一同為新創提供支持、培育年輕人創業精神及全球化技能、辦理全球性活動City-Tech.Tokyo並以全國一個品牌的方式向國際推廣日本新創,透過這個「新創全球創新政策」讓日本新創生態發展奪回亞洲冠軍拚向世界前段班。 綜觀來看,東京的「新創全球創新政策」以城市做主體,展現了東京轉變的決心,不只要走在日本最前端更是要走在世界城市的前端。

日本「新產業構造部會」提出2030年「新產業構造願景」

  日本政府認為IoT、Big Data以及人工智慧等破壞式創新技術的出現,目前世界正處於「第四次工業革命」之重大變革,而究竟IoT、Big Data及人工智慧的發展會對經濟、社會產生什麼程度的影響,公私部門有必要共同對應及討論共同戰略願景。因此,經濟產業省於2015年9月17日在「產業構造審議會」下設置「新產業構造部會」,以公私協力的方式共同策定未來產業願景。 該會議的具體檢討事項包括: 1. 具體變革狀況檢視:IoT、Big Data、人工智慧等技術,究竟會對產業構造、就業結構,以及經濟社會系統具體產生如何的改變。 2. 變革之影響:上述的變化可能創造機會,亦會產生風險。因此,於經濟社會層面要怎麼解決迎面而來的挑戰,是否有可能克服相關限制,亦為應關注的焦點。 3. 把握國際上的動向:上述的機會及風險,各國政府及企業等應對的戰略究竟為何。 4. 日本政府具體之特定處方籤:於上述背景下,日本政府及民間企業,應提出個別之戰略及對應方法。   綜上所述,公私部門應協力做成包含時間進程的「指南針」,最後提出2030年「新產業構造願景(新産業構造ビジョン)」,對將來經濟社會系統進行預測。

TOP