歐盟提出人工智慧法律調和規則草案

  歐盟執委會(European Commission)於2021年4月21日提出「人工智慧法律調和規則草案」(Proposal for a Regulation Laying Down Harmonised Rules on Artificial Intelligence (Artificial Intelligence Act) and Amending Certain Union Legislative Acts)(簡稱AI規則草案),旨在平衡「AI運用所帶來的優勢」與「AI對個人或社會所帶來的潛在負面衝擊」,促使會員國在發展及運用AI時,能採取協調一致的態度及方法,共同維護歐洲公民基本權利與歐盟價值。

  歐盟自2019年起即倡議發展「值得信賴的AI」(Trustworthy AI)。AI規則草案之提出,除了落實執委會2019年至2024年之政策願景外,亦呼應2020年歐洲議會(European Parliament)之建議—針對AI應用之機會與利益採取立法行動,並確保合乎倫理原則。惟鑒於歐盟在環境、健康、公共事務、金融、交通、農業等領域對AI應用之高度需求,以及企業仰賴AI技術提升競爭優勢等因素,執委會係以「風險為基礎」之概念取向(risk-based approach)制定AI規則草案,避免對新技術發展造成不必要的限制或阻礙。

  本規則草案將AI系統,依其「對歐盟基本權利或價值所創造的風險程度」,分為下列三種類型,並施以不同程度的監理方式:

一、不可接受之風險:原則上禁止使用此類型AI系統或使其進入歐盟市場。例如:利用潛意識技術操控個人、在公共場合利用「即時遠端生物辨識系統」進行執法、公務機關普遍對個人進行社會評分等。

二、高風險:於附錄中列出所謂高風險AI系統,要求高風險AI系統之提供者遵循風險管理、資料治理、文件紀錄保存、透明性與資訊揭露、人為監督、健全性、準確性與資安等要求;且AI系統進入歐盟市場前,需進行符合性評估(conformity assessment),進入市場後,則需持續監控。

三、非不可接受之風險亦非高風險:鼓勵AI系統提供者或使用者,自願建立行為準則(codes of conduct)。

  AI規則草案亦鼓勵會員國建立AI監理沙盒(regulatory sandbox)機制,且以中小企業、新創公司為優先對象,使創新AI系統進入市場之前,能於可控環境中依明確計畫進行開發、測試與驗證。

相關連結
相關附件
你可能會想參加
※ 歐盟提出人工智慧法律調和規則草案, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?no=67&tp=1&d=8674 (最後瀏覽日:2025/07/02)
引註此篇文章
你可能還會想看
德國提出「對外貿易條例」修正草案

  德國聯邦經濟與能源部(Bundesministerium für Wirtschaft und Energie,BMWi)在2017年7月提出「對外貿易條例」(Außenwirtschaftsverordnung)修正草案,以規定基於德國的公共政策安全或基本安全利益,對於外國人(或企業)收購國內公司,在必要時得予以禁止或增加強制條件。   如果交易完成後(一)歐盟之外的收購方將直接或間接持有目標公司25%以上的表決權以及(二)出於公共秩序或安全原因有必要採取上述措施,聯邦經濟與能源部可禁止對德國公司的收購交易。   該法修正草案亦進一步規定,聯邦經濟能源部將在本法律框架下對於涉及以下(技術)領域相關企業併購案之合約談判的各方進行審查程序,以確保國家實質安全利益: 部分能源電力領域,例如:電廠控制技術、電網工程技術、電廠系統或系統操作的控制技術(供電、供氣、燃油或集中供熱等)。 部分用水領域,例如:用水控制、調配或自動化技術(飲用水供應或污水處理設施)。 訊息技術和電信軟體領域,例如:語音和數據傳輸、數據儲存系統及處理系統)。 金融和保險部門、其運營的軟體或現金系統。 涉及醫療保健軟體部門或醫院管理訊息系統、處方藥和實驗室訊息系統的運行等領域部分。 涉及運輸和交通領域內的控制系統、工廠或設施的運行、航空運輸、乘客和貨物系統、鐵路運輸、海運和內河運輸、公路運輸、公共交通或後勤物流等領域。

歐盟執委會更新《軍民兩用貨品與優先技術出口相關限制》,加強對俄制裁

歐盟執委會於2023年7月6日更新《軍民兩用貨品與優先技術出口相關限制》(Export-related restrictions for dual-use goods and advanced technologies)一般性指引,本指引彙整制裁俄羅斯與白俄羅斯的常見問答,針對歐盟2014年第833號規則(Council Regulation (EU) No 833/2014)第2條、第2a條以及第2b條等規定進行說明,提供相關主管機關、利害關係人(包括出口商)參考。 本指引此次更新「高度優先戰場項目清單」(List of High Priority Battlefield Items)以供相關主管機關密切追蹤相關貨品是否有違法輸往俄羅斯的狀況,分別公布四組HS稅號以監控貨品的進出: (1)積體電路相關項目,分別為HS稅號854231、854232、854233以及854239。 (2)通訊及被動電子元件相關項目,分別為HS稅號851762、852691、853221、853224以及854800。 (3)半導體裝置等項目,分別為HS稅號847150、850440、851769、852589、853669、853690、854110、854121、854129、854130、854149、854151、854159、854160、880730、901310、901380、901420以及901480。 (4)自動資料處理機器元件等項目,分別為HS稅號847180、848610、848620、848640、853400、854320、903020、903032、903039以及903082。

德國向歐盟提交《人工智慧白皮書-歐洲卓越與信任概念》及《人工智慧,物聯網和機器人技術對安全和責任之影響報告》意見

  德國聯邦政府於2020年6月29日,針對歐盟執委會於2020年2月19日公布的《人工智慧白皮書-歐洲卓越與信任概念》(Weißbuch zur Künstlichen Intelligenz – ein europäisches Konzept für Exzellenz und Vertrauen)及《人工智慧,物聯網和機器人技術對安全和責任之影響報告》(Bericht über die Auswirkungen künstlicher Intelligenz, des Internets der Dinge und der Robotik in Hinblick auf Sicherheit und Haftung) 提交意見,期能促進以負責任、公益導向、以人為本的人工智慧開發及使用行為,並同時提升歐盟的競爭力及創新能力。   歐盟執委會所發布的人工智慧的白皮書及人工智慧對安全和責任的影響報告,一方面可促進人工智慧使用,另一方面則藉此提醒相關風險。本次意見主要集結德國聯邦經濟與能源部、教育與研究部、勞動與社會事務部、內政、建築及社區部以及司法與消費者保護部之意見。德國政府表示,投資人工智慧為重要計畫之一,可確保未來的創新和競爭力,以及應對諸如COVID-19疫情等危機。最重要的是,可透過人工智慧的應用扶持中小型公司。然而在進行監管時,必須注意應促進技術發展而非抑制創新。   在《人工智會白皮書-歐洲卓越與信任概念》中指出,人工智慧發展應在充分尊重歐盟公民的價值觀和權利的前提下,實現AI的可信賴性和安全發展之政策抉擇,並於整體價值鏈中實現「卓越生態系統」(Ökosystem für Exzellenz),並建立適當獎勵機制,以加速採用AI技術為基礎之解決方案。未來歐洲AI監管框架將創建一個獨特的「信任生態系統」(Ökosystem für Vertrauen),並確保其能遵守歐盟法規,包括保護基本權利和消費者權益,尤其對於在歐盟營運且具有高風險的AI系統更應嚴格遵守。此外,應使公民有信心接受AI,並提供公司和公共組織使用AI進行創新之法律確定性。歐盟執委會將大力支持建立以人為本之AI開發方法,並考慮將AI專家小組制定的道德準則投入試行階段。德國政府指出,除了要制定並遵守歐洲AI的監管政策外,應特別注重保護人民之基本權,例如個人資料與隱私、消費者安全、資料自決權、職業自由、平等待遇等,並呼籲國際間應密切合作,運用人工智慧技術克服疫情、社會和生態永續性等挑戰。另外,德國政府亦支持將人工智慧測試中心與真實實驗室(監理沙盒場域)相結合,以助於加速企業實際運用,也將帶頭促進AI在公部門之運用。   在《人工智慧,物聯網和機器人技術對安全和責任之影響報告》中則指出,歐洲希望成為AI、IoT和機器人技術的領導者,將需要清楚、可預測的法律框架來應對技術的挑戰,包括明確的安全和責任框架,以確保消費者保護及企業合法性。AI、IoT和機器人技術等新數位技術的出現,將對產品安全性和責任方面出現新挑戰,而在當前的產品安全法規上,缺乏相關規範,特別是在一般產品的安全指令,機械指令,無線電設備指令等,未來將以一致地在各框架內針對不同法律進行調修。在責任方面,雖然原則上現有法令尚仍可應對新興技術,但人工智慧規模的的不斷變化和綜合影響,將可能增加對受害者提供賠償的困難度,導致不公平或效率低下的情形產生,為改善此一潛在不確定性,可考慮在歐盟層級調修產品責任指令和國家責任制度,以顧及不同AI應用所帶來的不同風險。德國政府除了支持歐盟作法,在創新與監管取得平衡,更強調應不斷檢視產品安全和產品責任法是否可滿足技術發展,尤其是對重要特定產業的要求,甚至修改舉證責任。並可透過標準化制定,加速人工智慧相關產品與服務的開發。另外,應依照風險高低擬定分類方法,並建議創建高風險AI系統之註冊與事故報告義務,以及相關數據保存、記錄及資料提供之義務,針對低風險AI應用則採自願認證制度。

歐盟根據資料治理法及實施規則,透過通用標章管理資料中介服務提供者及資料利他主義組織

歐洲執委會(European Commission)根據2022年6月23日生效的資料治理法(Data Governance Act, DGA)第11條及第17條,於2023年8月9日公布資料治理法及實施規則(Commission Implementing Regulation (EU) 2023/1622 of 9 August 2023),該規則明定可用於識別「受認證的歐盟資料中介服務提供者(data intermediation services providers)及資料利他主義組織(data altruism organisations)」的通用標章(Common logos)之細節,且該通用標章已申請商標註冊,以保護其免於遭受不當利用。 經歐盟認證的「資料中介服務提供者」向服務利用者提供服務時,應確保服務利用者(個人及公司)可以有效的控制自己的資料,包含共享資料的對象及時間、可在不同裝置間共享資料等。經歐盟認證的「資料利他主義組織」則應以全歐盟通用之統一格式的歐洲利他主義同意書(data altruism consent form)在各成員國之間蒐集資料,並應確保資料主體(data subject)可以隨時撤回其同意。 識別受認證的「資料中介服務提供者」及「資料利他主義組織」是實施資料治理法的一環。受認證的「資料中介服務提供者」及「資料利他主義組織」選擇使用通用標章時,不僅須將通用標章清楚標示在所有線上的出版品上,亦須將通用標章清楚標示在所有線下的出版品。經歐盟認證的「資料利他主義組織」在標示通用標章時須附上可連結到「歐盟認證的『資料利他主義組織』之公開登記資料庫(public register of data-altruism organisations)」的QR code,歐盟將於2023年9月24日開始提供該公開登記資料庫。在歐盟層面,這些通用標章的利用可以易於識別被認證的「資料中介服務提供者」及「資料利他主義組織」與其他未經認證的服務提供者,有助於提高整體資料市場的透明度。 由於數位資料具有易於竄改、複製等特性,因此需要透過「可信任工具」來證明其來源正確、內容真實等,歐盟即以「通用標章」來識別「資料中介服務提供者」及「資料利他主義組織」。我國法務部、司法院、高等檢察署、法務部調查局和內政部警政署等機關共同推動司法聯盟鏈,並於2022年推出「b-JADE證明標章」,透過認證機制確保鏈下之數位資料於上鏈前具有可信任性。通過驗證並取得「b-JADE證明標章」的機關、機構或團體等組織,對外可證明其具備資料治理暨管理能力及保護數位資料之能力,且可取得申請加入「司法聯盟鏈」之機會。 本文同步刊登於TIPS網站(https://www.tips.org.tw)

TOP