歐盟提出人工智慧法律框架草案

  歐盟執委會於2020年2月公布《人工智慧白皮書》(AI White Paper)後,持續蒐集各方意見並提出新的人工智慧規範與行動。2021年4月針對人工智慧法律框架提出規範草案(Proposal for a Regulation on a European approach for Artificial Intelligence),透過規範確保人民與企業運用人工智慧時之安全及基本權利,藉以強化歐盟對人工智慧之應用、投資與創新。

  新的人工智慧法律框架未來預計將統一適用於歐盟各成員國,而基於風險規範方法將人工智慧系統主要分為「不可接受之風險」、「高風險」、「有限風險」及「最小風險」四個等級。「不可接受之風險」因為對人類安全、生活及基本權利構成明顯威脅,故將被禁止使用,例如:政府進行大規模的公民評分系統;「高風險」則是透過正面例舉方式提出,包括:可能使公民生命或健康處於危險之中的關鍵基礎設施、教育或職業培訓、產品安全、勞工與就業、基本之私人或公共服務、可能會干擾基本權之司法應用、移民與庇護等面向,而高風險之人工智慧在進入市場之前須要先行遵守嚴格之義務,並進行適當風險評估及緩解措施等。「有限風險」則是指部分人工智慧應有透明度之義務,例如當用戶在與該人工智慧系統交流時,需要告知並使用戶意識到其正與人工智慧系統交流。最後則是「最小風險」,大部分人工智慧應屬此類型,因對公民造成很小或零風險,各草案並未規範此類人工智慧。

  未來在人工智慧之治理方面,歐盟執委會建議各國現有管理市場之主管機關督導新規範之執行,且將成立歐洲人工智慧委員會(European Artificial Intelligence Board),推動人工智慧相關規範、標準及準則之發展,也將提出法規沙盒以促進可信賴及負責任之人工智慧。

相關連結
※ 歐盟提出人工智慧法律框架草案, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8659&no=64&tp=1 (最後瀏覽日:2026/03/02)
引註此篇文章
你可能還會想看
何謂英國金融科技創新計畫( Project Innovate )?

  為了全力打造英國成為「FinTech 全球領導者地位」,及引領FinTech 國際監管規則的大國,英國金融業務監理局(Financial Conduct Authority, FCA)於2014年10月啟動了金融科技創新計畫(Project Innovate),目的就是能夠追蹤進入金融市場的新興商業模式,其中最重要的建立監理沙盒制度(Regulatory Sandbox),旨在提供企業可以在安全空間內對創新產品、服務、商業模式等進行測試,而不會立即招致參與相關活動的所有監管後果。   金融科技創新計畫增設創新中心(Innovation Hub),為創新企業提供與監管對接等各種支持。   金融科技創新計畫通過促進破壞式創新鼓勵挑戰現有的商業模式,而創新中心主要透過政策與金融科技業者交流,了解是否監管政策能夠更好的支持創新。

健康食品的管理法規

印度藥廠、非政府組織對未來將簽屬之歐盟-印度FTA表示反對

  今(2011)年3月中旬,印度製藥業者代表及相關非政府組織團體共同對外表示,就印度與歐盟即將簽署之自由貿易協議(Free Trade Agreement;簡稱FTA),將正式採取反對之立場。   關於上述印度製藥業者代表及非政府組織團體之所以表示反對歐-印兩國簽署FTA之理由,其主要,乃係因歐盟方面為保障歐盟自身製藥業者本身之利益而擬於日後雙方將所簽署之FTA文件中,設置「資料專屬」條款而生;對此,代表印度境內多家藥廠之印度製藥協會(Indian Pharmaceutical Alliance)秘書長Dilip Shah表示:「目前歐盟方面正利用各種高壓與不正之手段,來迫使印度政府同意其擬置入之資料專屬保護條款」;但歐盟官員John Clancy卻解釋:「歐盟政府之所以擬於將簽訂之FTA中設置資料專屬條款,所寄望者,無非是要為歐盟境內製藥業者,尋求一個平等互惠之立基點而已;換言之,歐盟政府所為之一切,乃是基於要為印度與歐盟兩國業者打造一個公平合理之貿易商業環境」,另外,其還強調:「針對資料專屬條款之簽訂,原則上應在雙方達成共識之前提下進行」。   雖然歐盟方面目前已嘗試作出如上解釋,但印度國內各界似仍普遍認為,一旦同意將資料專屬條款納入,未來除將嚴重影響廣大用藥病患近用低價救命藥品之權益外,亦將大幅限制新興國家產製學名藥品之能力;故包括HIV病患及其他印度民間團體共計超過2000名抗議者,於今年3月2日時,皆紛紛走上新德里市中心街頭,對歐-印即將簽署FTA表達其強烈之抗議與不滿;足見,該項條款將造成之實質影響,絕非歐盟單方三言兩語即可輕描淡寫地帶過;而最終之談判結果,是歐盟方面將作出合理之讓步?還是印度方面為挽最大貿易夥伴之心,而終以犧牲廣大病患及國內製藥業者權益來作為可能之對價?是破局?還是完滿結局?則皆有待後續觀察,方見分曉。

OECD發布「促進人工智慧風險管理互通性的通用指引」研究報告

經濟合作發展組織(Organisation for Economic Co-operation and Development,下稱OECD)於2023年11月公布「促進AI風險管理互通性的通用指引」(Common Guideposts To Promote Interoperability In AI Risk Management)研究報告(下稱「報告」),為2023年2月「高階AI風險管理互通框架」(High-Level AI Risk Management Interoperability Framework,下稱「互通框架」)之延伸研究。 報告中主要說明「互通框架」的四個主要步驟,並與國際主要AI風險管理框架和標準的風險管理流程進行比較分析。首先,「互通框架」的四個步驟分別為: 1. 「定義」AI風險管理範圍、環境脈絡與標準; 2. 「評估」風險的可能性與危害程度; 3. 「處理」風險,以停止、減輕或預防傷害; 4.「治理」風險管理流程,包括透過持續的監督、審查、記錄、溝通與諮詢、各參與者的角色和責任分配、建立問責制等作法,打造組織內部的風險管理文化。 其次,本報告指出,目前國際主要AI風險管理框架大致上與OECD「互通框架」的四個主要步驟一致,然因涵蓋範圍有別,框架間難免存在差異,最大差異在於「治理」功能融入框架結構的設計、其細項功能、以及術語等方面,惟此些差異並不影響各框架與OECD「互通框架」的一致性。 未來OECD也將基於上述研究,建立AI風險管理的線上互動工具,用以協助各界比較各種AI風險管理框架,並瀏覽多種風險管理的落實方法、工具和實踐方式。OECD的努力或許能促進全球AI治理的一致性,進而減輕企業的合規負擔,其後續發展值得持續追蹤觀察。

TOP