歐洲議會通過《人工智慧法案》
朝向全球首部人工智慧監管標準邁進下一步
資訊工業策進會科技法律研究所
2023年06月26日
觀察今年的科技盛事屬ChatGPT討論度最高,將人們從區塊鏈、元宇宙中,帶入人工智慧(AI)領域的新發展。ChatGPT於2022年11月由OpenAI開發的生成式人工智慧,透過深度學習模型,理解和生成自然語言,其功能包含回答各類型問題(如科學、歷史)、生成邏輯結構之文章(如翻譯、新聞標題)、圖形、影像等內容。然而對於人工智慧的發展,究竟如何去處理人機間互動關係,對於風險之管理及相關應用之規範又該如何,或許可從歐盟的法制發展看出端倪。
壹、事件摘要
面對人工智慧的發展及應用,歐盟執委會(European Commission)早在2018年6月成立人工智慧高級專家組(AI HLEG),並於隔年(2019)4月提出「可信賴的人工智慧倫理準則」(Ethics Guidelines for Trustworthy AI),要求人工智慧需遵守人類自主、傷害預防、公平、透明公開等倫理原則。於2021年4月21日歐盟執委會提出「人工智慧法律調和規則草案」(Proposal for a Regulation Laying Down Harmonised Rules on Artificial Intelligence (Artificial Intelligence Act) and Amending Certain Union Legislative Acts)(以下稱人工智慧法案),於2023年內部市場委員會(Internal Market Committee)與公民自由委員會(Civil Liberties Committee)通過並交由歐洲議會審議(European Parliament),最終《人工智慧法案》於2023年6月14日通過。後續將再歐盟理事會(Council of the European Union)與辯論協商,尋求具共識的最終文本[1]。
貳、重點說明
由於「歐盟議會通過」不等於「法案通過」,實際上歐盟立法機制不同於我國,以下透過法案內容說明的契機,概述一般情況下歐盟之立法流程:
一、歐盟立法過程
通常情況下,法案由歐盟執委會(下簡稱執委會)提出,送交歐盟理事會及歐洲議會,作為歐盟的「立法者」歐洲理事會(下簡稱理事會)與歐洲議會(下簡稱議會)將針對法案獨立討論並取得各自機關內之共識。大致上立法程序有可分為三階段,在一讀階段若理事會與議會對於執委會版本無修改且通過,則法案通過,若任一機關修改,則會進行到二讀階段。針對法案二讀若仍無法取得共識,則可召開調解委員會(Conciliation)協商,取得共識後進入三讀。簡單來說,法案是否能通過,取決於理事會與議會是否取得共識,並於各自機關內表決通過[2]。
目前《人工智慧法案》仍處於一讀階段,由於法案具備爭議性且人工智慧發展所因應而生之爭議迫在眉睫,議會通過後將與執委會、理事會進入「三方會談」(Trilogue)的非正式會議,期望針對法案內容取得共識。
二、人工智慧法案
(一)規範客體
《人工智慧法案》依風險及危害性程度分級,其中「不可接受風險」因抵觸歐盟基本價值原則禁止(符合公益目標,如重大或特定犯罪調查、防止人身安全遭受危害等例外許可)。「高風險」則為法案規範之重點,除針對系統技術穩健、資料處理及保存訂有規範外,針對人為介入、安全性等也訂定標準。
而針對高風險之範疇,此次議會決議即擴大其適用範圍,將涉及兒童認知、情緒等教育及深度偽造技術(Deepfake)納入高風險系統,並強調應遵循歐盟個人資料保護規範。此外對於社會具有高影響力之系統或社群平臺(法案以4500萬用戶做為判斷基準),由執委會評估是否列為高風險系統。針對目前討論度高的生成式人工智慧(ChatGPT),議會針對法案增訂其系統於訓練及應用目的上,應揭露其為生成式人工智慧所產出之內容或結果,並摘要說明所涉及之智慧財產權[3]。
(二)禁止項目
關於《人工智慧法案》對於高風險系統之要求,從執委會及理事會的觀點來看,原則上重點在於對弱勢的保護及生物資料辨識之權限。歐盟禁止人工智慧系統影響身理及心理,包含對於特定族群如孩童、身心障礙者等弱勢族群之不平等待遇。同時原則禁止即時遠端的生物辨識利用,包含對於人性分析、動作預測等對於人類評價、分類之應用,例外情況如犯罪調查、協尋失蹤兒童、預防恐怖攻擊、關鍵基礎設施破壞等情況時方被允許。此次議會決議提高禁止即時遠端生物辨識的標準,包含納入敏感資訊的蒐集如性別、種族、政治傾向等,及其他臉部辨識、執法、邊境管制、情緒辨識等項目[4]。
參、事件評析
有關《人工智慧法案》雖歐洲議會已一讀通過,然而後續仍要面對與歐盟理事會的協商討論,並取得共識才能規範整個歐盟市場。因此上述規範仍有變數,但仍可推敲出歐盟對於人工智慧(含生成式)的應用規範態度。在面對日新月異的新興科技發展,其立法管制措施也將隨著橫向發展,納入更多種面向並預測其走向趨勢。因人工智慧有應用多元無法一概而論及管制阻礙創新等疑慮,觀察目前國際上仍以政策或指引等文件,宣示人工智慧應用倫理原則或其風險之管理,偏重產業推動與自律。
觀察歐盟《人工智慧法案》之監管目的,似期望透過其市場規模影響國際間對於人工智慧的監管標準。倘若法案後續順利完成協商並取得共識通過,對於如OpenAI等大型人工系統開發商或社群平臺等,若經執委會評估認定為高風險系統,勢必對於未來開發、應用帶來一定衝擊。因此,歐盟對於人工智慧監管的態度及措施實則牽一髮而動全身,仍有持續觀察之必要。
本文同步刊登於TIPS網站(https://www.tips.org.tw)
[1]The AI Act, Future of Life Institute, https://artificialintelligenceact.eu/developments/ (last visited Jun. 20, 2023)
[2]The ordinary legislative procedure, Council of European Union, https://www.consilium.europa.eu/en/council-eu/decision-making/ordinary-legislative-procedure/ (last visited Jun. 19, 2023)
[3]EU AI Act: first regulation on artificial intelligence, European Parliament, Jun. 14, 2023, https://www.europarl.europa.eu/news/en/headlines/society/20230601STO93804/eu-ai-act-first-regulation-on-artificial-intelligence (last visited Jun. 21, 2023)
[4]MEPs ready to negotiate first-ever rules for safe and transparent AI, European Parliament, Jun. 14, 2023, https://www.europarl.europa.eu/news/en/press-room/20230609IPR96212/meps-ready-to-negotiate-first-ever-rules-for-safe-and-transparent-ai(last visited Jun. 21, 2023)
加州州長Gavin Newsom 早先簽署了《加利福尼亞州適齡設計法》(California Age-Appropriate Design Code Act AB 2273,以下簡稱該法),2023年4月28日,倡議團體與聯邦政府官員提交一份意見陳述以支持該法,預計於2024年7月1日生效;針對提供線上服務、產品給18歲以下加州兒童的企業進行管制。 該法的適用範圍: 1. 倘若企業提供的線上服務、產品或功能符合以下條件,則受該法所規範: (1) 提供服務的對象為兒童(年齡於13歲以下的孩童)之網路服務商。 (2) 所提供之服務包括兒童經常瀏覽的網站,或者確定是廣泛被兒童使用的線上服務、產品或功能。 2. CPRA(California Privacy Rights Act)所規範之「企業」,是位於加州並蒐集加州居民個人資料的營利性組織,其須滿足以下條件之一: (1) 年度總收入超過 25,000,00美元,或是每年單獨或聯合購買、出售或共享100,000名以上加州居民或家庭的個人資料,或者年收入的50%以上來自出售或共享加州居民的個人資料。 (2) 該法不適用於網路寬頻服務、電信服務或實體買賣行為。 一. 規範內容 1. 資料保護影響評估:企業針對所營事業須完成資料保護評估,且必須每兩年自主進行資料安全確認。 2. 最高級別隱私權設置:企業對於兒童使用者,須預設最高等級之隱私權設置及保護。 3. 隱私政策和條款:企業必須簡明的提供隱私政策、服務條款和明確標準,並使用與兒童年齡相符的清晰語言,以便兒童理解語意。 (1) 將兒童依據年紀分為:0至5歲為「早期識字階段」、6至9歲為「核心小學階段」、10至12歲為「過渡階段」、13歲以上為「早期成年階段」。 (2) 定位服務:要求企業在兒童的活動或位置受到父母、監護人或其他消費者的監控或追蹤時,向兒童明確提醒。 該法針對兒童制定嚴謹的法規予以保護,確保兒童個人資料不會在沒有認知的情況下,因使用服務而被蒐集、處理及利用。該法特殊的地方為,對於未成年人進一步區分不同年齡段,若有明確區分出並針對各年齡段進行不同的告知事項設計,將更易使閱讀之未成年人明確了解個資告知內容,應值贊同。
歐盟網路和資訊系統安全局(ENISA)歐盟網路與資訊安全局(ENISA)成立於2004年,目的在於確保歐盟內部網路與資訊安全保持在最高水準,同時也為執行2016年8月生效之歐盟網路和資訊系統安全指令(NIS- Directive),提高歐洲的網路安全準備,以防止並抵禦網路安全事件措施。計有84名工作人員,共同運作位於希臘的兩個辦公室:Heraklion (2005年成立之總部)辦公室;與雅典辦公室(2013年成立),以提高該機構的運作效率。 ENISA在NIS指令的執行中扮演重要的角色,任務包括支援歐盟機構、會員國國與產業界,快速對網路威脅與資訊安全問題做出反應。它也被要求在執行任務中協助各國間成立的合作小組。此外,更透過指令要求ENISA協助成員國與執委會,提供他的專業意見和建議。 ENISA戰略有五個面向: •提供關鍵網路設施和資訊安全問題之資訊和專業知識。 •制定和執行歐盟網路政策。 •建立歐盟間跨國支援能力。 •培育網路與資訊安全社群的網路演習、協調與支援。 •促進各國間的合作關係。 由於ENISA在建立之後網路發展情勢有顯著的演變,其任務和目標應該因應新發展做出調整,故歐盟執委會也在2017年1月開始重新審視其設立之法律依據以應對新情勢發展。
日本《科學技術指標》日本《科學技術指標》為文部科學省直接管轄之國立實驗研究機關「科學技術與學術政策研究所(NISTEP)」於每年度發布,主要為讓閱讀者基於客觀而定量的數據,體系性地掌握日本國內科學技術活動的基礎資料,將科學技術活動區分為「研究開發費」、「研究開發人才」、「高等教育與科技人才」、「研究開發產出」、以及「科技與創新」等5個類別,同時制定約180個指標以表達日本國內狀況。本年度公布的《科學技術指標2019》,則新增了「日本與美國各部門擁有博士學位者」、「各產業研究人才集中度與高端研究人才活用程度間之關係」、「主要國家取得博士學位之人數的變動狀況」、「運動科學研究類論文動向」、「主要國家貿易額度的變動狀況」、「各國與各類型獨角獸企業數」等20個指標。 依《科學技術指標2019》分析,日本的研究開發費與研究者人數於日、美、俄、法、英、中、韓等七個國家中皆位居第三,論文數則為世界排名第四,受高度矚目的論文數世界排名第九,專利家族(Patent Family)數世界排名第一而與去年相同。就產業的部份,研究者中擁有博士學位者之比例依據產業類型的不同而有所差異,與美國相較,高階人才之實際就業情況未能充分發揮其所學。另一方面,就每一百萬人中有取得博士學位的人數,在各主要國家當中,僅有日本呈現減少的趨勢。
美國加州通過藥價透明化法案美國在醫療費用的支出常常超乎預期,其中處方藥之花費就佔了相當大的比例。為了減少醫療費用支出,並讓藥物之價格更為透明,加州州長傑瑞布朗(Jerry Brown)在2017年10月9日簽署了第17號法案(藥價透明化法案),要求藥物製造商若要調高處方藥價格超過一定程度,則須事前通報給主管機關;該法預計於2018年10月1日生效。 藥價透明化法所稱之處方藥(prescription drugs),包含學名藥、原廠藥或特種藥品。本法之主管機關為「加州衛生計畫與發展辦公室」(Office of Statewide Health Planning and Development, OSHPD),掌管本法之執行並對違規製造商處罰民事罰款,本法案施行之相關細節亦由OSHPD訂定。OSHPD依據本法所得之罰款或收入,將全數交給「照護管理基金」(Managed Care Fund)做運用。 依據藥價透明化法規定,處方藥製造商對於其處方藥產品若欲調高產品公告目錄價(Wholesale Acquisition Cost, WAC)超過40美元/療程之漲幅者,須將處方藥漲幅、漲價原因、藥品使用情況或市場等資訊,以「季」為單位,至少於漲價生效60天前通報給加州衛生計畫與發展辦公室。若該藥品為新產品,其WAC超過「醫療保險處方藥物改良和更新法」(Medicare Prescription Drug, Improvement, and Modernization Act)所定之價格區間者,須於新產品上市後3天內通報給OSHPD。 OSHPD在收到處方藥製造商的通報資訊後,則須依法將資訊公開於其網站上。