智慧聯網時代巨量資料法制議題研析-以美國隱私權保護為核心

刊登期別
第25卷,第10期,2013年10月
 

本文為「經濟部產業技術司科技專案成果」

※ 智慧聯網時代巨量資料法制議題研析-以美國隱私權保護為核心, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=6422&no=57&tp=1 (最後瀏覽日:2026/01/29)
引註此篇文章
你可能還會想看
美國監管醫療用基因檢驗之法制與實務趨勢

美國監管醫療用基因檢驗之法制與實務趨勢 資訊工業策進會科技法律研究所 2020年03月25日 壹、事件摘要   精準醫療多搭配基因檢驗技術的研發與應用,以幫助醫師針對個體提供精確的診斷及治療服務。以美國現況而言,許多新的醫學檢驗技術在各實驗室中研發,且迅速發展至臨床應用,但必須經過醫療器材上市許可後,始得於實驗室外運用。   美國國會於1976年修正《聯邦食品藥物與化妝法(Federal Food, Drug, and Cosmetic Act)》後,將「體外診斷醫療器材」納入醫療器材的規範,同年美國食品藥物管理署(Food and Drug Administration, FDA)便宣佈對實驗室自行研發之檢驗技術(Laboratory Developed Tests, LDTs)行使「自由裁量權」(Enforcement Discretion),排除於《聯邦食品藥物與化妝法》的管理之外,讓實驗室內LDTs的應用可享較為寬鬆的空間[1] 。   換句話說,由於典型之LDTs僅為實驗室內部使用,且測試方式簡易,需求量亦不高,可由「醫療保險與醫療補助服務中心」(The Center for Medicare & Medicaid service, CMS)依據《臨床實驗室改進修正案(Clinical Laboratory Improvement Amendments, CLIA)[2]》之規範,施行臨床實驗室的品質管理。臨床實驗室於通過CLIA認證後,即可將開發的LDTs進行臨床應用。   然而,1976年迄今,LDTs的發展已經有許多的變化,運作LDTs的實驗室往往獨立於醫療服務機構(Healthcare Delivery Entity)之外,而依賴於許多高科技的儀器、軟體來產生結果及解釋,增加了許多以往沒有的風險;其商業模式也已經大幅的改變,已經大量製造、用於直接的臨床診斷決策上[3]。因此,美國FDA認為有必要引進一個全面性的監管架構管理LDTs,而非像過去一樣,將其排除於《聯邦食品藥物與化妝法》的管理之外。 貳、重點說明   FDA近年來加強基因檢驗風險監管之具體行動,包括LDTs監管架構之研擬以及加強實務取締,以保障病人的權益。 一、LDTs監管架構指引草案   美國FDA曾於2014年公布兩項指導文件,分別為「實驗室自行研發檢驗方法監管架構指引草案[4]」以及「實驗室自行研發檢驗技術須執行通知上市與不良事件通報之草案[5]」(以下統稱LDTs監管架構指引草案)。LDTs監管架構指引草案希望提升LDTs的規管密度,並規劃將LDTs分為數個不同的類別,依據其風險程度的高低,分別要求其進行包含取得上市前許可、符合品質系統規範等不同程度之要求。   該指引草案公布後,受到各臨床實驗室、醫療單位、病人與傳統體外診斷試劑製造商、政府部門等熱烈討論。特別是業界擔憂監管密度的提高,會扼殺臨床實驗室的創新意願,使得實驗檢驗技術、方法與應用停滯,並耗費大量的人力與金錢成本。   美國FDA最後於2017年1月13日說明,短期內不會執行該指引草案內容,但會尋求更加全面的立法解決方案[6]。歸納各界對指引草案之看法,顯示對LDTs的額外監督是必要的,但對於如何監管則有不同看法,未來主管機關應基於下列原則,提出符合科學證據、經濟效益並兼顧臨床安全性之管理方案,重點摘述如下: (一)以風險等級為基礎,並分階段實施監督   之後的四年內將分階段要求LDTs逐步進行上市前審查,第一年實驗室必須回報LDTs所有的嚴重不良反應;第二年將要求與第三級高風險醫療器材具有相同用途的新型或改良LDTs,必須經過一致的上市前審查;第三年要求與第二級中風險醫療器材具有相同用途的新型或改良LDTs,必須經過一致的510(k)上市前通知;第四年則完成LDTs全面性的監督,並且原則上與醫療器材採取一致標準。 (二)以檢驗之分析效能與臨床有效性,作為核准基礎   目前CMS已有實驗室檢驗之臨床效用(clinical utility)審查,但與FDA上市前審查所需之分析效能與臨床有效性有所差異。是故,FDA將制定適合的審查標準,以減輕實驗室提交審查的負擔,並加速上市前審查的審核時間。 (三)不良反應通報系統   將參考既有醫療器材上市後監督機制(postmarket surveillance),監控LDTs在真實世界的效能及臨床結果(real-world performance and clinical outcomes)。 (四)健全實驗室之品質系統   FDA將會密切與CMS合作加強實驗室的品質系統要求,但會與既有CLIA等認證制度相互調和、不會重複監督。 (五)公開檢驗性能資訊供大眾取得   實驗室必須將LDTs檢驗的分析效度及臨床有效性等相關資訊,公開讓民眾可取得。 (六)免除特定類型檢驗之上市前審查   對於特定類型的LDTs可免除上市前審查、品質系統及註冊登記之義務,如:對健康影響較低者、罕見疾病使用之LDTs等。 二、加強基因檢驗之執法 (一)23 and Me遺傳健康風險個人基因體服務   雖然在LDTs規範上,美國FDA暫時未有全盤性的改變;但在個案上,開始有逐步的調整。美國FDA在2013年11月時,發函警告生技公司「23 and Me」,認為其銷售的「個人基因體服務」(personal genome service, PGS)應該屬於《聯邦食品藥物與化妝法》所規定的第三級醫療器材(風險程度最高的醫療器材),但由於其未取得美國FDA的上市前許可,因此應該立刻停售;其後,23 and Me將其旗下的「遺傳健康風險個人基因體服務」(PGS Genetic Health Risk)向美國FDA申請並取得第二級醫療器材許可[7]。 (二)Inova藥物反應基因檢驗   2019年另外一起案例,亦顯示美國FDA從嚴限制LDTs在實驗室外應用之決心。美國FDA於2019年4月4日向Inova基因體實驗室(Inova Genomics Laboratory)寄發通知函,表示其自行研發之MediMap Plus基因檢驗產品,用於預測病人對藥品的反應與接收度,必須先完成FDA上市前審查程序,始得進行商業販售[8]。   Inova基因體實驗室雖回覆表示,MediMap Plus基因檢驗產品屬於LDTs的範疇,所以不應該受到FDA上市前審查或任何標示要求之拘束。嗣後,FDA則直接寄發警告函,申明其並未針對LDTs創設任何責任免除條款,且為了促進公眾安全,FDA對於LDTs保留裁量權[9]。對於FDA的警告,Inova決定停止執行MediMap Plus之販售,也不會申請上市前審查[10]。 三、小結   由於基因檢驗之安全及確效涉及面向十分廣泛,美國監管體系主要係以《聯邦食品藥物與化妝法》之醫療器材規範,搭配行之多年的CLIA實驗室品質管理制度,以完備各環節之風險管理。申言之,即便基因檢驗技術僅屬實驗室內應用,並未在外流通,亦屬實驗室品質管理之範疇,必須依據CLIA實驗室分類進行能力測試或實地查核。   其次,美國對於LDTs的監管雖然認為不宜貿然與醫療器材規範一致,但未來仍將參考醫療器材的風險等級基礎,並盡量提高審查的效率,此趨勢與歐盟新的醫療器材法規[11]一致。 參、事件評析   我國近年來政府與民間在基因檢驗的監管上亦有所討論,特別是LDTs之管理方向、管制密度之取捨、實驗室品質標準等[12]。從美國醫療用基因檢驗監管趨勢觀之,建議我國未來或可釐清不同目的之基因檢驗,如商業用、實驗用、醫療用等,進而明確醫療用基因檢驗之監管密度,並依不同風險程度採取分級監理,以在新技術應用與病人權益保護之間取得平衡。 [1]Center for Devices and Radiological Health, Food and Drug Administration, Draft Guidance for Industry, Food and Drug Administration Staff, and Clinical Laboratories: Framework for Regulatory Oversight of Laboratory Developed Tests (LDTs), Oct. 03, 2014, https://www.fda.gov/media/89841/download (last visited Jan. 07, 2020), at 6-7. [2]42 USC 263a, available at https://www.govinfo.gov/content/pkg/USCODE-2011-title42/pdf/USCODE-2011-title42-chap6A-subchapII-partF-subpart2-sec263a.pdf (last visited Dec. 26, 2019). [3]呂雅情,〈實驗室自行研發檢驗技術(LDTs)的發展與法規管理現況〉,當代醫藥法規月刊,2018/02/09,https://www.cde.org.tw/Content/Files/Knowledge/cc18e890-c1e3-4e6e-8bbd-45d7afd6cee9.pdf(最後瀏覽日:2020/01/07),頁17。 [4]Supra note 1, at 7-8. [5]id. at 30. [6]Food and Drug Administration, Discussion Paper on Laboratory Developed Tests (LDTs), Jan. 13, 2017, https://www.fda.gov/media/102367/download (last visited Jan. 07, 2020), at 1. [7]何建志,〈精準醫學趨勢下基因檢驗與消費者保護法律問題〉,《月旦醫事法報告》,第25期,頁44-45(2018)。 [8]Food and Drug Administration, Inova Genomics Laboratory, Apr. 04, 2019, https://www.fda.gov/inspections-compliance-enforcement-and-criminal-investigations/warning-letters/inova-genomics-laboratory-577422-04042019 (last visited Dec. 19, 2019). [9]Food and Drug Administration, Laboratory Developed Tests, Sep. 27, 2018, https://www.fda.gov/medical-devices/vitro-diagnostics/laboratory-developed-tests?fbclid=IwAR3gOzax6O0eUx67IpZBNpmvPrW6ynuP0P99Dlt4AGKZtxvwGSoYOx5EmFA (last visited Dec. 19, 2019). [10]GenomeWeb, Inova Decides to End PGx Test Offerings in Response to FDA Warning Letter, Apr. 15, 2019, https://www.genomeweb.com/regulatory-news/inova-decides-end-pgx-test-offerings-response-fda-warning-letter#.XNkp0hQzbIU (last visited Dec. 19, 2019). [11]歐盟2017年5月25正式生效新版醫療器材法規(Medical Devices Regulations, MDR; Regulation (EU) 2017/745)以及體外診斷醫療器材法規(In Vitro Diagnostic Devices Regulations, IVDR;Regulation (EU) 2017/746)。 [12]蔡雅雯、林工凱、黃品欽、謝文祥,〈基因檢驗法規監管方向初探〉,《台灣醫界》,第62卷第12期,2019/12,https://www.tma.tw/ltk/108621207.pdf(最後瀏覽日:2020/02/06)。

香港通過《2021 年個人資料(私隱)(修訂)條例》,「人肉搜索」成為刑事犯罪

  香港立法會於今(2021)年9月29日通過《2021 年個人資料(私隱)(修訂)條例》(The Personal Data (Privacy) (Amendment) Ordinance, PDPO),並於同年10月8日實施。本次修訂主要將「人肉搜索(Doxxing)」行為訂為刑事犯罪、賦予私隱專員對肉搜進行刑事調查及要求停止批露肉搜訊息之權責。   香港政制及內地事務局今5月提議修訂PDPO ,表示這是對抗肉搜的必要手段,2019年民主抗議活動中此行徑相當普遍,許多警察及反對派人士深受騷擾。修訂訊息公開後,Facebook、Twitter及Google等科技公司即透過亞洲互聯網聯盟(AsiaInternet Coalition)表示,倘香港政府修訂PDPO ,美國企業恐因網路惡意分享個資,造成香港員工面臨刑事調查或訴追風險,因而停止在香港的服務。香港行政長官林鄭月娥為紓緩各方疑慮做出回應,表示該修訂案對阻止網路惡意散布個資而言有其必要性,受香港民眾廣泛支持,其並指出社交媒體欠缺監管,包括散播仇警訊息、違反人性行為,導致香港今年7月發生刺傷警員後再自殺的事情。   依PDPO 之修訂條文,任何人未經資料當事人同意而披露他人的個人資料,並有意圖或罔顧是否會導致當事人或其家人蒙受指明傷害,例如滋擾、騷擾、纏擾、威脅或恐嚇,或對當事人或其家人造成身體、心理傷害或財產受損,最高將處5年有期徒刑及一百萬港元罰款。   對此,亞洲互聯網聯盟表示聯盟成員反對肉搜行為,惟PDPO 修訂條文措辭含糊,位於香港的企業及員工可能因用戶肉搜行為而受到刑事調查或起訴,對企業造成不成比例且不必要之回應成本,並恐限制言論自由,單純網路分享資訊的行為亦可能被視為犯罪。聯盟甚至指出:「科技企業要避免遭受這些懲罰的唯一途徑,就是不要在香港進行投資和提供服務」。

數位歐洲計畫(Digital Europe Programme)

  數位歐洲計畫(Digital Europe Programme)為歐盟執委會2018年6月提出的策略規畫,已於2019年4月17日由歐洲議會通過;預計2021至2027年間,歐盟將投入92億歐元用於發展高效能運算、人工智慧、網路安全和數位技能培育等領域。數位歐洲計畫目標是確保所有歐洲民眾皆能擁有應對數位挑戰所需的技能、基礎建設及相應的數位監管框架,屬於歐盟發展數位單一市場政策的一部分,預估將創造400萬個就業機會、推動4150億歐元的經濟成長,提升歐盟整體國際競爭力。歐盟為關鍵數位技術提供92億歐元科技預算分配: (1)27億歐元用於高效能運算(預計在2022至2023年建立高效能運算及數據處理能力,2026至2027年將技術導入高階設施設備)。 (2)25億歐元投入人工智慧(支持企業及公部門使用AI、建立安全便利且能儲存大量數據的運算系統、鼓勵會員國相互合作進行AI測試)。 (3)20億歐元用於網路安全技術(採購先進網路安全設備及數位基礎設施、拓展網路安全知識與技能、優化歐盟整體網路安全系統)。 (4)7億歐元投入數位技能培育(加強中小企業短期數位培訓課程、IT專業人員長期訓練、青年企業家培訓)。 (5)13億歐元用於推廣使用數位技術(鼓勵中小企業運用先進數位技術、建構數位創新中心、關注新興技術發展)。

歐盟執委會發布《受禁止人工智慧行為指引》

歐盟執委會發布《受禁止人工智慧行為指引》 資訊工業策進會科技法律研究所 2025年02月24日 歐盟繼《人工智慧法》[1](Artificial Intelligence Act, 下稱AI Act)於2024年8月1日正式生效後,針對該法中訂於2025年2月2日始實施之第5條1,有關「不可接受風險」之內容中明文禁止的人工智慧行為類型,由歐盟執委會於2025年2月4日發布《受禁止人工智慧行為指引》[2]。 壹、事件摘要 歐盟AI Act於2024年8月1日正式生效,為歐盟人工智慧系統引入統一之人工智慧風險分級規範,主要分為四個等級[3]: 1. 不可接受風險(Unacceptable risk) 2. 高風險(High risk) 3. 有限風險,具有特定透明度義務(Limited risk) 4. 最低風險或無風險(Minimal to no risk) AI Act之風險分級系統推出後,各界對於法規中所說的不同風險等級的系統,究竟於實務上如何判斷?該等系統實際上具備何種特徵?許多內容仍屬概要而不確定,不利於政府、企業遵循,亦不利於各界對人工智慧技術進行監督。是以歐盟本次針對「不可接受風險」之人工智慧系統,推出相關指引,目的在明確化規範內涵規範,協助主管機關與市場參與者予以遵循。 貳、重點說明 一、AI Act本文第5條1(a)、(b)-有害操縱、欺騙與剝削行為 (一)概念說明 本禁止行為規定旨在防止透過人工智慧系統施行操縱與剝削,使他人淪為實現特定目的工具之行為,以保護社會上最為脆弱且易受有害操控與剝削影響的群體。 (二)禁止施行本行為之前提要件 1.該行為必須構成將特定人工智慧系統「投放於歐盟市場」(placing on the market)[4]、「啟用」(putting into service)[5]或「使用」(use)[6]。 2.應用目的:該人工智慧系統所採用的技術具有能實質扭曲個人或團體行為的「目的」或「效果」,此種扭曲明顯削弱個人或團體做出正確決定的能力,導致其做出的決定偏離正常情形。 3.技術特性:關於(a)有害的操縱與欺騙部分,係指使用潛意識(超出個人意識範圍)、或刻意操控或欺騙的技術;關於(b)有害地利用弱勢群體部分,是指利用個人年齡、身心障礙或社會經濟狀況上弱點。 4.後果:該扭曲行為已造成或合理可預見將造成該個人、另一人或某群體的重大傷害。 5.因果關係:該人工智慧系統所採用的技術、個人或團體行為的扭曲,以及由此行為造成或可合理預見將造成的重大傷害之間,具備相當因果關係。 二、AI Act本文第5條1(c)-社會評分行為 (一)概念說明 本禁止行為規定旨在防止透過人工智慧系統進行「社會評分」可能對特定個人或團體產生歧視和不公平的結果,以及引發與歐盟價值觀不相容的社會控制與監視行為。 (二)禁止施行本行為之前提要件 1.該行為必須屬於將特定人工智慧系統「投放於歐盟市場」、「啟用」或「使用」。 2.應用目的:該人工智慧系統必須用於對一定期間內,自然人及群體的社會行為,或其已知、預測的個人特徵或人格特質進行評價或分類。 3.後果:透過該人工智慧系統所產生的社會評分,必須可能導致個人或群體,在與評分用資料生成或蒐集時無關的環境遭受不利待遇,或遭受與其行為嚴重性不合比例的不利待遇。 三、AI Act本文第5條1(d)-個人犯罪風險評估與預測行為 (一)概念說明 本禁止行為規定之目的,旨在考量自然人應依其實際行為接受評判,而非由人工智慧系統僅基於對自然人的剖析、人格特質或個人特徵等,即逕予評估或預測個人犯罪風險。 (二)禁止施行本行為之前提要件 1.該行為必須屬於將特定人工智慧系統「投放於歐盟市場」、「啟用」或「使用」。 2.應用目的:該人工智慧系統必須生成旨在評估或預測自然人施行犯罪行為風險的風險評估結果。 3.後果:前述風險評估結果僅依據於對自然人的剖析,或對其人格特質與個人特徵的評估。 4.除外規定:若人工智慧系統係基於與犯罪活動直接相關的客觀、可驗證事實,針對個人涉入犯罪活動之程度進行評估,則不適用本項禁止規定。 四、AI Act本文第5條1(e)-無差別地擷取(Untargeted Scraping)臉部影像之行為 (一)概念說明 本禁止行為規定之目的,旨在考量以人工智慧系統從網路或監視器影像中無差別地擷取臉部影像,用以建立或擴充人臉辨識資料庫,將嚴重干涉個人的隱私權與資料保護權,並剝奪其維持匿名的權利。 (二)禁止施行本行為之前提要件 1.該行為必須屬於將特定人工智慧系統「投放於歐盟市場」、「啟用」或「使用」。 2.應用目的:該行為以建立或擴充人臉辨識資料庫為目的。 3.技術特性:填充人臉辨識資料庫的方式係以人工智慧工具進行「無差別的擷取行為」。 4.因果關係:建立或擴充人臉辨識資料庫之影像來源,須為網路或監視器畫面。 五、AI Act本文第5條1(f)-情緒辨識行為 (一)概念說明 本禁止行為規定之目的,旨在考量情緒辨識可廣泛應用於分析消費者行為,以更有效率的手段執行媒體推廣、個人化推薦、監測群體情緒或注意力,以及測謊等目的。然而情緒表達在不同文化、情境與個人反應皆可能存在差異,缺乏明確性、較不可靠且難以普遍適用,因此應用情緒辨識可能導致歧視性結果,並侵害相關個人或群體的權利,尤以關係較不對等的職場與教育訓練環境應加以注意。 (二)禁止施行本行為之前提要件 1.該行為必須屬於將特定人工智慧系統「投放於歐盟市場」、「啟用」或「使用」。 2.應用目的:該系統係用於推斷情緒。 3.因果關係:該行為發生於職場或教育訓練機構。 4.除外規定:為醫療或安全目的而採用的人工智慧系統不在禁止範圍內。例如在醫療領域中,情緒辨識可協助偵測憂鬱症、預防自殺等,具有正面效果。 六、AI Act本文第5條1(g)-為推測敏感特徵所進行之生物辨識分類行為 (一)概念說明 本禁止行為規定之目的,旨在考量利用人工智慧之生物辨識分類系統(Biometric Categorisation System)[7],可依據自然人的生物辨識資料用以推斷其性取向、政治傾向、信仰或種族等「敏感特徵」在內的各類資訊,並可能在當事人不知情的情況下依據此資訊對自然人進行分類,進而可能導致不公平或歧視性待遇。 (二)禁止施行本行為之前提要件 1.該行為必須屬於將特定人工智慧系統「投放於歐盟市場」、「啟用」或「使用」。 2.應用目的:該行為係針對個人進行分類;而其辨識目的係為推斷其種族、政治傾向、工會成員身分、宗教或哲學信仰、性生活或性取向等。 3.技術特性:該系統必須為利用人工智慧,並依據自然人的生物辨識資料,將其歸類至特定類別之生物辨識分類系統。 4.因果關係:前述分類依據為其生物辨識資訊。 5.除外規定:本項禁止規定未涵蓋對合法取得的生物辨識資料進行標記(Labelling)或過濾(Filtering)行為,如用於執法目的等。 七、AI Act本文第5條1(h)-使用即時遠端生物辨識(Remote Biometric Identification, RBI)系統[8]執法[9]之行為 (一)概念說明 本禁止行為規定之目的,旨在考量在公共場所使用即時RBI系統進行執法,可能對人民權利與自由造成嚴重影響,使其遭受監視或間接阻礙其行使集會自由及其他基本權利。此外,RBI系統的不準確性,將可能導致針對年齡、族群、種族、性別或身心障礙等方面的偏見與歧視。 (二)禁止施行本行為之前提要件 1.該行為必須涉及對即時RBI系統的「使用」行為。 2.應用目的:使用目的須為執法需要。 3.技術特性:該系統必須為利用人工智慧,在無需自然人主動參與的情況下,透過遠距離比對個人生物辨識資料與參考資料庫中的生物辨識資料,從而達成識別自然人身份目的之RBI系統。 4.因果關係:其使用情境須具備即時性,且使用地點須為公共場所。 參、事件評析 人工智慧技術之發展固然帶來多樣化的運用方向,惟其所衍生的倫理議題仍應於全面使用前予以審慎考量。觀諸歐盟AI Act與《受禁止人工智慧行為指引》所羅列之各類行為,亦可觀察出立法者對人工智慧之便利性遭公、私部門用於「欺詐與利用」及「辨識與預測」,對《歐盟基本權利憲章》[10]中平等、自由等權利造成嚴重影響的擔憂。 為在促進創新與保護基本權利及歐盟價值觀間取得平衡,歐盟本次爰參考人工智慧系統提供者、使用者、民間組織、學術界、公部門、商業協會等多方利害關係人之意見,推出《受禁止人工智慧行為指引》,針對各項禁止行為提出「概念說明」與「成立條件」,期望協助提升歐盟AI Act主管機關等公部門執行相關規範時之法律明確性,並確保具體適用時的一致性。於歐盟內部開發、部署及使用人工智慧系統的私部門企業與組織,則亦可作為實務參考,有助確保其自身在遵守AI Act所規定的各項義務前提下順利開展其業務。 [1]European Union, REGULATION (EU) 2024/1689 OF THE EUROPEAN PARLIAMENT AND OF THE COUNCIL (2024), https://eur-lex.europa.eu/legal-content/EN/TXT/PDF/?uri=OJ:L_202401689 (last visited Feb. 24, 2025). [2]Commission publishes the Guidelines on prohibited artificial intelligence (AI) practices, as defined by the AI Act., European Commission, https://digital-strategy.ec.europa.eu/en/library/commission-publishes-guidelines-prohibited-artificial-intelligence-ai-practices-defined-ai-act (last visited Feb. 24, 2025). [3]AI Act, European Commission, https://digital-strategy.ec.europa.eu/en/policies/regulatory-framework-ai (last visited Feb. 24, 2025). [4]依據本指引第2.3點,所謂「投放於歐盟市場」(placing on the market),係指該人工智慧系統首次在歐盟市場「提供」;所謂「提供」,則係指在商業活動過程中,以收費或免費方式將該AI系統供應至歐盟市場供分發或使用。 [5]依據本指引第2.3點,所謂「啟用」(putting into service),係指人工智慧系統供應者為供應使用者首次使用或自行使用,而於歐盟內供應人工智慧系統。 [6]依據本指引第2.3點,「使用」(use)之範疇雖未在AI Act內容明確定義,惟應廣義理解為涵蓋人工智慧系統在「投放於歐盟市場」或「啟用」後,其生命週期內的任何使用或部署;另參考AI Act第5條的規範目的,所謂「使用」應包含任何受禁止的誤用行為。 [7]依據AI Act第3條(40)之定義,生物辨識分類系統係指一種依據自然人的生物辨識資料,將其歸類至特定類別之人工智慧系統。 [8]依據AI Act第3條(41)之定義,RBI系統係指一種在無需自然人主動參與的情況下,透過遠距離比對個人生物辨識資料與參考資料庫中的生物辨識資料,從而達成識別自然人身份目的之人工智慧系統。 [9]依據AI Act第3條(46)之定義,「執法(law enforcement)」一詞,係指由執法機關或其委任之代表,代替其執行目的包括預防、調查、偵測或起訴刑事犯罪,或執行刑事處罰,並涵蓋防範與應對公共安全威脅等範疇之行為。 [10]CHARTER OF FUNDAMENTAL RIGHTS OF THE EUROPEAN UNION, Official Journal of the European Union, https://eur-lex.europa.eu/legal-content/EN/TXT/HTML/?uri=CELEX:12012P/TXT (last visited Feb. 24, 2025).

TOP