歐盟執委會通過關於《人工智慧責任指令》之立法提案

  歐盟執委會(European Commission)於2022年9月28日通過《人工智慧責任指令》(AI Liability Directive)之立法提案,以補充2021年4月通過之《人工智慧法》草案(Artificial Intelligence Act)。鑑於人工智慧產品之不透明性、複雜性且具自主行為等多項特徵,受損害者往往難以舉證並獲得因人工智慧所造成之損害賠償,《人工智慧責任指令》立法提案即為促使因人工智慧而受有損害者,得以更容易獲得賠償,並減輕受損害者請求損害賠償之舉證責任。

  《人工智慧責任指令》透過引入兩個主要方式:(一)可推翻之推定(rebuttable presumptions):人工智慧責任指令透過「因果關係推定(presumption of causality)」來減輕受損害者之舉證責任(burden of proof)。受損害者(不論是個人、企業或組織)若能證明人工智慧系統因過失或不遵守法規要求之義務,致其受有損害(包括基本權利在內之生命、健康、財產或隱私等),並且該損害與人工智慧系統之表現具有因果關係,法院即可推定該過失或不遵守義務之行為造成受損害者之損害。相對的,人工智慧之供應商或開發商等也可提供相關證據證明其過失不可能造成損害,或該損害係由其他原因所致,以推翻該損害之推定。(二)證據揭露機制(disclosure of evidence mechanism):若受害者之損害涉及高風險人工智慧時,得要求自該供應商或開發商等處獲取證據之權利。受害者透過證據揭露機制能夠較容易地尋求法律賠償,並得以找出究責的對象。

  歐盟執委會認為以安全為導向的《人工智慧法》,為人工智慧訂定橫向規則,旨在降低風險和防止損害,但仍需要《人工智慧責任指令》之責任規定,以確保損害風險出現時,相關賠償得以被實現。但歐盟執委會仍選擇了較小的干預手段,《人工智慧責任指令》針對過失之責任制度進行改革,並未採取舉證責任倒置(a reversal of the burden of proof)之作法,而是透過「可推翻之推定」,一方面減輕受損害者之舉證責任,使受損害者得對影響人工智慧系統並產生過失或侵害行為之人提出損害賠償;另一方面賦予人工智慧之供應商或開發商等有機會推翻前揭造成損害之推定,以避免人工智慧系統之供應商或開發商面臨更高的責任風險,可能阻礙人工智慧產品和服務創新。

相關連結
※ 歐盟執委會通過關於《人工智慧責任指令》之立法提案, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8958&no=55&tp=1 (最後瀏覽日:2026/05/12)
引註此篇文章
你可能還會想看
美國眾議院通過爭議性的GMO產品標示草案

  美國聯邦眾議院在7月23日時通過極富爭議性的《2015安全與精準食物標示法》(Safe and Accurate Food Labeling Act of 2015)草案,目前該案已經交由美國聯邦參議院審理,並完成參議院二讀程序,交由參議院農業、營養與森林委員會(Committee on Agriculture, Nutrition, and Forestry)審理。本案主要目的在於替自願性基因改造與非基因改造標示建立一套統一的聯邦標準。引發爭議的是本案第203條b項的規定,該條款規定禁止各州建立強制性基因改造產品標示制度。   該案由堪薩斯州選出的共和黨籍聯邦眾議員Mike Pompeo提出。根據他及本案最主要的遊說團體美國雜貨製造商協會(Grocery Manufacturers Association)的說法,之所以要禁止各州建立強制性的GMO產品標示制度,目的有二:一是透過建立全國性的標準,避免各州標準不同的紊亂。一是他們認為「基改產品跟非基改產品一樣好」,如果強制標示可能會誤導消費者,使其認為基改產品可能是有問題或風險的。同時,他們也擔心強制標示可能將導致產品的價格上升。這樣的主張確實獲得了許多眾議院議員的支持。該案在眾議院通過時獲得了275張支持票,其中有45票是民主黨籍眾議員投下的。分析這些投下贊成票的民主黨籍眾議員,大部分是來自對食物價格較為敏感的選區,或是在競選期間就已經收到來自農業部門的巨額捐款。   至於反對者則認為,由於本案將使各州及聯邦食藥署無法建立強制性的標示規定,侵害人民對於基改產品知的權利,而將此案稱為「黑暗法」(DARK Act)。他們認為在科學界對基因改造產品安全仍無絕對的共識、人民又對基改作物存有疑慮的情況下推動這項法案完全不合理。而這樣的爭論隨著今年三月世界衛生組織所屬的研究機構──國際癌症研究機構宣布將廣泛用於GMO穀物的除草劑草甘膦(或稱嘉磷塞,Glyphosate)歸類為2A類致癌物 (對人類很可能有致癌性,probable human carcinogen)後,變得更為激烈。許多反對者因此對基因改造產品的安全性有更高的疑慮。   一般預料,美國聯邦參議院將開始處理本案,支持與反對本案雙方的競爭也越趨白熱化,目前也有幾個修正的提案正在醞釀。當前美國國內已有康乃狄克州及緬因州等少數州別通過了強制的基改食品標示法案,此外還有66個法律案正在27個不同的州審議中。本案如果通過將大幅改變美國在此領域的管制情形。而由於美國是全球重要的基改產品生產國,本案的最終結果預料也經影響未來國際上對基改產品標示的管制。

經濟合作與發展組織發布《促進AI可歸責性:在生命週期中治理與管理風險以實現可信賴的AI》

經濟合作與發展組織(Organisation for Economic Co-operation and Development, OECD)於2023年2月23日發布《促進AI可歸責性:在生命週期中治理與管理風險以實現可信賴的AI》(Advancing accountability in AI: Governing and managing risks throughout the lifecycle for trustworthy AI)。本報告整合ISO 31000:2018風險管理框架(risk-management framework)、美國國家標準暨技術研究院(National Institute of Standards and Technology, NIST)人工智慧風險管理框架(Artificial Intelligence Risk Management Framework, AI RMF)與OECD負責任商業行為之盡職調查指南(OECD Due Diligence Guidance for Responsible Business Conduct)等文件,將AI風險管理分為「界定、評估、處理、治理」四個階段: 1.界定:範圍、背景、參與者和風險準則(Define: Scope, context, actors and criteria)。AI風險會因不同使用情境及環境而有差異,第一步應先界定AI系統生命週期中每個階段涉及之範圍、參與者與利害關係人,並就各角色適用適當的風險評估準則。 2.評估:識別並量測AI風險(Assess: Identify and measure AI risks)。透過識別與分析個人、整體及社會層面的問題,評估潛在風險與發生程度,並根據各項基本價值原則及評估標準進行風險量測。 3.處理:預防、減輕或停止AI風險(Treat: Prevent, mitigate, or cease AI risks)。風險處理考慮每個潛在風險的影響,並大致分為與流程相關(Process-related)及技術(Technical)之兩大處理策略。前者要求AI參與者建立系統設計開發之相關管理程序,後者則與系統技術規格相關,處理此類風險可能需重新訓練或重新評估AI模型。 4.治理:監控、紀錄、溝通、諮詢與融入(Govern: Monitor, document, communicate, consult and embed)。透過在組織中導入培養風險管理的文化,並持續監控、審查管理流程、溝通與諮詢,以及保存相關紀錄,以進行治理。治理之重要性在於能為AI風險管理流程進行外在監督,並能夠更廣泛地在不同類型的組織中建立相應機制。

拜登政府宣布採取促進負責任AI創新之新行動,以保護美國人民權利與安全

拜登政府於2023年5月4日宣布將採取促進負責任AI創新之新行動,表示公司於部署或公開其產品前,應致力於降低AI風險,並強調風險管理與保障措施的重要性,以防止AI對個人與社會造成潛在危害。此外,拜登總統於2月簽署「透過聯邦政府進一步推動種族平等和支持弱勢群體」行政命令(Executive Order on Further Advancing Racial Equity and Support for Underserved Communities Through The Federal Government),指示聯邦政府機關在設計和使用AI等新技術時,應避免偏見,並保護公眾免受演算法歧視。促進負責任AI創新之新行動包括: 一、投資負責任AI的研發 美國國家科學基金會(National Science Foundation)宣布撥款1.4億美元以啟動7個新的國家AI研究所,未來全美將有25個國家級AI研究所。除有助於促進公私部門之間合作外,將強化AI研發基礎設施、支持多元化AI勞動力發展,及推動氣候、農業、能源、公共衛生、教育與資安等關鍵領域之突破。 二、公開評估現有的生成式AI系統(generative AI systems) Anthropic、Google、Hugging Face、微軟、NVIDIA、OpenAI和Stability AI等領先AI開發商將參與AI系統獨立公開評估,以評估其模型是否符合AI權利法案藍圖(Blueprint for an AI Bill of Rights),及AI風險管理框架(AI Risk Management Framework)所提出之原則與實踐,並使企業及開發人員能就所發現問題,進一步採取解決措施。 三、提出政策引導聯邦政府減輕AI風險及提升AI利用機會 美國行政管理預算局(Office of Management and Budget)宣布,將於2023年夏季發布有關聯邦政府機關各部門使用AI系統之政策指引草案,並徵詢公眾意見。

新加坡修正通過電子交易法

  新加坡於2010年5月19日修正通過電子交易法,並於7月1日正式施行。此次新修正之「電子交易法」,是依據新加坡資通訊發展局(Infocomm Development Authority,IDA)及司法部於2004到2005年間推行之公眾意見諮詢,進行法條之全面翻修。作為電子交易法制之先驅國家,新加坡於此次修法中納入聯合國「跨國契約中使用電子通訊公約」(United Nations Convention on the Use of Electronic Communications in International Contracts)之相關規定,此一公約旨在促進全球之電子通訊及交易以相同之法律模式加以運作。     該法之修正係為因應新加坡電子商務之日趨成長以及國民對電子化政府之需求,以建立新加坡成為全球可信賴之資通訊中心。此次修正重點如下: 一、參照聯合國「跨國契約中使用電子通訊公約」之規定,調整電子簽章之要件以及對於收發電子文件時間與地點之認定。納入以自動處理訊息系統做為契約訂立之方式,以電子文件作為正本以取代實體書面之正本文件,並就電子交易中要約之引誘以及電子通訊中發生錯誤時之解決方式加以規定,使新加坡之法律制度能與國際電子商務法律制度接軌。 二、促進民眾及企業與政府機關進行互動時,更有效率地使用電子文件相關服務,以加強電子化政府服務之應用。如提供綜合性電子表格,讓使用者僅需填寫一次相關資訊,即能利用不同種類的電子化政府服務。 三、對憑證管理中心之規範採用技術中立的認證架構,未來憑證管理中心不一定要使用公開金鑰基礎建設(Public Key Infrastructure,PKI)之相關技術作為提供驗證服務之方式,相對地,在其他技術逐漸開發之狀況下,也可採用其他技術提供驗證服務,如生物鑑識技術。當然,主管機關仍會以相同標準對採用不同驗證技術之憑證管理中心進行監督,以確保憑證服務之安全性及有效性。 。

TOP