歐盟執委會通過關於《人工智慧責任指令》之立法提案

  歐盟執委會(European Commission)於2022年9月28日通過《人工智慧責任指令》(AI Liability Directive)之立法提案,以補充2021年4月通過之《人工智慧法》草案(Artificial Intelligence Act)。鑑於人工智慧產品之不透明性、複雜性且具自主行為等多項特徵,受損害者往往難以舉證並獲得因人工智慧所造成之損害賠償,《人工智慧責任指令》立法提案即為促使因人工智慧而受有損害者,得以更容易獲得賠償,並減輕受損害者請求損害賠償之舉證責任。

  《人工智慧責任指令》透過引入兩個主要方式:(一)可推翻之推定(rebuttable presumptions):人工智慧責任指令透過「因果關係推定(presumption of causality)」來減輕受損害者之舉證責任(burden of proof)。受損害者(不論是個人、企業或組織)若能證明人工智慧系統因過失或不遵守法規要求之義務,致其受有損害(包括基本權利在內之生命、健康、財產或隱私等),並且該損害與人工智慧系統之表現具有因果關係,法院即可推定該過失或不遵守義務之行為造成受損害者之損害。相對的,人工智慧之供應商或開發商等也可提供相關證據證明其過失不可能造成損害,或該損害係由其他原因所致,以推翻該損害之推定。(二)證據揭露機制(disclosure of evidence mechanism):若受害者之損害涉及高風險人工智慧時,得要求自該供應商或開發商等處獲取證據之權利。受害者透過證據揭露機制能夠較容易地尋求法律賠償,並得以找出究責的對象。

  歐盟執委會認為以安全為導向的《人工智慧法》,為人工智慧訂定橫向規則,旨在降低風險和防止損害,但仍需要《人工智慧責任指令》之責任規定,以確保損害風險出現時,相關賠償得以被實現。但歐盟執委會仍選擇了較小的干預手段,《人工智慧責任指令》針對過失之責任制度進行改革,並未採取舉證責任倒置(a reversal of the burden of proof)之作法,而是透過「可推翻之推定」,一方面減輕受損害者之舉證責任,使受損害者得對影響人工智慧系統並產生過失或侵害行為之人提出損害賠償;另一方面賦予人工智慧之供應商或開發商等有機會推翻前揭造成損害之推定,以避免人工智慧系統之供應商或開發商面臨更高的責任風險,可能阻礙人工智慧產品和服務創新。

相關連結
※ 歐盟執委會通過關於《人工智慧責任指令》之立法提案, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8958&no=55&tp=1 (最後瀏覽日:2025/12/22)
引註此篇文章
你可能還會想看
微軟與Linspire將展開技術合作

  微軟(Microsoft)宣佈又與Linux銷售商簽署,本次合作對象為Linspire公司,而該公司先前曾受到微軟的商標侵權指控。   這兩家公司曾於2004年達成合解,Linspire答應停止使用Lindows一名稱,而微軟為此支付了2千萬美元。Linspire還獲准使用Windows Media的程式碼,並解決了微軟的商標侵權指控問題。   根據達成之協議,兩方將在包括即時通訊(Instant Messaging)和網路搜尋(Web Search)在內的多個領域展開密切合作。對於購買Linspire付費版的用戶將得到相同的法律保障,以規避任何微軟可能對其採取針對Linux桌面軟體的法律行動。但Linspire未計畫在其免費的Freespire產品中提供微軟的技術,以及任何專利保障。   先前微軟曾表示,在Linux系統上的保護行動已成為其最近一系列“交互授權”合約的一部分,如其與LG、三星(Samsung)和Fuji Xerox簽署的一些專利權交易協定。微軟智權總監David Kaefer表示:「這些協議表明,微軟和眾多Linux供應商正為雙方作業系統間能架起一座橋樑而努力不懈」。這些公司並未在協議裏提及商業利益問題,但Kaefer表示:「很顯然,雙方同時都希望在此協商中獲利」。   協議中,Linspire將把微軟的Live Search作為其Linspire產品的預設搜尋引擎,並將獲准繼續使用包括Windows Media 10程式碼在內的Windows Media技術。   微軟還將准許Linspire在其即時通訊工具中使用其部分字體和IP語音技術,而Linspire也將加入Office 2007的XML檔案格式及OpenDocument格式轉換的研發團隊。

美國聯邦巡迴上訴法院判決美國專利法第271條(f)項不適用於方法專利

  繼美國最高法院於Microsoft Corp. v. AT&T Corp. 做出與專利法治外法權有關的判決後,美國聯邦巡迴上訴法院於2009年8月19日再次做出限縮解釋專利法第271條(f)項於美國境外的效力。   美國專利法第271條(f)項規定未經許可提供或使人提供專利產品之元件,將之由美國供應(“supply”)至美國境外完成組合,亦視為侵害該專利產品之專利權。此項規定為美國國會為防範企業藉由在美國境內製造非專利保護之零組件後再運送之海外進行組合以規避專利侵權責任而制定。之後,在實物案例中,關於第271條(f)項之解釋與適用範圍產生諸多爭議。美國最高法院於其在2007年Microsoft Corp. v. AT&T Corp. 中強調不應擴張解釋第271條(f)項之文字。   於Cardiac Pacemakers Inv. V. St. Jude Medical Inc. 一案中,原告Cardiac Pacemakers控告被告St. Jude Medical所販賣的植入式心臟整流去顫器 (implantable cardioverter defibrillator)之使用會侵犯原告所擁有的一個利用植入式心臟刺激器治療心律不整的方法專利 (a method of heart stimulation using an implantable heart stimulator)。本案的爭點在於被告銷售可實施原告美國專利方法的產品或裝置讓該專利方法於美國境外被實施的行為是否構成第271條(f)項之侵害。美國聯邦巡迴上訴法院推翻其於2005年之判決(Union Carbide Chemicals Plastics Technology Corp. V. Shell Oil Co.),判定專利法第271條(f)項不適用於方法專利。亦即,被告銷售可實施原告美國專利方法的產品至海外的行為不構成第271條(f)項所規定之侵權行為。   此判決對原告Cardiac Pacemakers之衝擊可能較小,因其專利範圍除方法請求項外,亦包含物品請求項,原告還可藉由其物品請求項獲得侵權損害賠償。但此案可能對僅能以方法申請專利的產業如生技藥業(某些診斷及檢驗僅能以方法申請專利)及軟體業造成較大的影響。

FCC推動電線寬頻上網(BPL, broadband over power line)服務

  FCC日前發佈一份關於電線寬頻上網之備忘錄命令及意見(MO&O, Memorandum Opinion and Order),除了再度確認FCC於2004年時就接取電線寬頻上網系統所為之決議外,同時也否決業餘無線電社群、電視廣播業者、航空工業等所提出限制電線寬頻上網之要求,但FCC採納保護無線電天文台以及航空站使免於電線寬頻上網干擾之規定。 FCC表示,推動電線寬頻上網可以幫助居住於鄉村地區之美國民眾接取高速網路,而且目前寬頻網路市場的主導者有線電視網路上網(cable)業者及數位用戶迴路業者(DSL)亦將會因電線寬頻上網之發展而被迫降價,讓消費者可以更低廉的價格接取寬頻網路。不過,FCC委員Michael Copps 提醒,雖然眼前FCC在電線寬頻上網以及可能產生之干擾間似乎已達成平衡,但FCC仍應繼續密切關注電線寬頻上網對其他使用者之干擾問題,尤其在卡崔那(Katrina)颶風的慘痛經驗中已證實業餘無線電之發展與貢獻具有高度價值,因此,對於電線寬頻上網可能對業餘無線電用戶之干擾部分應格外注意。

歐盟議會發布《可信賴人工智慧倫理準則》

  2019年4月9日,歐盟議會發布《可信賴人工智慧倫理準則》(Ethics Guidelines for Trustworthy AI)。此次內容大致延續歐盟人工智慧高階專家小組(High-level Expert Group on Artificial Intelligence)於2018年12月18日發布的《可信賴人工智慧倫理準則草案》(Draft Ethics Guidelines for Trustworthy Artificial Intelligence)之內容,要求人工智慧須遵守行善(do good)、不作惡(do no harm)、保護人類(preserve human Agency)、公平(be fair)與公開透明(operate transparency)等倫理原則;並在4月9日發布的正式內容中更加具體描述可信賴的人工智慧的具體要件,共計七面向概述如下: 人類自主性和監控(Human agency and oversight):AI係為強化人類能力而存在,使人類使用者能夠做出更明智的決策並培養自身的基礎能力。同時,AI應有相關監控機制以確保AI系統不會侵害人類自主性或是引發其他負面效果。本準則建議,監控機制應可透過人機混合(一種整合人工智慧與人類協作的系統,例如human-in-the-loop, human-on-the-loop, and human-in-command)的操作方法來實現。 技術穩健性和安全性(Technical Robustness and safety):為防止損害擴張與確保損害最小化,AI系統除需具備準確性、可靠性和可重複性等技術特質,同時也需在出現問題前訂定完善的備援計劃。 隱私和資料治理(Privacy and data governance):除了確保充分尊重隱私和資料保護之外,還必須確保適當的資料治理機制,同時考慮到資料的品質和完整性,並確保合法近用資料為可行。 透明度(Transparency):資料、系統和AI的商業模型應該是透明的。可追溯性機制(Traceability mechanisms)有助於實現這一目標。此外,應以利害關係人能夠理解的方式解釋AI系統的邏輯及運作模式。人類參與者和使用者需要意識到他們正在與AI系統進行互動,並且必須了解AI系統的功能和限制。 保持多樣性、不歧視和公平(Diversity, non-discrimination and fairness):AI不公平的偏見可能會加劇對弱勢群體的偏見和歧視,導致邊緣化現象更為嚴重。為避免此種情況,AI系統應該設計為所有人皆可以近用,達成使用者多樣性的目標。 社會和環境福祉(Societal and environmental well-being):AI應該使包含我們的後代在內的所有人類受益。因此AI必須兼顧永續發展、環境友善,並能提供正向的社會影響。  問責制(Accountability):應建立機制以妥當處理AI所導致的結果的責任歸屬,演算法的可審計性(Auditability)為關鍵。此外,應確保補救措施為無障礙設計。

TOP