美國參議院於2022年4月提出《演算法問責法案》對演算法治理再次進行立法嘗試

  《演算法問責法案》(Algorithmic Accountability Act)於2022年4月由美國參議院提出,此法案係以2019年版本為基礎,對演算法(algorithm)之專業性與細節性事項建立更完善之規範。法案以提升自動化決策系統(automated decision systems, ADS)之透明度與公平性為目的,授權聯邦貿易委員會(Federal Trade Commission, FTC)制定法規,並要求其管轄範圍內之公司,須就對消費者生活產生重大影響之自動化決策系統進行影響評估,公司亦須將評估結果做成摘要報告。

  《演算法問責法案》之規範主體包括:(1)公司連續三年平均營業額達5000萬美元,或股權價值超過2.5億美元者,並處理或控制之個人資料超過100萬人次;以及(2)公司過去三年內,財務規模至少為前者之十分之一,且部署演算法開發以供前者實施或使用者。ADS影響評估應檢視之內容包括:
  1.對決策過程進行描述,比較分析其利益、需求與預期用途;
  2.識別並描述與利害關係人之協商及其建議;
  3.對隱私風險和加強措施,進行持續性測試與評估;
  4.記錄方法、指標、合適資料集以及成功執行之條件;
  5.對執行測試和部署條件,進行持續性測試與評估(含不同群體);
  6.對代理商提供風險和實踐方式之支援與培訓;
  7.評估限制使用自動化決策系統之必要性,並納入產品或其使用條款;
  8.維護用於開發、測試、維護自動化決策系統之資料集和其他資訊之紀錄;
  9.自透明度的角度評估消費者之權利;
  10.以結構化方式識別可能的不利影響,並評估緩解策略;
  11.描述開發、測試和部署過程之紀錄;
  12.確定得以改進自動化決策系統之能力、工具、標準、資料集,或其他必要或有益的資源;
  13.無法遵守上述任一項要求者,應附理由說明之;
  14.執行並記錄其他FTC 認為合適的研究和評估。

  當公司違反《演算法問責法案》及其相關法規有不正當或欺騙性行為或做法時,將被視為違反《聯邦貿易委員會法》(Federal Trade Commission Act)規定之不公平或欺騙性行為,FTC應依《聯邦貿易委員會法》之規定予以處罰。此法案就使用ADS之企業應進行之影響評估訂有基礎框架,或可作為我國演算法治理與人工智慧應用相關法制或政策措施之參酌對象,值得持續追蹤。

你可能會想參加
※ 美國參議院於2022年4月提出《演算法問責法案》對演算法治理再次進行立法嘗試, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8912&no=67&tp=1 (最後瀏覽日:2026/05/13)
引註此篇文章
你可能還會想看
非評論、批判之著作若具新目的之轉化亦屬合理使用範疇之新見解 - Patrick Cariou v. Richard Prince

  美國聯邦第二巡迴上訴法院針對Patrick Cariou v. Richard Prince一案做出侵害著作權之合理使用判斷新見解,合理使用之目的主要為平衡著作權與美國憲法第一修正案之間的衝突,故1976年著作權法第107條中編寫有關合理使用之條文─在第106和第106A之規定外,對一受著作權保護作品的合理使用,無論是透過複製、錄音或其他任何上述規定中所提到的手段,以用作批評、評論、新聞報導、教學、學術交流或研究之目的,不屬於侵權。上訴法院認為被告Prince使用雖不符合批評、評論、新聞報導、教學、學術及研究等,卻是另有目的,可構成合理使用,更進一步指出被告的創意方法、表現形式等都與原告作品本質上不同,甚至還比原作新穎,因此,在轉化測試法則上建立了若以不同美學表達且加入挪用藝術手法的話,即使不具批判卻另有目的並加入新元素於創作,使原作改變之轉化,則構成合理使用。至於轉化測試法則確立於1994年的Campbell案,最高法院指出戲謔仿作可藉由諷刺原著作而轉化成與原著作不同的另一著作。   此案可謂針對合理使用於判定著作權侵害案件時,合理使用原則第一項因素成立轉化測試法則與否之新指標。著作權合理使用原則發展亦可觀察出美國有逐漸將判斷標準擴大之趨勢,而轉化測試法則之發展亦將持續追蹤之。

何謂「孤兒著作」?

  「孤兒著作」係指仍在著作權保護期間,但是著作權人不明知著作。依著作權法第10條規定,著作人於著作完成時享有著作權,而著作權之保護期間依著作權法第30條第1項存續於著作權人之生存其間及其死亡後之50年。   在網路普及資訊流通快速之現代,經過不斷的轉載,許多著作權人不明,但是仍受著作權法保護,所謂之「孤兒著作」在市面上不斷流通。此時若與利用孤兒著作,但是不知道著作權人是誰,無法取得授權之情形下,要怎麼辦才不會觸法?   此時依文化創意發展法第24條,想要利用孤兒著作之人,得在盡力尋找著作權人未果後(不知著作權人為何或是著作權人聯繫資訊不明知情形),向智財局說明無法取得授權之原因,並提存一定金額,取得智財局之許可授權後,於許可範圍內利用該著作。又須提存之金額應與一般著作經自由磋商所應支付合理之使用報酬相當。

歐盟執委會通過關於《人工智慧責任指令》之立法提案

  歐盟執委會(European Commission)於2022年9月28日通過《人工智慧責任指令》(AI Liability Directive)之立法提案,以補充2021年4月通過之《人工智慧法》草案(Artificial Intelligence Act)。鑑於人工智慧產品之不透明性、複雜性且具自主行為等多項特徵,受損害者往往難以舉證並獲得因人工智慧所造成之損害賠償,《人工智慧責任指令》立法提案即為促使因人工智慧而受有損害者,得以更容易獲得賠償,並減輕受損害者請求損害賠償之舉證責任。   《人工智慧責任指令》透過引入兩個主要方式:(一)可推翻之推定(rebuttable presumptions):人工智慧責任指令透過「因果關係推定(presumption of causality)」來減輕受損害者之舉證責任(burden of proof)。受損害者(不論是個人、企業或組織)若能證明人工智慧系統因過失或不遵守法規要求之義務,致其受有損害(包括基本權利在內之生命、健康、財產或隱私等),並且該損害與人工智慧系統之表現具有因果關係,法院即可推定該過失或不遵守義務之行為造成受損害者之損害。相對的,人工智慧之供應商或開發商等也可提供相關證據證明其過失不可能造成損害,或該損害係由其他原因所致,以推翻該損害之推定。(二)證據揭露機制(disclosure of evidence mechanism):若受害者之損害涉及高風險人工智慧時,得要求自該供應商或開發商等處獲取證據之權利。受害者透過證據揭露機制能夠較容易地尋求法律賠償,並得以找出究責的對象。   歐盟執委會認為以安全為導向的《人工智慧法》,為人工智慧訂定橫向規則,旨在降低風險和防止損害,但仍需要《人工智慧責任指令》之責任規定,以確保損害風險出現時,相關賠償得以被實現。但歐盟執委會仍選擇了較小的干預手段,《人工智慧責任指令》針對過失之責任制度進行改革,並未採取舉證責任倒置(a reversal of the burden of proof)之作法,而是透過「可推翻之推定」,一方面減輕受損害者之舉證責任,使受損害者得對影響人工智慧系統並產生過失或侵害行為之人提出損害賠償;另一方面賦予人工智慧之供應商或開發商等有機會推翻前揭造成損害之推定,以避免人工智慧系統之供應商或開發商面臨更高的責任風險,可能阻礙人工智慧產品和服務創新。

新時代的管理利器-系統化的企業員工管理制度

TOP