美國參議院於2022年4月提出《演算法問責法案》對演算法治理再次進行立法嘗試

  《演算法問責法案》(Algorithmic Accountability Act)於2022年4月由美國參議院提出,此法案係以2019年版本為基礎,對演算法(algorithm)之專業性與細節性事項建立更完善之規範。法案以提升自動化決策系統(automated decision systems, ADS)之透明度與公平性為目的,授權聯邦貿易委員會(Federal Trade Commission, FTC)制定法規,並要求其管轄範圍內之公司,須就對消費者生活產生重大影響之自動化決策系統進行影響評估,公司亦須將評估結果做成摘要報告。

  《演算法問責法案》之規範主體包括:(1)公司連續三年平均營業額達5000萬美元,或股權價值超過2.5億美元者,並處理或控制之個人資料超過100萬人次;以及(2)公司過去三年內,財務規模至少為前者之十分之一,且部署演算法開發以供前者實施或使用者。ADS影響評估應檢視之內容包括:
  1.對決策過程進行描述,比較分析其利益、需求與預期用途;
  2.識別並描述與利害關係人之協商及其建議;
  3.對隱私風險和加強措施,進行持續性測試與評估;
  4.記錄方法、指標、合適資料集以及成功執行之條件;
  5.對執行測試和部署條件,進行持續性測試與評估(含不同群體);
  6.對代理商提供風險和實踐方式之支援與培訓;
  7.評估限制使用自動化決策系統之必要性,並納入產品或其使用條款;
  8.維護用於開發、測試、維護自動化決策系統之資料集和其他資訊之紀錄;
  9.自透明度的角度評估消費者之權利;
  10.以結構化方式識別可能的不利影響,並評估緩解策略;
  11.描述開發、測試和部署過程之紀錄;
  12.確定得以改進自動化決策系統之能力、工具、標準、資料集,或其他必要或有益的資源;
  13.無法遵守上述任一項要求者,應附理由說明之;
  14.執行並記錄其他FTC 認為合適的研究和評估。

  當公司違反《演算法問責法案》及其相關法規有不正當或欺騙性行為或做法時,將被視為違反《聯邦貿易委員會法》(Federal Trade Commission Act)規定之不公平或欺騙性行為,FTC應依《聯邦貿易委員會法》之規定予以處罰。此法案就使用ADS之企業應進行之影響評估訂有基礎框架,或可作為我國演算法治理與人工智慧應用相關法制或政策措施之參酌對象,值得持續追蹤。

你可能會想參加
※ 美國參議院於2022年4月提出《演算法問責法案》對演算法治理再次進行立法嘗試, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8912&tp=1 (最後瀏覽日:2026/01/21)
引註此篇文章
你可能還會想看
Macy's 控告前執行副總與Burlington竊取其商業機密案

  Macy's公司(以下簡稱Macy's)今(2017)年6月在美國俄亥俄州南區聯邦法院控告前執行副總Kristen Cox(以下簡稱Cox)與其競爭對手Burlington公司(以下簡稱Burlington)竊取其具有零售產業競爭優勢的商業機密。Cox原任職於Macy's擔任執行副總與北區商店總監,於今年4月離職,並至Burlington擔任商店資深副總,Macy's主張該行為造成其傳統百貨公司與其他品牌商店的不當競爭。   Cox離職時,複印了Macy's的樓層規劃策略,及內含詳細銷售資訊的財務報告。亦在未經授權的情況下,下載儲存了財務績效、產品與品牌趨勢、消費喜好和商業策略有效性評估等資料。而Burlington挖角Cox的行為,不僅使Macy's失去優秀人才,更透過Cox獲知Macy's內部營運與商業策略等營業秘密,使Burlington取得不公平競爭之優勢。   由於Cox與Macy's有簽訂禁止競業、禁止招攬與保密條款,Macy's主張前揭行為已違反契約規定與忠實、誠信義務。同時,Macy's亦申請臨時禁制令,禁止Cox持續在Burlington工作,避免對Macy's造成不可彌補的損害。   另一方面,Cox也在紐約聯邦法院針對臨時禁制令提起反訴,主張Macy's競業條款要求其2年內不得在其他主要零售業工作之限制範圍太廣,並不合理,且Cox先前工作接觸的營業秘密,與現職工作內容毫無關聯且職掌業務不同,兩家公司的營業模式也有差異,故請求可繼續在Burlington工作。惟Macy's針對Cox選擇之管轄法院提出反駁,認為有任何爭議應以合約約定的俄亥俄州為管轄法院,此案後續值得關注。 「本文同步刊登於TIPS網站(https://www.tips.org.tw )」

法國科學家現正積極研究奈米碳管的毒性評估方式

  法國國家研究會議﹙French National Research Council﹙CNRS﹚﹚的科學家,過去三年持續投入奈米碳管的毒性研究,包括奈米管在環境中所引起的污染反應、其對人體的危害,以及如何以較清潔的方式從事奈米碳管的生產製造。這個研究計畫將側重於目前常為產業利用的各式奈米管。   目前,奈米碳管在全球的製造量高達每年數百噸之譜。優越的機械及電子性能,促使奈米碳管被大量運用在平面螢幕及汽車產業當中,甚至利用在運動產品之上。然而,除了擴增的應用領域之外,其對人體健康及環境的影響迄今尚未受到重視。使用奈米管的物質通常被當做一般廢棄物來處理,就其對於環境的影響,人們更是一無所知。   法國CNRS的科學家希望能夠釐清這樣的問題。目前,研究人員的觀察重點將在奈米碳管如何影響水生環境﹙aquatic environments﹚,以及兩棲生物在奈米管流佈的環境中如何生存及反應。此外,科學家們同時觀察奈米材料如何影響人體健康:他們正在觀察及研究巨嗜球﹙macrophage cells﹚如何與奈米碳管互動,以及在這種暴露環境下,實驗用鼠的肺部是否會產生發炎症狀。經由初步的實驗,科學家們發現人體會將奈米管視為異物,進而引發發炎反應。   接下來,CNRS會進一步研究如何以更清潔且對環境友善的方式來製造奈米管。

智慧財產法院成立及運作的政策 正式啟動

  司法院於94年年終記者會時,正式發佈我國智慧財產法院即將成立及運作的政策。有鑒於國內外企業在台的專利、商標、著作權等紛爭越來越多,為了節省司法資源、快速釐清企業糾紛、不耗損社會資源等目的,智慧財產法院乃為司法現代化相當重要的一環。   我國的智財官司時,多是以刑事訴訟為主附帶民事官司,有別於歐美各國的智慧財產案件多以民事訴訟為主。未來智慧財產法院所管轄案件除了民事訴訟事件、刑事訴訟案件外,還包括有行政訴訟事件與強制執行事件,集中事權,專責審理智財權相關案件。此外,為了因應科技界日新月異的技術發展,在智慧財產法院扮演關鍵角色的「技術審理官」,主要負責輔助法官從事專業技術問題之判斷,因此除了由全職公務員-專利審查官或是商標審查官擔任外,亦可任用公私立大專院校之老師或專業研究機構之研究員。   另一方面,為避免大型企業利用資金優渥之優勢,打壓小型科技公司的發展,智慧財產訴訟中的「假處分」聲請規定,相較於現行民事訴訟法規定嚴格許多,假處分聲請人除提供擔保金外,還必須「強制釋明」理由,若是釋明不足者,法院可駁回其聲請。   目前司法院已研擬完成「智慧財產法院組織法草案」及「智慧財產案件審理法草案」的全部條文,並公布在司法院網站上,預定在立法院下會期提交立法。

英國發布「人工智慧:機會與未來決策影響」政策報告,並聚焦人工智慧運用及管理

  英國科學辦公室於2016年11月9日,發布一份政策報告:「人工智慧:機會與未來決策影響(Artificial intelligence: opportunities and implications for the future of decision making)」,介紹人工智慧對於社會及政府的機會和影響,此份政策報告並提出以下各項重要建議: (一)關於人工智慧及應用界定與發展   人工智慧是指由人工製造系統所表現出來的智慧。不僅是將現有的流程自動化,還包含制定目標,並利用電腦程式實現這些目標,常見案例包括線上翻譯、語音辨識、搜尋引擎篩選排序、垃圾郵件過濾、透過用戶回饋改善線上服務、預測交通流量、環境或社會經濟趨勢發展觀察等。 (二)未來對社會及政府利益及衝擊   人工智慧針對提高生產力有巨大的潛力,最明顯的就是幫助企業或個人更有效地運用資源,並簡化大量資料的處理,例如Ocado 及 Amazon這樣的公司正充份利用人工智慧改善倉儲及銷售網路系統,使得客戶可便利快速購得網購商品。   目前,政府也日益增加相關技術的運用,以提高公共服務效率,使資源達到最佳化分配;減少決策者被誤導的可能;使政府決策透明化;確保各部門更了解人民的意見。然政府在利用人工智慧及巨量資料時,應遵守倫理使用指南,並遵守英國資料保護法及歐盟一般資料保護規則等相關法規。   在巨量資料、機器人、自動系統對於勞動市場的衝擊一直都是關注的議題,對於面臨未來工作結構的轉型及相關技術人員的進修及培養,應及早規劃,以適應未來的轉變。 (三)關於相關道德及法律風險管理課題   人工智慧可能潛在相關道德倫理問題。許多專家認為政府應積極管理並降低風險發生可能性,可從以下兩個面向思考: (1)研究機器學習與個人資料運用結合時,對個人自由、隱私和同意等概念的影響。 (2)調適由人工智慧作決策行為時的歸責概念和機制。   有關實際案例之研究,則包括,執法單位在應用預測技術時,應避免以種族、國籍、地址作為標準,並嚴守無罪推定原則,以防止民眾受到歧視或不公平的指控;透過人工智慧可從公開資料推測出某些私人訊息或其親朋好友的消息,此訊息即可能超出原先個人同意披露的內容;原先匿名化及去識別化的訊息,因人工智慧功能加強,導至可能被重新識別,故須定期檢視該保護措施是否足夠。另外,人工智慧的演算偏差可能導致偏見的風險,為了降低這種風險,技術人員應採取對應措施。   針對責任及疏失的判斷,目前尚無太多的實務案例,但為保持對使用人工智慧的信任,仍需有明確的歸責制,可能有必要讓首席執行長或高級主管對人工智慧做出的決策負最終責任。許多專家也建議,部分技術內容須保持透明度,以確定技術使用時是否有盡到相關注意義務。   人工智慧已成為未來發展趨勢之一,對於社會整體層面影響將越來越深,新的技術除了可提升生產力,帶來便利的生活,同樣也會帶來衝擊。為促進相關產業發展及推展新技術的使用,應打造技術發展友善環境,並對於公眾安全進行相關風險評估,如果風險屬於現有監管制度範圍,應評估是否可充分解決風險,或是須要做相對應的調適。另外,在人工智慧融入現實世界同時,相關業者應注意相關產品安全性、隱私權保護和從業人員的倫理教育,以提高大眾對新技術的接受及信賴,並確保對於未來挑戰及轉變已做好萬全準備。

TOP