美國參議院於2022年4月提出《演算法問責法案》對演算法治理再次進行立法嘗試

  《演算法問責法案》(Algorithmic Accountability Act)於2022年4月由美國參議院提出,此法案係以2019年版本為基礎,對演算法(algorithm)之專業性與細節性事項建立更完善之規範。法案以提升自動化決策系統(automated decision systems, ADS)之透明度與公平性為目的,授權聯邦貿易委員會(Federal Trade Commission, FTC)制定法規,並要求其管轄範圍內之公司,須就對消費者生活產生重大影響之自動化決策系統進行影響評估,公司亦須將評估結果做成摘要報告。

  《演算法問責法案》之規範主體包括:(1)公司連續三年平均營業額達5000萬美元,或股權價值超過2.5億美元者,並處理或控制之個人資料超過100萬人次;以及(2)公司過去三年內,財務規模至少為前者之十分之一,且部署演算法開發以供前者實施或使用者。ADS影響評估應檢視之內容包括:
  1.對決策過程進行描述,比較分析其利益、需求與預期用途;
  2.識別並描述與利害關係人之協商及其建議;
  3.對隱私風險和加強措施,進行持續性測試與評估;
  4.記錄方法、指標、合適資料集以及成功執行之條件;
  5.對執行測試和部署條件,進行持續性測試與評估(含不同群體);
  6.對代理商提供風險和實踐方式之支援與培訓;
  7.評估限制使用自動化決策系統之必要性,並納入產品或其使用條款;
  8.維護用於開發、測試、維護自動化決策系統之資料集和其他資訊之紀錄;
  9.自透明度的角度評估消費者之權利;
  10.以結構化方式識別可能的不利影響,並評估緩解策略;
  11.描述開發、測試和部署過程之紀錄;
  12.確定得以改進自動化決策系統之能力、工具、標準、資料集,或其他必要或有益的資源;
  13.無法遵守上述任一項要求者,應附理由說明之;
  14.執行並記錄其他FTC 認為合適的研究和評估。

  當公司違反《演算法問責法案》及其相關法規有不正當或欺騙性行為或做法時,將被視為違反《聯邦貿易委員會法》(Federal Trade Commission Act)規定之不公平或欺騙性行為,FTC應依《聯邦貿易委員會法》之規定予以處罰。此法案就使用ADS之企業應進行之影響評估訂有基礎框架,或可作為我國演算法治理與人工智慧應用相關法制或政策措施之參酌對象,值得持續追蹤。

你可能會想參加
※ 美國參議院於2022年4月提出《演算法問責法案》對演算法治理再次進行立法嘗試, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8912&tp=1 (最後瀏覽日:2025/11/26)
引註此篇文章
你可能還會想看
網路線上廣播電視正方興未艾

以色列發布人工智慧監管與道德政策

以色列創新、科學及技術部(Ministry of Innovation, Science and Technology)於2023年12月17日公布以色列首個關於人工智慧的監管和道德政策,在各行各業將人工智慧作為未來發展方向的趨勢下,以多元、協作、原則、創新的理念為其導向,為了化解偏見、人類監督、可解釋性、透明度、安全、問責和隱私所帶來的衝擊,以色列整合政府部門、民間組織、學術界及私部門互相合作制定政策,以求解決人工智慧的七個挑戰,帶領以色列與國際接軌。 該人工智慧政策提出具體政策方向以制定措施,其中具有特色的三項為: 1. 軟性監管:人工智慧政策採取軟性監管制度,以OECD人工智慧原則(OECD AI Principles)為基礎,採行制定標準、監督與自律等方式促進人工智慧永續發展,注重以人為本的道德原則,強調創新、平等、可靠性、問責性。 2. 人工智慧政策協調中心(AI Policy Coordination Center):邀集專家學者成立跨部門的人工智慧政策協調中心,進行人工智慧政策研議,向政府部門監管提出建言,為人工智慧的開發使用建立風險管理,並代表國家參與國際論壇。 3. 公眾參與及國際合作:政府機關與監管機構舉辦人工智慧論壇,提出人工智慧的議題與挑戰,邀請相關人士參與討論,並積極參與國際標準制定,進行國際合作。 我國科技部在2019年邀集各領域專家學者研議提出「人工智慧科研發展指引」,強調以人為本、永續發展、多元包容為核心,以八大指引為標竿,推動人工智慧發展。我國已有跨部會溝通會議對於人工智慧法制政策進行研討,可觀察各國軟性監管措施作為我國人工智慧風險管理及產業政策參考,與國際脈動建立連結。

首批奈米標章三月核發

  國內推出的「奈米標章」日前開放申請,第一批受理的奈米產品是與人體未直接碰觸的奈米光觸媒脫臭塗料、光觸媒抗菌瓷磚、及光觸媒抗菌燈管等三項產品,經濟部可望在今年3月核發第一批標章,並在今年內再開放五項奈米產品申請。   目前國內生產相關奈米磁磚廠商有泉耀科技等、奈米燈管業者有台灣日光燈及東亞照明等、奈米塗料廠商有台灣富萊寶科技等都可望提出申請,有機會成為第一  批拿到奈米標章的廠商,因我國也是全球第一個推出奈米標章國家,對政府積極推動發展奈米產業助益大。   經濟部指出,第一批僅開放三項奈米產品,是基於安全起見,以未與人體直接碰觸的產品為主,其他與人體直接接觸的奈米紡織品、奈米化妝品及保養品等尚未納入,第二批開放五項奈米產品也還未敲定。

美國國防部「人工智慧國防運用倫理準則」

  美國國防部(Department of Defense)於2020年2月採納由美國國防創新委員會(Defense Innovation Board, DIB)所提出之「人工智慧國防運用倫理準則(AI Principles: Recommendations on the Ethical Use of Artificial Intelligence by the Department of Defense)」,以衡平倫理與人工智慧於國防帶來之增益。   美國國防創新委員會為美國聯邦政府下之獨立委員會,設置目的在於依美國新創科技,提供意見予美國國防部,與美國國防部並無隸屬關係。有鑑於人工智慧之運用範疇日益增廣,美國國防創新委員會遂提出旨揭「人工智慧國防運用倫理準則」,以因應人工智慧於國防之應用所產生之問題。   倫理準則適用於「戰爭或非戰爭用途之人工智慧之設計以及應用」,對於「人工智慧」之定義,倫理準認為人工智慧並無精確之範疇,只要「對於資訊有所處理並旨在達到所賦予任務之資訊系統」,皆為本準則下之人工智慧。倫理準則指出,「人工智慧」與美國國防部3000.09指令下之「自動化武器系統(Autonomous Weapon System)」之定義不同,但有可能重疊,而所謂「自動化武器系統」為「一經人類選擇啟動,即可在無人類監督之情形下,自動針對目標進行鎖定或進行攻擊之自動化武器系統」。   美國國防創新委員會表示,該準則旨在切合美國既有憲法、法律、國際公約之傳統標準下,融入現代化對於人工智慧之要求,如國際公約中之戰爭法(Law of War)即為本準則之傳統標準之一,舉例而言,如人工智慧被裝置於武器中,其設計及應用應符合最小傷亡原則、避免傷及無辜原則等。   除此之外,準則亦包含以下現代化對於人工智慧之要求:(1)人類對於人工智慧系統之設計、應用以及使用應善盡判斷以及注意義務,且人類應該對於人工智慧系統因瑕疵所帶來之傷害負擔最終責任;(2)對於目標之選擇或分類,應維持公平性,且不得有歧視性;(3)對於人工智慧之設計、應用以及使用,應有明確之工程標準以及資料保存程序,此一工程標準以及資料保存程序應為一般具有專業知識之工程人員可據以理解、分析、追蹤問題所在並加以改善;(4)「戰爭或非戰爭用途之人工智慧」應有明確之應用領域,且完善之檢測、維修,應適用於該人工智慧之全部生命週期。

TOP