美國參議院於2022年4月提出《演算法問責法案》對演算法治理再次進行立法嘗試

  《演算法問責法案》(Algorithmic Accountability Act)於2022年4月由美國參議院提出,此法案係以2019年版本為基礎,對演算法(algorithm)之專業性與細節性事項建立更完善之規範。法案以提升自動化決策系統(automated decision systems, ADS)之透明度與公平性為目的,授權聯邦貿易委員會(Federal Trade Commission, FTC)制定法規,並要求其管轄範圍內之公司,須就對消費者生活產生重大影響之自動化決策系統進行影響評估,公司亦須將評估結果做成摘要報告。

  《演算法問責法案》之規範主體包括:(1)公司連續三年平均營業額達5000萬美元,或股權價值超過2.5億美元者,並處理或控制之個人資料超過100萬人次;以及(2)公司過去三年內,財務規模至少為前者之十分之一,且部署演算法開發以供前者實施或使用者。ADS影響評估應檢視之內容包括:
  1.對決策過程進行描述,比較分析其利益、需求與預期用途;
  2.識別並描述與利害關係人之協商及其建議;
  3.對隱私風險和加強措施,進行持續性測試與評估;
  4.記錄方法、指標、合適資料集以及成功執行之條件;
  5.對執行測試和部署條件,進行持續性測試與評估(含不同群體);
  6.對代理商提供風險和實踐方式之支援與培訓;
  7.評估限制使用自動化決策系統之必要性,並納入產品或其使用條款;
  8.維護用於開發、測試、維護自動化決策系統之資料集和其他資訊之紀錄;
  9.自透明度的角度評估消費者之權利;
  10.以結構化方式識別可能的不利影響,並評估緩解策略;
  11.描述開發、測試和部署過程之紀錄;
  12.確定得以改進自動化決策系統之能力、工具、標準、資料集,或其他必要或有益的資源;
  13.無法遵守上述任一項要求者,應附理由說明之;
  14.執行並記錄其他FTC 認為合適的研究和評估。

  當公司違反《演算法問責法案》及其相關法規有不正當或欺騙性行為或做法時,將被視為違反《聯邦貿易委員會法》(Federal Trade Commission Act)規定之不公平或欺騙性行為,FTC應依《聯邦貿易委員會法》之規定予以處罰。此法案就使用ADS之企業應進行之影響評估訂有基礎框架,或可作為我國演算法治理與人工智慧應用相關法制或政策措施之參酌對象,值得持續追蹤。

你可能會想參加
※ 美國參議院於2022年4月提出《演算法問責法案》對演算法治理再次進行立法嘗試, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?no=67&tp=1&d=8912 (最後瀏覽日:2025/12/07)
引註此篇文章
你可能還會想看
美國聯邦貿易委員會插手企業資訊安全引起爭議

  美國聯邦貿易委員會(Federal Trade Commission, FTC)於2013年8月29日對位於亞特蘭大的一家小型醫療測試實驗室LabMD提出行政控訴,指控LabMD怠於以合理的保護措施保障消費者的資訊(包括醫療資訊)安全。FTC因此依據聯邦貿易委員會法(Federal Trade Commission Act, FTC Act)第5條展開調查,並要求LabMD需強化其資安防護機制(In the Matter of LabMD, Inc., a corporation, Docket No. 9357)。   根據FTC網站揭示的資訊,LabMD因為使用了點對點(Peer to Peer)資料分享軟體,讓客戶的資料暴露於資訊安全風險中;有將近10,000名客戶的醫療及其他敏感性資料因此被外洩,至少500名消費者被身份盜用。   不過,LabMD反指控FTC,認為國會並沒有授權FTC處理個人資料保護或一般企業資訊安全標準之議題,FTC的調查屬濫權,無理由擴張了聯邦貿易委員會法第5條的授權。   本案的癥結聚焦於,FTC利用了對聯邦貿易委員會法第5條「不公平或欺騙之商業行為(unfair or deceptive acts)」的文字解釋,涉嫌將其組織定位從反托拉斯法「執法者」的角色轉換到(正當商業行為)「法規與標準制訂者」的角色,逸脫了法律與判例的約束。由於FTC過去曾對許多大型科技公司(如google)提出類似的控訴,許多公司都在關注本案後續的發展。

歐盟「人工智慧法」達成政治協議,逐步建立AI準則

歐盟「人工智慧法」達成政治協議, 逐步建立AI準則 資訊工業策進會科技法律研究所 2023年12月25日 隨著AI(人工智慧)快速發展,在各領域之應用日益廣泛,已逐漸成為國際政策、規範、立法討論之重點。其中歐盟人工智慧法案(Artificial Intelligence Act, AI Act,以下簡稱AIA法案)係全球首部全面規範人工智慧之法律架構,並於2023年12月9日由歐洲議會及歐盟部長歷史會達成重要政治協議[1],尚待正式批准。 壹、發佈背景 歐洲議會及歐盟部長理事會針對AIA法案已於本年12月9日達成暫時政治協議,尚待正式批准。在法案普遍實施前之過渡期,歐盟執委會將公布人工智慧協定(AI Pact),其將號召來自歐洲及世界各地AI開發者自願承諾履行人工智慧法之關鍵義務。 歐盟人工智慧法係歐盟執委會於2021年4月提出,係全球首項關於人工智慧的全面法律架構,該項新法係歐盟打造可信賴AI之方式,將基於AI未來可證定義(future proof definition),以等同作法直接適用於所有會員國[2]。 貳、內容摘要 AIA法案旨在確保進入並於歐盟使用之AI人工智慧系統是安全及可信賴的,並尊重人類基本權利及歐盟價值觀,在創新及權利義務中取得平衡。對於人工智慧可能對社會造成之危害,遵循以風險為基礎模式(risk-based approach),即風險越高,規則越嚴格,現階段將風險分為:最小風險(Minimal risk)、高風險(High-risk)、無法接受的風險(Unacceptable risk)、特定透明度風險(Specific transparency risk)[3]。與委員會最初建議版本相比,此次臨時協定主要新增內容歸納如下: 臨時協議確立廣泛域外適用之範圍,包含但不限於在歐盟內提供或部署人工智慧系統的企業[4]。但澄清該法案不適用於專門用於軍事或國防目的之系統。同樣,該協定規定不適用於研究和創新目的之人工智慧系統,也不適用於非專業原因之個人AI使用。 臨時協議針對通用AI(General purpose AI)[5]模型,訂定相關規定以確保價值鏈之透明度;針對可能造成系統性風險之強大模型,訂定風險管理與重要事件監管、執行模型評估與對抗性測試等相關義務。這些義務將由執委會與業界、科學社群、民間及其他利害關係人共同制定行為準則(Codes of practices)。 考量到人工智慧系統可用於不同目的之情況,臨時協議針對通用AI系統整合至高風險系統,並就基礎模型部分商定具體規則,其於投放市場之前須遵守特定之透明度義務,另強調對於情緒識別系統有義務在自然人接觸到使用這種系統時通知他們。 臨時協議針對違反禁止之AI應用,罰款金額自3,500萬歐元 或全球年營業額7%(以較高者為準)。針對違反其他義務罰款1,500萬歐元或全球年營業額3%,提供不正確資訊罰 款750萬歐元或全球年營業額1.5%。針對中小及新創企業違反人工智慧法之行政罰款將設定適當之上限。 參、評估分析 在人工智慧系統之快速發展衝擊各國社會、經濟、國力等關鍵因素,如何平衡技術創新帶來之便利及保護人類基本權利係各國立法重點。此次歐盟委員會、理事會和議會共同對其2021年4月提出之AIA法案進行審議並通過臨時協議,係歐洲各國對於現下人工智慧運作之監管進行全面的討論及認可結果,對其他國家未來立法及規範有一定之指引效果。 此次臨時協議主要針對人工智慧定義及適用範圍進行確定定義,確認人工智慧系統產業鏈之提供者及部署者有其相應之權利義務,間接擴大歐盟在人工智慧領域之管轄範圍,並對於人工智慧系統的定義縮小,確保傳統計算過程及單純軟體使用不會被無意中禁止。對於通用人工智慧基礎模型之部分僅初步達成應訂定相關監管,並對基礎模型之提供者應施加更重之執行義務。然由於涉及層面過廣,仍需業界、科學社群、民間及其他利害關係人討論準則之制定。 面對AI人工智慧之快速發展,各國在人工智慧之風險分級、資安監管、法律規範、資訊安全等議題持續被廣泛討論,財團法人資訊工業策進會科技法律研究所長期致力於促進國家科技法制環境,將持續觀測各國法令動態,提出我國人工智慧規範之訂定方向及建議。 本文同步刊登於TIPS網站(https://www.tips.org.tw) [1]Artificial Intelligence Act: deal on comprehensive rules for trustworthy AI,https://www.europarl.europa.eu/news/en/press-room/20231206IPR15699/artificial-intelligence-act-deal-on-comprehensive-rules-for-trustworthy-ai (last visited December 25, 2023). [2]European Commission, Commission welcomes political agreement on Artificial Intelligence Act,https://ec.europa.eu/commission/presscorner/detail/en/ip_23_6473 (last visited December 25, 2023). [3]Artificial intelligence act,P5-7,https://superintelligenz.eu/wp-content/uploads/2023/07/EPRS_BRI2021698792_EN.pdf(last visited December 25, 2023). [4]GIBSON DUNN, The EU Agrees on a Path Forward for the AI Act,https://www.gibsondunn.com/eu-agrees-on-a-path-forward-for-the-ai-act/#_ftn2 (last visited December 25, 2023). [5]General purpose AI-consisting of models that “are trained on broad data at scale, are designed for generality of output, and can be adapted to a wide range of distinctive tasks”, GIBSON DUNN, The EU Agrees on a Path Forward for the AI Act,https://www.gibsondunn.com/eu-agrees-on-a-path-forward-for-the-ai-act/#_ftn2(last visited December 25, 2023).

德國隱私保護機構指稱Facebook實名制違法

  Facebook之實名制政策禁止用戶使用假名,此一行為已遭德國隱私保護機構禁止。德國Schleswig-Holstein邦的資料保護中心組織(Office of the Data Protection Commissioner,簡稱ULD)控訴臉書「實名制」已違反德國電信媒體法(Telemediengesetz)。依據德國「電信媒體法」規定,只要匿名的使用具有技術上之合理性及可行性時,服務供應商必須允許用戶採用假名,惟Facebook的實名制政策卻禁止用戶使用假名。資料保護中心表示,Facebook要求用戶註冊時須填入真實姓名,違反德國電信媒體法第13條第6項。ULD表示,為確保網路用戶權利及遵守網路保護法,臉書應立即終止實名制的執行。Facebook發言人則對ULD指控不以為然,主張「服務供應商有權在現行法律下自行決定所採取之匿名政策」,並表示Facebook採取實名制係為保護社群安全,若發現用戶使用假名將刪除帳號。Facebook發言人認為「這只是在浪費德國納稅人的金錢!此法律之指控毫無意義,同時我們也將據理力爭。」Facebook認為,實名制是該網站經營之重要機制,除了能與其他社群網站做出明顯的市場區隔外,更能積極保護用戶的個人資料。

加拿大針對奈米科技提出評估與建議報告

  在奈米產品開創新生活態樣的同時,也因為奈米材料相異之運用途徑,產生了管理上的困難。儘管如此,新興科技仍應就風險而設計因應之道,並著眼於鑑別奈米材料潛在之危險性、瞭解人體暴露於奈米微粒環境之程度,以及確認適當之評估策略。   加拿大學術議會(Council of Canadian Academies)於2008年7月公佈奈米研究報告「微小即不同:由科學觀點看奈米法制之挑戰(Small is Different: A Science Perspective on the Regulatory Challenges of the Nanoscale)」;目的係針對奈米科技之學術研究、風險評估與管理監控等三部份奠定法制基礎。該報告由加拿大健康部擔任召集人,並成立奈米專家小組,共歷時八個月完成;內容分為三項:彙整該小組對於奈米議題所累積之科學成果、擷取網路使用大眾對於奈米材料相關法規之諮詢與對話,以及奈米專家針對該新興科技所提出之建議與發展方針。   然而,就法規面而言,該研究小組認為,根據現下奈米材料之特性,尚無制定新法之必要,僅需延伸現有法規機制即可,並提供建議如下: (1) 設定專門用語和分級以便於奈米材料之EHS研究。 (2) 建立標準安全控制程序或技術。 (3) 重新思考以工作場域、消費者及環境為主軸之監督方式。 (4) 使用得宜之生命週期途徑以分析奈米材料之相關風險。   該報告指出,現有的科技法規與風險處理機制,著實因侷限於奈米材料諸多之未知而遭受挑戰,並引發各界對於相應管理策略之大規模研究,故無論中央或地方政府,應更加關注國內各部會於奈米議題下之協調、科學環境之變化,及他國法制之更替。

TOP