美國白宮呼籲採取行動,打擊利用AI生成影像進行之性虐待行為

美國白宮於2024年5月23日公開呼籲採取行動以打擊利用AI生成性影像,及未經當事人同意傳播真實影像的性虐待行為。此次呼籲源自白宮「解決線上騷擾與虐待問題工作小組」(Task Force to Address Online Harassment and Abuse)相關行動、總統第14110號行政命令-「安全、可靠且可信任之AI開發及利用」(Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence),以及尖端AI公司自願管理AI風險之承諾(Voluntary AI Commitments)。

白宮指出,迄今為止生成式AI已淪為性虐待的主要工具,同時,涉及未經同意散布或威脅散布私人性影像,亦將對受害者造成嚴重的心理傷害。白宮呼籲相關利害關係人透過自願性承諾,預防與減輕性虐待影像之影響,如:

(1)阻止性虐待影像獲利:
對於從事性虐待影像業務的網站或應用程式,支付平臺與金融機構可限制或拒絕對其提供支付服務。

(2)停止創建深偽性虐待影像
: 對於可透過AI生成性影像之網路服務或應用程式,雲端服務供應商與應用程式商店得減少此類網路服務或應用程式運作。此外,應用程式商店可要求應用程式開發人員採取措施,防止使用者製作非經當事人同意的AI生成性影像。

(3)防止散播性虐待影像:
應用程式與作業系統開發人員可啟用技術保護措施,以保護數位裝置上儲存之內容,防止未經當事人同意分享其影像。

(4)支援並參與為受害者提供有效補救措施之服務:
平臺與利害關係人可選擇與相關組織合作,使性虐待影像受害者可輕鬆且安全地從線上平臺中刪除未經同意之內容。此外,白宮亦呼籲國會修訂於2022年重新授權之「婦女暴力防制法」(Violence Against Women Act Reauthorization),延續並加強原有法律保護效力,同時為AI生成之性虐待影像的受害者提供關鍵援助資源。

相關連結
※ 美國白宮呼籲採取行動,打擊利用AI生成影像進行之性虐待行為, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=9205&no=55&tp=1 (最後瀏覽日:2026/04/24)
引註此篇文章
你可能還會想看
智慧財產權管理標準之建立-由管理系統標準談起(上)

美國專利商標局發布「發明AI」分析報告,由美國專利申請趨勢分析AI技術普及情形

  美國專利商標局(USPTO)於2020年10月27日發布「發明AI:由美國專利觀察AI普及情形」(Inventing AI: Tracing the diffusion of artificial intelligence with U.S. patents)智財資料分析報告,本報告分析2002年至2018年共16年間美國AI專利之申請資料,發現在AI專利申請數量由3萬件成長至6萬件,成長幅度為100%,而在全體專利當中AI相關專利所占比率,也由原本的9%成長至接近16%,顯示在AI技術研發創新與普及率的顯著成長。   報告指出,自1950年圖靈(Alan Turing)提出「機器能否思考?」問題以來,現今AI技術的發展已經達到連圖靈也會讚嘆的水準,AI技術在發明領域的重要性益發提升,活躍於AI領域的發明人占全體專利權人的比率也從1976年的1%提升到2018年的25%,在組織的發明專利上也呈現相同的趨勢;除了美國銀行(Bank of America)、波音公司(Boeing)以及奇異電子(General Electric)之外,前30大頂尖的AI公司都來自資通訊領域,其中佔據首位者為擁有46,752項專利的IBM,其次為擁有22,076項專利的微軟以及10,928項專利的Google,而AI技術的應用領域也更加多元,並且與在地產業做結合,例如應用在奧勒岡州的健身訓練與設備以及北達科他州的農業上。   USPTO指出,經由專利資料分析顯示AI技術的發展不僅有顯著的成長,並逐漸與在地產業結合、落實在不同產業領域的多元應用,AI對於產業的影響力將不亞於電力或半導體,隨著AI領域發明人的顯著成長,未來將有更多AI技術在各領域的應用出現,而擴大AI影響力的關鍵在於發明者與公司能否成功將AI納入現有或新產品的功能、流程或服務之中。

歐盟議會發布《可信賴人工智慧倫理準則》

  2019年4月9日,歐盟議會發布《可信賴人工智慧倫理準則》(Ethics Guidelines for Trustworthy AI)。此次內容大致延續歐盟人工智慧高階專家小組(High-level Expert Group on Artificial Intelligence)於2018年12月18日發布的《可信賴人工智慧倫理準則草案》(Draft Ethics Guidelines for Trustworthy Artificial Intelligence)之內容,要求人工智慧須遵守行善(do good)、不作惡(do no harm)、保護人類(preserve human Agency)、公平(be fair)與公開透明(operate transparency)等倫理原則;並在4月9日發布的正式內容中更加具體描述可信賴的人工智慧的具體要件,共計七面向概述如下: 人類自主性和監控(Human agency and oversight):AI係為強化人類能力而存在,使人類使用者能夠做出更明智的決策並培養自身的基礎能力。同時,AI應有相關監控機制以確保AI系統不會侵害人類自主性或是引發其他負面效果。本準則建議,監控機制應可透過人機混合(一種整合人工智慧與人類協作的系統,例如human-in-the-loop, human-on-the-loop, and human-in-command)的操作方法來實現。 技術穩健性和安全性(Technical Robustness and safety):為防止損害擴張與確保損害最小化,AI系統除需具備準確性、可靠性和可重複性等技術特質,同時也需在出現問題前訂定完善的備援計劃。 隱私和資料治理(Privacy and data governance):除了確保充分尊重隱私和資料保護之外,還必須確保適當的資料治理機制,同時考慮到資料的品質和完整性,並確保合法近用資料為可行。 透明度(Transparency):資料、系統和AI的商業模型應該是透明的。可追溯性機制(Traceability mechanisms)有助於實現這一目標。此外,應以利害關係人能夠理解的方式解釋AI系統的邏輯及運作模式。人類參與者和使用者需要意識到他們正在與AI系統進行互動,並且必須了解AI系統的功能和限制。 保持多樣性、不歧視和公平(Diversity, non-discrimination and fairness):AI不公平的偏見可能會加劇對弱勢群體的偏見和歧視,導致邊緣化現象更為嚴重。為避免此種情況,AI系統應該設計為所有人皆可以近用,達成使用者多樣性的目標。 社會和環境福祉(Societal and environmental well-being):AI應該使包含我們的後代在內的所有人類受益。因此AI必須兼顧永續發展、環境友善,並能提供正向的社會影響。  問責制(Accountability):應建立機制以妥當處理AI所導致的結果的責任歸屬,演算法的可審計性(Auditability)為關鍵。此外,應確保補救措施為無障礙設計。

美國食品藥物管理局(FDA)為落實食品安全現代法案公布食品安全查檢與風險管理相關規定

TOP