2025年5月19日美國總統川普簽署《非自願私密影像移除法》(Tools to Address Known Exploitation by Immobilizing Technological Deepfakes on Websites and Networks Act, TAKE IT DOWN Act),該法散播未經同意之親密影像,如深偽色情(deepfake porn)和報復性色情(revenge porn)視為犯罪行為。 長久以來非自願私密影像(Non-Consensual Intimate Image, NCII)所造成的傷害一直無法被有效處理,AI深偽技術出現之後讓問題變得更加複雜。美國目前僅有20個州對深偽影像設有專法,但各州對 NCII 的定義、刑責與處理方式差異甚大,受害者亦難以在第一時間快速將影像移除,導致二次創傷。 為解決前述問題,共和黨與民主黨展現高度共識,眾議院於2025年4月28日以409票同意、2票反對,壓倒性通過《非自願私密影像移除法》,並於同年5月19日獲川普總統簽署生效,此為眾議院首部管理人工智慧引發危害的重大立法。 《非自願私密影像移除法》重點與相關討論整理如下。 一、散布未經同意的私密影像屬刑事犯罪 依據《非自願私密影像移除法》,任何人若透過互動式電腦服務(interactive computer service)故意揭露或威脅散布可辨識個人之親密影像即構成刑事犯罪。親密影像包含真實私密影像(Authentic intimate visual depictions)或數位偽造影像(Digital forgeries)兩種情形,後者係指透過軟體、機器學習、人工智慧,或任何其他電腦產生或技術方式所創建之親密影像,包括改編、修改、操弄或變造真實影像,且從整體上來看,一般人難以與真實影像區分者。 二、受規範平台(covered platforms)應即時協助受害者移除相關影像 受規範平台係指係向公眾提供服務之網站、線上服務或行動應用程式,且該服務主要是提供一個平台,讓用戶得以分享其自行產製之內容(user-generated content),如訊息、影像、音訊、遊戲等;若該服務涉及發布、策劃、託管或提供未經同意的私密影像,亦屬本法所規範之平台。 受規範平台應自《非自願私密影像移除法》頒布日起一年內,建立一套機制供受害者或其代理人申請移除未經同意散布的私密影像。平台在收到移除請求後,應於48小時內移除該影像,並在合理範圍內努力搜尋並刪除所有明顯為該影像之複製品。若平台未能遵守此一規範,會被視為違反《聯邦貿易委員會法》(Federal Trade Commission Act)所定義之「不公平或欺騙性商業行為」,並適用該法的相關處罰機制,例如民事懲罰(civil penalty)等。 三、執法單位是否能有效執行是關鍵 《非自願私密影像移除法》授權聯邦貿易委員會(Federal Trade Commission, FTC)作為執法單位,然而由於川普政府近期大幅刪減聯邦機構的開銷與人力,FTC能否在48小時內移除相關私密影像備受質疑;亦有論者擔憂這項機制被濫用,恐成為政府打壓言論自由的政治工具,川普總統即公開表示他會利用這部法律來審查批評者的言論。此外,《非自願私密影像移除法》未設立反濫用條款,任何人都可要求平台刪除影像內容,加上平台有時間壓力可能會預防性刪除內容而非實質審查,形同變相限縮言論自由的空間。 《非自願私密影像移除法》是一部試圖回應數位性暴力與AI深偽技術新興威脅的里程碑式立法,反映出立法者對於保障隱私與防止科技濫用的高度共識。然而,該法利益良善但仍需面臨現實端的檢驗,能否公正且有效率的執法將成為成敗的關鍵。
臺北高等行政法院103年度訴更一字第120號判決對健保資料作目的外運用之態度 何謂「Society 5.0」日本科技政策的制定依據來自日本「科學技術基本法」,該法第九條規定,要求國家在推動科技振興發展上,政府應制訂有關科學技術振興的「科學技術基本計畫」。「科學技術基本計畫」之推動以五年為一期,最近一期為第五期(2016-2020年),該期計畫以人工智慧與資通訊技術為核心,解決各式重要社會課題,打造「超智慧社會」,並命名為「Society 5.0」。 「Society 5.0」明訂日本實現超智慧社會的政策方向,其政策重點聚焦於產業創造與社會變革,並重新架構產業與整個社會的關係,因此,除了強化產業競爭力,實現產業變革以外,「Society 5.0」也規劃解決日本近年社會課題,包括老齡化社會、勞動力不足、能源短缺與自然災害等。而在前瞻性預測上,「Society 5.0」描繪20年後未來人類將生活在為高度電腦化、智慧化環境,為實現該目標,發展物聯網、大數據分析、電腦科學與技術、人工智慧與網路安全等相關科技基礎技術研發與應用,是「Society 5.0」的核心之一。 簡單來說,「Society 5.0」追求以人為中心的新經濟社會,運用高度融合網路虛擬空間及物理現實空間的相關技術,滿足未來人類生活上的各種需求,同步解決經濟發展與社會課題,並以此建構更貼近符合個人需求之社會。
英國發布「人工智慧:機會與未來決策影響」政策報告,並聚焦人工智慧運用及管理英國科學辦公室於2016年11月9日,發布一份政策報告:「人工智慧:機會與未來決策影響(Artificial intelligence: opportunities and implications for the future of decision making)」,介紹人工智慧對於社會及政府的機會和影響,此份政策報告並提出以下各項重要建議: (一)關於人工智慧及應用界定與發展 人工智慧是指由人工製造系統所表現出來的智慧。不僅是將現有的流程自動化,還包含制定目標,並利用電腦程式實現這些目標,常見案例包括線上翻譯、語音辨識、搜尋引擎篩選排序、垃圾郵件過濾、透過用戶回饋改善線上服務、預測交通流量、環境或社會經濟趨勢發展觀察等。 (二)未來對社會及政府利益及衝擊 人工智慧針對提高生產力有巨大的潛力,最明顯的就是幫助企業或個人更有效地運用資源,並簡化大量資料的處理,例如Ocado 及 Amazon這樣的公司正充份利用人工智慧改善倉儲及銷售網路系統,使得客戶可便利快速購得網購商品。 目前,政府也日益增加相關技術的運用,以提高公共服務效率,使資源達到最佳化分配;減少決策者被誤導的可能;使政府決策透明化;確保各部門更了解人民的意見。然政府在利用人工智慧及巨量資料時,應遵守倫理使用指南,並遵守英國資料保護法及歐盟一般資料保護規則等相關法規。 在巨量資料、機器人、自動系統對於勞動市場的衝擊一直都是關注的議題,對於面臨未來工作結構的轉型及相關技術人員的進修及培養,應及早規劃,以適應未來的轉變。 (三)關於相關道德及法律風險管理課題 人工智慧可能潛在相關道德倫理問題。許多專家認為政府應積極管理並降低風險發生可能性,可從以下兩個面向思考: (1)研究機器學習與個人資料運用結合時,對個人自由、隱私和同意等概念的影響。 (2)調適由人工智慧作決策行為時的歸責概念和機制。 有關實際案例之研究,則包括,執法單位在應用預測技術時,應避免以種族、國籍、地址作為標準,並嚴守無罪推定原則,以防止民眾受到歧視或不公平的指控;透過人工智慧可從公開資料推測出某些私人訊息或其親朋好友的消息,此訊息即可能超出原先個人同意披露的內容;原先匿名化及去識別化的訊息,因人工智慧功能加強,導至可能被重新識別,故須定期檢視該保護措施是否足夠。另外,人工智慧的演算偏差可能導致偏見的風險,為了降低這種風險,技術人員應採取對應措施。 針對責任及疏失的判斷,目前尚無太多的實務案例,但為保持對使用人工智慧的信任,仍需有明確的歸責制,可能有必要讓首席執行長或高級主管對人工智慧做出的決策負最終責任。許多專家也建議,部分技術內容須保持透明度,以確定技術使用時是否有盡到相關注意義務。 人工智慧已成為未來發展趨勢之一,對於社會整體層面影響將越來越深,新的技術除了可提升生產力,帶來便利的生活,同樣也會帶來衝擊。為促進相關產業發展及推展新技術的使用,應打造技術發展友善環境,並對於公眾安全進行相關風險評估,如果風險屬於現有監管制度範圍,應評估是否可充分解決風險,或是須要做相對應的調適。另外,在人工智慧融入現實世界同時,相關業者應注意相關產品安全性、隱私權保護和從業人員的倫理教育,以提高大眾對新技術的接受及信賴,並確保對於未來挑戰及轉變已做好萬全準備。