美國上訴法院推翻FCC對廣電節目猥褻言論之認定

  美國紐約第二巡迴法院上訴法院於2007年6月5日做出判決,認定FCC對於廣電節目是否違反猥褻言論規範之判斷標準為恣意專斷(arbitrary and capricious)的決定。此一案件起因於福斯電視台轉播2002年及2003年音樂告示排行榜頒獎典禮(Billboard Music Awards)時,歌手Cher及名人Nicole Richie分別在典禮中說出不雅言詞,事後FCC認定福斯電視台之轉播違反廣電節目之猥褻言論相關規範。福斯電視台對於FCC之認定不服,因而向法院提起訴訟。

 

  依照過去FCC對猥褻言論之認定標準來看,「瞬間之咒罵言詞」(fleeting expletives)並不屬於猥褻言論,廣電節目中播出相關內容並不違反猥褻言論之管制規範。但自2003年起,FCC改變認定標準,認為所有不雅言詞均不可避免地帶有性暗示之內涵,因此廣電節目中凡涉及不雅言論之內容都是猥褻言論。

 

  根據紐約第二巡迴法院上訴法院之判決指出,FCC的決定毫無疑問地改變了對於廣電節目是否違反猥褻言論規範之認定標準,且FCC對於改變認定標準一事所提出的理由並不具有說服力;FCC於訴訟過程中亦承認,即便在決定改變認定標準前,也沒有證據顯示廣播電視台曾密集播送充滿咒罵言論之內容。因此,紐約第二巡迴法院上訴法院認為,FCC改變認定標準一事乃是恣意專斷的決定,從而撤銷FCC對於福斯節目之認定。對於法院之判決,FCC主席Kevin Martin表示遺憾以及難以置信,將會委請律師研議是否繼續上訴最高法院。

相關連結
相關附件
※ 美國上訴法院推翻FCC對廣電節目猥褻言論之認定, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=2273&no=57&tp=1 (最後瀏覽日:2026/02/18)
引註此篇文章
你可能還會想看
日本政府怎樣對公部門管制DeepSeek?

日本政府怎樣對公部門管制DeepSeek? 資訊工業策進會科技法律研究所 2025年07月07日 2025年2月3日,日本個人情報保護委員會(Personal Information Protection Commission,簡稱PPC)發布新聞稿指出[1],DeepSeek所蒐集的資料,將會儲存在中國的伺服器裡,且為中國《國家情報法》的適用對象[2]。這可能將導致個人資料遭到中國政府調用或未經授權的存取。作為中國開發的生成式AI,DeepSeek雖以優異的文本能力迅速崛起,卻也引發資安疑慮。 身處地緣政治敏感區的日本對此高度警覺,成為率先提出警告的國家之一。台灣與日本面臨相似風險,因此日本的應對措施值得借鏡。本文將從PPC新聞稿出發,探討日本如何規範公部門使用DeepSeek。 壹、事件摘要 DeepSeek作為中國快速崛起之生成式AI服務,其使用範圍已快速在全球蔓延。然而,日本PPC發現該公司所公布之隱私政策,內容說明其所蒐集之資料將存儲於中國伺服器內,並依據中國《國家情報法》之適用範圍可能遭到中國政府調用或未經授權之存取。 日本PPC因而於2025年2月3日發布新聞稿,隨後日本數位廳於2月6日發函給各中央省廳,強調在尚未完成風險評估與資安審查之前,政府機關不應以任何形式將敏感資訊輸入DeepSeek,並建議所有業務使用應先諮詢內閣資安中心(内閣サイバーセキュリティセンター,NISC)與數位廳(デジタル庁)意見,才能判定可否導入該類工具[3]。數位大臣平將明亦在記者會中強調:「即使不是處理非機密資料,各機關也應充分考量風險,判斷是否可以使用。」(要機密情報を扱わない場合も、各省庁等でリスクを十分踏まえ、利用の可否を判断する)[4]。 本次事件成為日本對於生成式AI工具採取行政限制措施的首次案例,也引發公私部門對資料主權與跨境平台風險的新一輪討論。 貳、重點說明 一、日本對於人工智慧的治理模式 日本在人工智慧治理方面採取的是所謂的「軟法」(soft law)策略,也就是不依賴單一、強制性的法律來規範,而是以彈性、分散的方式,根據AI的實際應用場景與潛在風險,由相關機關分別負責,或透過部門之間協作因應。因此,針對DeepSeek的管理行動也不是由某一個政府部門單獨推動,而是透過跨部會協作完成的綜合性管控,例如: (一)PPC的警示性通知:PPC公開說明DeepSeek儲存架構與中國法規交錯風險,提醒政府機關與公務人員謹慎使用,避免洩漏資料。 (二)數位廳的行政指引:2025年2月6日,日本數位廳針對生成式AI的業務應用發布通知,明列三項原則:禁止涉密資料輸入、限制使用未明確審查之外部生成工具、導入前應諮詢資安機構。 (三)政策溝通與政治聲明:平將明大臣在記者會上多次強調DeepSeek雖未明列於法條中禁用,但其高風險屬性應視同「潛在危害工具」,需列入高敏感度審查項目。 二、日本的漸進式預防原則 對於DeepSeek的管制措施並未升高至法律層級,日本政府亦沒有一概禁止DeepSeek的使用,而是交由各機關獨自判斷[5]。這反映出了日本在AI治理上的「漸進式預防原則」:先以行政指引建構紅線,再視實際風險與民間回饋考慮是否立法禁用。這樣的作法既保留彈性,又讓官僚系統有所依循,避免「先開放、後收緊」所帶來的信任危機。 三、日本跟循國際趨勢 隨著生成式AI技術迅速普及,其影響已不再侷限於產業應用與商業創新,而是逐漸牽動國家資安、個資保護以及國際政治秩序。特別是生成式AI在資料存取、模型訓練來源及跨境資料流通上的高度不透明,使其成為國家安全與數位主權的新興挑戰。在這樣的背景下,各國對生成式AI工具的風險管理,也從原先聚焦於產業自律與技術規範,提升至涉及國安與外交戰略層面。 日本所採取的標準與國際趨勢相仿。例如韓國行政安全部與教育部也在同時宣布限制DeepSeek使用,歐盟、美國、澳洲等國亦有不同程度的封鎖、審查或政策勸導。日本雖然和美國皆採取「軟法」(soft law)的治理策略,然而,相較於美國以技術封鎖為主,日本因其地緣政治的考量,對於中國的生成式AI採取明確防範的態度,這一點與韓國近期禁止政府機構與學校使用中國AI工具、澳洲政府全面禁止政府設備安裝特定中國應用程式類似。 參、事件評析 這次日本政府對於DeepSeek的應對措施,反映出科技治理中的「資料主權問題」(data sovereignty):即一個國家是否有能力控制、保存與使用其管轄範圍內所生產的資料。尤其在跨境資料傳輸的背景下,一個國家是否能保障其資料不被外國企業或政府擅自使用、存取或監控,是資料主權的核心問題。 生成式AI不同於傳統AI,其運作依賴大規模訓練資料與即時伺服器連接,因此資料在輸入的瞬間可能已被收錄、轉存甚至交付第三方。日本因而對生成式AI建立「安全門檻」,要求跨境工具若未經審核,即不得進入政府資料處理流程。這樣的應對策略預示了未來國際數位政治的發展趨勢:生成式AI不只是科技商品,它已成為跨國治理與地緣競爭的核心工具。 中國通過的《國家情報法》賦予政府調閱私人企業資料的權力,使得中國境內所開發的生成式AI,儼然成為一種資訊戰略利器。若中國政府藉由DeepSeek滲透他國公部門,這將對國家安全構成潛在威脅。在此背景下,日本對公部門使用DeepSeek的管制,可被解讀為一種「數位防衛行為」,象徵著日本在數位主權議題上的前哨部署。 值得注意的是,日本在處理DeepSeek事件時,採取了「不立法限制、但公開警示」的方式來應對科技風險。此舉既避免激烈封鎖引發爭議,又對於資料的運用設下邊界。由於法令規範之制定曠日費時,為避免立法前可能產生之風險,日本先以軟性之限制與推廣手段以防止危害擴大。 台灣雖與日本同處地緣政治的敏感地帶,資料主權議題對社會影響深遠,為使我國可在尚未有立法規範之狀態下,參考日本所採之行政命令內控與公開說明外宣雙向並行之策略,對台灣或許是一種可行的借鏡模式。 本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。 本文同步刊登於TIPS網站(https://www.tips.org.tw) [1]個人情報保護委員会,DeepSeekに関する情報提供,https://www.ppc.go.jp/news/careful_information/250203_alert_deepseek/ (最後瀏覽日:2025/05/06)。 [2]《中华人民共和国国家情报法》第7条第1项:「任何组织和公民都应当依法支持、协助和配合国家情报工作,保守所知悉的国家情报工作秘密。」 [3]デジタル社会推進会議幹事会事務局,DeepSeek等の生成AIの業務利用に関する注意喚起(事務連絡),https://www.digital.go.jp/assets/contents/node/basic_page/field_ref_resources/d2a5bbd2-ae8f-450c-adaa-33979181d26a/e7bfeba7/20250206_councils_social-promotion-executive_outline_01.pdf (最後瀏覽日:2025/05/06)。 [4]デジタル庁,平大臣記者会見(令和7年2月7日),https://www.digital.go.jp/speech/minister-250207-01 (最後瀏覽日:2025/05/06)。 [5]Plus Web3 media,日本政府、ディープシークを一律禁止せず 「各機関が可否を判断する」,https://plus-web3.com/media/500ds/?utm_source=chatgpt.com (最後瀏覽日:2025/05/06)。

歐盟發布「如何掌握歐洲的數位基礎建設需求?」白皮書暨公開意見諮,尋求成員國間更一致的頻率與海纜監理架構

「安全、韌性、高效、永續的數位基礎設施」,是歐盟「數位十年計畫」(Digital Decade Policy Programme 2030)所擘劃的政策目標之一。執委會於2024年2月21日發布「如何掌握歐洲的數位基礎設施需求?」(How to master Europe's digital infrastructure needs ?)白皮書,詳細盤點歐盟數位基礎設施的發展現狀及所面臨的挑戰,提出可能的政策方案並公開諮詢各界意見。 其中有關頻率管理的部分,執委會認為成員國間各自為政的頻率釋出與管理政策拖累了整體歐盟的5G布建進程,目前5G的涵蓋率與普及率仍不如預期,成員國間的數位發展程度也參差不齊,法規環境差異對跨境提供服務所造成的障礙亦導致數位單一市場難以成形。為避免相同困境在6G重演及因應發展衛星通訊服務帶來的跨境頻率管理議題,歐盟將更進一步同調各成員國的頻率管理政策與規範環境,提高歐盟對頻率政策的掌控,確保歐盟通訊網路的安全性、獨立性和完整性。 海纜的安全性亦受到關注,歐盟既有電子通訊網路和服務的監管架構並未就雲端服務業者規範相關的義務,但隨著大型雲端服務業者持續投入海纜建設,歐盟已經有超過60% 的國際流量透過非公眾網路業者建設的海纜傳輸,監理上的漏洞已經形成歐盟通訊網路的安全隱患。 執委會將與各界展開廣泛的討論與磋商,研議能確保安全與韌性之數位基礎設施的政策工具及監理框架。在頻率管理方面,希望能提高歐盟的一致性與協調性,為地面通訊、衛星通訊及其他新興應用的頻率使用提供更統一甚至單一的授權流程及選擇條件,以促進數位單一市場的形成;在海纜方面亦規劃建立歐盟層級的聯合治理體系,將針對海纜的風險、弱點及依賴性做全面性的評估,亦將資助既有海纜的升級與新海纜的設立,同時確保供應鏈的安全性及降低對高風險第三國的依賴。

法國憲法委員會宣告《打擊網路仇恨言論法》違憲

  法國憲法委員會於今(2020)年6月18日宣告今年5月甫通過之《打擊網路仇恨言論法》(Lutte contre la haine sur internet, Fighting Hate on the Internet,又稱Avia Law)違憲,認該法侵害人民言論自由之權利。   為打擊網路上日益嚴重之仇恨性言論,法國國民議會於今年5月13日通過《打擊網路仇恨言論法》,該法旨在課予網路社交平台之責任,在其使用者提出檢舉後,平台應於24小時期限內移除明顯的不法言論,包含歧視、仇恨、暴力、煽動犯罪、涉及恐怖主義或兒童色情等,尤以,若該訊息涉及兒童色情或煽動恐怖主義者,則平台刪除該訊息之期限將縮短為1小時內。倘平台若未於期限內刪除之,面臨之罰緩最高達125萬歐元;如經法國高等視聽委員會(Conseil superieur de l'audiovisuel, CSA)審核,發現該平台之內容審查系統存在嚴重且反覆之缺陷者,則最高可對該平台處以其全球收入4%之罰鍰。   該法原定於今年7月1日施行,但經法國憲法委員會審查後,認該法如前述之多項條款要求私人企業判斷使用者之言論是否為明顯涉及非法,將鞏固私人審查權,高額罰款恐將促進平台積極刪除平台上之言論,違反憲法保障之言論自由,因而宣告該條款違憲無效。目前尚不確定法國政府是否會如期施行其餘條款,惟由該法即可看出,法國傾向授權CSA於對網路平台採取更嚴格監管之態度,然是否能有效抑制仇恨性言論,後續尚值得密切觀察。

因網路詐欺受騙的銀行儲戶控告銀行

  美國佛羅里達州一名商人日常透過網路管理其帳戶資金出入,其資金主要是在美國與中南美洲間流動。該名商人發現其銀行帳戶有異常的資金流向拉脫維亞而向警方報案,經調查發現他的電腦被植入名為Coreflood的特洛伊木馬程式,致其銀行帳戶存取密碼被盜用。該名商人認為銀行明知網路上有此種危險而怠於告知客戶,且銀行明知拉脫維亞以網路犯罪猖獗而著稱,對於其帳戶內大筆的異常資金流出亦疏於防範,爰對銀行提起訴訟。據信,本案為銀行儲戶因受網路詐欺而控告其銀行的首例。

TOP