美國聯邦巡迴上訴法院判決 FCC無權要求網路中立性

  2010年4月6日美國聯邦哥倫比亞巡迴上訴法院於Comcast v. FCC一案中,判決美國聯邦通訊傳播委員會(FCC)要求網路服務供應商(ISP )對所有形式資料傳輸一視同仁的「網路中立性」要求係逾越權限,有違法律保留原則。此裁判將為美國大型網路內容提供業者(ICP)的經營模式及網路使用者上網習慣投下震撼彈。

 

  網路中立性(Net Neutrality)係指同一ISP應公平地處理所有網路服務,不得因頻寬需求而有差別待遇。查原因案件乃業者Comcast禁止某些用戶透過網路點對點(peer-to-peer)的方式,傳輸大型影音檔案,其認為用戶這種做法會佔用過多頻寬,拖累其他用戶的網路速度;FCC則認為Comcast此舉違反了網路中立性。

 

  在判決書中,哥倫比亞巡迴上訴法院援引判決先例(stare decisis),認為立法者課予FCC必須對全美人民提供一「公平、有效率、公正分配」的廣電服務。惟本案FCC擅以立法者未明確授權的網路中立性作為規制準則,逾越其管制權限而違法。

 

  FCC發言人Jen Howard表示:「法院沒有道理否定保障網路自由與開放的重要性,也不該阻止其他可促成這個重要目的的方法。」此判決對諸多大力提倡網路中立性的大型ICP業者,無疑是一大打擊;ISP將來也可能對消費者依照資料傳輸流量分級收費(即tiered service),形成新的網路服務發展型態。FCC目前正極力爭取立法者通過「網路中立性法案」尋求管制的合法性,後續發展值得注意。

相關連結
相關附件
※ 美國聯邦巡迴上訴法院判決 FCC無權要求網路中立性, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=3270&no=55&tp=1 (最後瀏覽日:2026/04/30)
引註此篇文章
你可能還會想看
舊金山監事會通過決議禁止政府使用臉部辨識

  美國舊金山監事會(San Francisco Board of Supervisors,編按:監事會是舊金山市的立法部門,性質類似議會)於2019年05月通過停止秘密監察條例(Stop Secret Surveillance Ordinance),並將其訂入行政法規(San Francisco Administrative Code)條文,包括增訂第19B章及修訂第2A.20節、第3.27節、第10.170-1節和第21.07節。根據行政法規第19B章,舊金山政府及執法機構未來將不能使用臉部辨識科技,也不能處理或利用任何自臉部辨識科技取得的資訊。   易言之,在公共場所安裝具備臉部辨識科技的監視器,或暗自使用臉部辨識科技尋找嫌疑犯都構成違法行為。然而,法規的修訂不代表舊金山內所有臉部辨識系統將全面停止。由於舊金山機場及港口屬美國聯邦政府管轄,不受地方政府法律所規範,仍可使用臉部辨識科技;而民眾及私人企業並非修訂條文的規範對象,亦可繼續採用。   此次法規的修訂引發高度關注,各界也熱烈討論。反對者表示,法規的修訂使執法機關打擊犯罪的努力付之一炬,危害民眾安全;贊成者則認為,臉部辨識科技過分侵害人民的隱私權和自由權,應對其有所限制。畢竟,臉部辨識科技並非萬無一失,尤其當受辨識者為女性或深膚色人種時,準確率往往下降許多,而有歧視的疑慮。舊金山首開先例立法,成為全美第一個限制政府使用臉部辨識科技的城市,其他城市或國家未來是否會仿效而相繼立法,值得繼續關注。

日本資訊信託功能認定指引第二版

  日本於2018年6月公布「資料信託功能認定指引第一版」(情報信託機能の認定に係る指針ver1.0),期待藉此推動資料銀行發展,促進資料流通和利用。第一版指引係以資料銀行應具備之功能為中心,惟伴隨資料銀行業務發展,指引內除資料銀行基本功能外,亦應規範個人資料管理及向第三方提供資料之條件等內容,加上有論者認為第一版內有關資料銀行定義過於偏重功能描述,故總務省和經濟產業省於2019年1月起召開檢討會,重新檢討上開指引,最終於2019年10月8日公布「資料信託功能認定指引第二版」(情報信託機能の認定に係る指針ver2.0)。   第二版指引更新重點包括︰(1)修正資料銀行定義︰第一版指引僅強調資料銀行之功能,第二版則增加資料銀行之目的和資料銀行與個人間關係等內容;(2)重新定義並詳細說明資料種類和蒐集方法;(3)修正資料信託功能認定基準︰新增複數業者共同經營資料銀行,隱私保護對策以及確保資料銀行透明性和個人資料之自主控制等規定;(4)新增資料信託功能模範條款之應記載事項︰包括與限制行為能力人締結契約之程序,以及向第三方提供資料之條件等規定。為確保資料銀行透明性和個人資料之自主控制,第二版指引新增資料倫理審查會規定,要求資料銀行設置資料倫理審查會並定期向其報告,審查會則應就個人與資料銀行間契約、個資利用目的、向第三方提供資料之條件等事項提供建議。

英國資訊委員辦公室提出人工智慧(AI)稽核框架

  人工智慧(Artificial Intelligence, AI)的應用,已逐漸滲透到日常生活各領域中。為提升AI運用之效益,減少AI對個人與社會帶來之負面衝擊,英國資訊委員辦公室(Information Commissioner’s Office, ICO)於2019年3月提出「AI稽核框架」(Auditing Framework for Artificial Intelligence),作為確保AI應用合乎規範要求的方法論,並藉機引導公務機關和企業組織,評估與管理AI應用對資料保護之風險,進而建構一個可信賴的AI應用環境。   AI稽核框架主要由二大面向所構成—「治理與可歸責性」(governance and accountability)以及「AI特定風險領域」(AI-specific risk areas)。「治理與可歸責性」面向,係就公務機關和企業組織,應採取措施以遵循資料保護規範要求的角度切入,提出八項稽核重點,包括:風險偏好(risk appetite)、設計階段納入資料保護及透過預設保護資料(data protection by design and by default)、領導管理與監督(leadership management and oversight)、政策與程序(policies and procedures)、管理與通報架構(management and reporting structures)、文書作業與稽核紀錄(documentation and audit trails)、遵循與確保能力(compliance and assurance capabilities)、教育訓練與意識(training and awareness)。   「AI特定風險領域」面向,則是ICO特別針對AI,盤點下列八項潛在的資料保護風險,作為風險管理之關注重點: 一、 資料側寫之公平性與透明性(fairness and transparency in profiling); 二、 準確性(accuracy):包含AI開發過程中資料使用之準確性,以及應用AI所衍生資料之準確性; 三、 完全自動化決策模型(fully automated decision making models):涉及人類介入AI決策之程度,歐盟一般資料保護規則(General Data Protection Regulation, GDPR)原則上禁止無人為介入的單純自動化決策; 四、 安全性與網路(security and cyber):包括AI測試、委外處理資料、資料重新識別等風險; 五、 權衡(trade-offs):不同規範原則之間的取捨,如隱私保護與資料準確性; 六、 資料最少化與目的限制(data minimization and purpose limitation); 七、 資料當事人之權利行使(exercise of rights); 八、 對廣泛公共利益和權利之衝擊(impact on broader public interests and rights)。   ICO將持續就前述AI特定風險領域,進行更深入的分析,並開放公眾討論,未來亦將提供相關技術和組織上之控制措施,供公務機關及企業組織進行稽核實務時之參考。

歐盟執委會發布指引以因應《人工智慧法》「禁止的人工智慧行為」條文實施

歐盟執委會於2025年2月4日發布「關於禁止的人工智慧行為指引」(Commission Guidelines on Prohibited Artificial Intelligence Practices)(下稱「指引」)」,以因應歐盟《人工智慧法》(AI Act,下稱AIA)第5條關於「禁止的人工智慧行為」之規定。該規定自2月2日起正式實施,惟其內容僅臚列禁止行為而未深入闡釋其內涵,執委會特別制定本指引以避免產生歧義及混淆。 第5條明文禁止使用人工智慧系統進行有害行為,包括:利用潛意識技術或利用特定個人或群體之弱點進行有害操縱或欺騙行為、實施社會評分機制、進行個人犯罪風險預測、執行無特定目標之臉部影像蒐集、進行情緒識別分析、實施生物特徵分類、以及為執法目的而部署即時遠端生物特徵識別系統等。是以,指引就各禁止事項分別闡述其立法理由、禁止行為之具體內涵、構成要件、以及得以豁免適用之特定情形,並示例說明,具體詮釋條文規定。 此外,根據AIA規定,前述禁令僅適用於已在歐盟境內「投放市場」、「投入使用」或「使用」之人工智慧系統,惟對於「使用」一詞,並未予以明確定義。指引中特別闡明「使用」之定義,將其廣義解釋為涵蓋「系統投放市場或投入使用後,在其生命週期任何時刻的使用或部署。」 指引中亦指出,高風險AI系統的特定使用情境亦可能符合第5條的禁止要件,因而構成禁止行為,反之亦然。因此,AIA第5條宜與第6條關於高風險AI系統的規定交互參照應用。 AIA自通過後,如何進行條文內容解釋以及法律遵循義務成為各界持續討論之議題,本指引可提升AIA規範之明確性,有助於該法之落實。

TOP