FCC提出推動10年國家寬頻計畫

  2009年2月美國總統歐巴馬簽署美國振興經濟方案,釋出72億美元擴展寬頻網路連結應用,以網路開放為前提,要求聯邦通訊委員會提出國家寬頻計劃。美國聯邦通訊委員會(FCC )在2010年3月12日公布將推動一項歷時十年的遠大計畫,希望透過建立高速網際網路,重塑美國媒體與科技優先順序的概念。該計畫預定2010年3月16日送交國會。

 

  這項計畫反映美國正視寬頻網路正逐漸成為取代電話與廣播電視業的普通媒介,工作重點在於強化網際網路存取方便性。該項計畫的重點包括補助網際網路提供者佈建偏遠地區的網路服務、拍賣頻譜以供無線寬頻設備使用,以及發展新型態的有線電視與上網功能之全面式機上盒。

 

  此一計畫牽涉數百億美元的聯邦經費,但FCC認為,應可透過拍賣頻譜自給自足。此外,該計畫中的部分建議,尚須國會採取行動與業者支持才能落實,至於使用者恐怕要在數年後才能看到效果。

 

  目前美國在使用寬頻與高速上網等方面落後包括亞洲國家在內的許多國家,約超過30%的美國人無法上網,原因是負擔不起或是沒有意願使用。而FCC的計畫希望能將美國打造成一個完全網路連結的環境,透過還有待矽谷研發的無線裝置讓民眾能快速上網取得健保資訊、進行網路學習,以及進行警民連線。

 

  不過,FCC必須審慎處理既有業者上網費率與品質的問題,此外,不少電視業者以供公眾利益為由反對,並抗拒交回頻譜,以及認為這樣計畫將會導致訊號覆蓋及干擾的問題。

相關連結
※ FCC提出推動10年國家寬頻計畫, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=3252&no=66&tp=1 (最後瀏覽日:2026/01/25)
引註此篇文章
你可能還會想看
法學新論:從產業全球化佈局觀點論我國研發成果管理之法制政策

行動上網吃到飽對電信產業之影響

  隨著4G開台,各家電信業者為獲取用戶數,爭相推出無限上網吃到飽方案,然在數據流量呈現爆炸性成長下,電信業者之收益卻持續下探。為解決此問題,本研究嘗試提出建議方案,期望實現我國對數位經濟之願景。

DE Technologies起訴戴爾侵犯其商業模式專利

  一家擁有美國網路上國際貿易相關專利的小公司起訴個人電腦巨頭戴爾公司(Dell Inc., DELL)侵權。這家名為DE Technologies Inc.的公司向一家美國聯邦地區法院提起了上述訴訟。DE Technologies的專利於1996年申請,並於2002年被授予。該公司首席執行長Ed Pool表示,他們的最終目的是將其專利授權給跨國公司並收取這些公司網路上貿易額的一小部分作為特許費。但這些費用全部累積起來可能高達數十億美元。   戴爾是首家遭DE起訴的公司。戴爾對上述訴訟未予置評。截至今年1月30日的財政年度,戴爾414億美元的銷售額中有36%來自美國以外地區,該公司向個人及小型企業的銷售中,大部分是通過網路進行的。   DE Technologies擁有的是一個商業模式專利。此類專利涉及的是流程及方法,而不是構造或化學成份。美國上訴法院於1998年判決擁有此類專利是合法的以後,許多公司開始申請此類專利。但批評人士認為許多商業模式不應被授予專利,專利應被授予那些新穎及非顯而易見的發明。

美國科羅拉多州通過《人工智慧消費者保護法》

2024年5月17日,科羅拉多州州長簽署了《人工智慧消費者保護法》(Consumer Protections for Artificial Intelligence Act,Colorado AI Act,下簡稱本法),其內容將增訂於《科羅拉多州修訂法規》(Colorado Revised Statutes,簡稱CRS)第6篇第17部分,是美國第一部廣泛對AI規範的法律,將於2026年2月1日生效。 本法旨在解決「高風險人工智慧系統」的演算法歧視(Algorithmic Discrimination)的問題 ,避免消費者權益因為演算法之偏見而受到歧視。是以,本法將高風險AI系統(High-risk Artificial Intelligence System)定義為「部署後作出關鍵決策(Consequential Decision)或在關鍵決策中起到重要作用的任何AI系統」。 而後,本法藉由要求AI系統開發者(Developers)與部署者(Deployers)遵守「透明度原則」與「禁止歧視原則」,來保護消費者免受演算法歧視。規定如下: (一)系統透明度: 1.開發者應向部署者或其他開發者提供該系統訓練所使用的資料、系統限制、預期用途、測試演算法歧視之文件以及其他風險評估文件。 2.部署者應向消費者揭露高風險人工智慧系統的預期用途,也應在高風險人工智慧系統做出決策之前向消費者提供聲明,聲明內容應該包含部署者之聯絡方式、該系統的基本介紹、部署者如何管理該系統可預見之風險等資訊。 (二)禁止歧視: 1.開發者應實施降低演算法歧視之措施,並應協助部署者理解高風險人工智慧系統。此外,開發者也應該持續測試與分析高風險人工智慧系統可能產生之演算法歧視風險。若開發者有意修改該系統,應將更新後的系統資訊更新於開發者網站,並須同步提供給部署者。 2.部署者應該實施風險管理計畫,該風險管理計畫應包含部署者用於識別、紀錄降低演算法歧視風險之措施與負責人員,且風險管理計畫應定期更新。在制定風險管理計畫時,必須參考美國商務部國家標準暨技術研究院(National Institute of Standards and Technology, NIST)的《人工智慧風險管理框架》(AI Risk Management Framework, AI RMF 2.0)與ISO/IEC 42001等風險管理文件。 美國普遍認為科羅拉多州的《人工智慧消費者保護法》為目前針對人工智慧系統最全面之監管法規,可作為其他州有關人工智慧法規的立法參考,美國各州立法情況與作法值得持續關注。

TOP