FCC核准拍賣700MHz頻譜波段,作為各式無線服務的使用

  有鑑於目前美國的廣播電視系統所使用的698-806 MHz 頻譜波段(一般稱作700MHz頻段),預計在由類比式的電視系統轉換至數位電視系統後,該頻段可完全地為各類無線服務所使用,包括公共安全以及商業服務,聯邦通訊傳播委員會(Federal Communications Commission, FCC)在2007年4月25日對此採納了「報告與命令」(Report and Order)以及「規則制訂建議的進一步通告」(Further Notice of Proposed Rulemaking )等文件作為相關規範。

 

  關於700 MHz頻段的使用,目前FCC正朝下列三個面向來規劃:

 (1) 在商用服務方面,FCC以不同經濟規模的區域(如都會區、較大的經濟區塊等)來決定執照的發放,同時也制訂了如功率限制及其他的技術性規範。

 (2)在保護頻道(Guard Bands)方面,FCC將改變目前在次級市場方面的租賃管理制度,使取得執照的業者在保護頻道的使用上更有彈性與效率;

 (3) 在公共安全頻段方面,FCC認為藉著更多頻段的釋放,使全國不同的網路(包括寬頻與窄頻)皆能全面達成互連,使危難發生時更得以發揮保障公共安全之功能。

 

  上述相關的規則與建議將使FCC得以拍賣700 MHz頻段中不同用途的執照,並期待在全國性無線寬頻服務的互連方面,營造出更為創新以及符合公共安全的服務環境。

相關連結
相關附件
※ FCC核准拍賣700MHz頻譜波段,作為各式無線服務的使用, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=2228&no=0&tp=1 (最後瀏覽日:2026/03/27)
引註此篇文章
你可能還會想看
澳洲通過2024年網路安全法,期望強化社會整體網路安全保障

.Pindent{text-indent: 2em;} .Noindent{margin-left: 2em;} .NoPindent{text-indent: 2em; margin-left: 2em;} .No2indent{margin-left: 3em;} .No2Pindent{text-indent: 2em; margin-left: 3em} .No3indent{margin-left: 4em;} .No3Pindent{text-indent: 2em; margin-left: 4em} 2024年11月底,澳洲政府通過了2024年網路安全法(Cyber Security Bill 2024),期許藉由制定專法,保護澳洲現在與未來的網路環境。 2024年網路安全法主要包含以下內容: 1. 制定並落實全境智慧型裝置之最低網路安全標準。過往澳洲智慧型裝置不受任何強制性網路安全標準或法規約束,該法通過後,將能有效提升消費者網路安全。 2. 研搜對抗網路勒索軟體活動之資訊。澳洲政府不鼓勵企業在遭遇勒索軟體攻擊時支付贖金,因為支付贖金不僅鼓勵網路犯罪,更不能保證資料的恢復或機密性。然目前澳洲政府並未立法禁止支付贖金之行為,僅於2024年網路安全法要求關鍵基礎設施或營業額達定一定門檻之企業,假若不幸遭受勒索軟體攻擊,並決定支付贖金,須於72小時內向主管機關通報。 該通報義務是為幫助主管機關即時掌握勒索活動資訊,快速制定應對策略,並開發有利業界執行網路防禦的工具和資源,破壞勒索軟體獲利模式。依目前規定,報告內容將包含勒索金額、支付對象、支付方法等資訊。 3. 鼓勵企業分享網路安全資訊。2024年網路安全法為鼓勵企業與政府共享網路安全事件資訊,限制國家網路安全人員存取前揭資訊之目的,如不得利用企業自願提供之網路安全事件資訊調查企業違規行為,除非符合2024網路安全法規定之例外情況。 4. 建立網路事件審查委員會(Cyber Incident Review Board)。該委員會作為獨立機構,負責對重大網路安全事件進行有無過失之事後審查,並為政府和產業提供建議,以確保各方利害關係人能夠從網路安全事件中吸取教訓。 2024年網路安全法的制訂,顯示澳洲政府為強化網路安全付出諸多努力,該國政府期許透過該法保護澳洲人免受網路安全威脅。

歐洲五大電信公司聯合呼籲歐盟建立Open RAN創新生態系統

  歐洲五大電信公司──德國電信(Deutsche Telekom)、法國Orange電信、義大利電信(Telecom Italia)、西班牙電信(Telefonica)與英國沃達豐電信(Vodafone)於2021年11月18日聯合發表聲明,呼籲歐盟執委會與成員國加速開放「開放式無線存取網路」(Open Radio Access Network, Open RAN)的技術應用,並提出「為歐洲建立Open RAN生態系統」(Building an Open RAN Ecosystem for Europe)研究報告。   本報告對Open RAN價值鏈和當前供應商進行分析,發現許多歐洲供應商正處於發展初期,未獲得Open RAN商業契約,且在Open RAN關鍵服務的部分類別(如雲端軟體)中,尚未有歐洲供應商。甚至綜觀Open RAN的各項關鍵服務分布,歐洲供應商僅有少數等。因此,本報告強調歐洲需迫切將Open RAN作為戰略重點,並提出以下五點建議: (一)歐盟的政策制定者應積極推動發展創新、開放及可互通之電信生態系統,並期望歐盟執委會、成員國與產業利害關係人,透過對話與討論,促使全歐洲對Open RAN生態系統之建立產生共識。 (二)執委會應成立下世代通訊基礎設施聯盟,如同過去其為雲端與半導體設立聯盟,作為推動該產業的關鍵力量。此外,為迎接Open RAN新興技術,應提倡如歐盟共同利益重要計畫(Important Projects of Common European Interest, IPCEI)的微電子和通訊技術、5G產業協會與共同承諾推動智慧網路服務多國計畫。 (三)政策制定者應降低歐盟供應商和新創企業之投資風險,並對歐洲未來具有戰略意義的技術領域,以資金與租稅等激勵措施,支持歐洲供應商合作。如由歐盟執委會和各國政府為財團提供資金,使歐洲公司建立穩固的合作關係,並成為Open RAN價值鏈中茁壯成長的供應商。 (四)O-RAN聯盟(O-RAN ALLIANCE)與第三代合作夥伴計劃(3rd Generation Partnership Project, 3GPP)及歐洲電信標準協會(European Telecommunications Standards Institute, ETSI)正式合作,支持採用O-RAN規範作為ETSI的自願性標準,可透過快速程序對現有3GPP規範進行補充。透過促進全球統一的Open RAN標準,確保開放性網路設備的互通性,如:全歐認證的品質與互通性,建立生態系統部署者的信心。 (五)歐盟應與國際合作,促進安全、多樣化及可持續的資訊與通訊技術供應鏈,如:利用七大工業國組織(Group of Seven, G7)、美歐貿易和技術委員會(EU-US Trade and Technology Council)與日歐資通訊技術對話(Japan-EU ICT Dialogue)促進發展和部署開放且可互通的網路架構。

美國國家公路交通安全管理局發布自駕車安全性評估相關法規預告

美國國家公路交通安全管理局(National Highway Traffic Safety Administration, NHTSA)於2025年1月15日發布「配備自動駕駛系統車輛之安全、透明度及評估計畫」(The ADS-equipped Vehicle Safety, Transparency, and Evaluation Program , AV STEP)法規預告(Notice of proposed rulemaking, NPRM),建立全國性自願評估與監督制度,以提高自駕車安全性之公共透明度,並促進其負責任布建。 根據《國家交通與機動車輛安全法》(National Traffic and Motor Vehicle Safety Act),自駕車在符合〈聯邦機動車輛安全標準〉(Federal Motor Vehicle Safety Standards, FMVSS)及州、地方法律的前提下,得於公共道路上行駛;若無法符合FMVSS之要求,則需進行豁免申請。惟不論採何種途徑,FMVSS皆未針對自駕車之安全性與性能進行評估,因此NHTSA提出AV STEP,為自駕車設計專門之豁免申請途徑,並針對不同自動化程度車輛提出涵蓋車輛設計、開發與運行之安全性審查條件,以對現行FMVSS之豁免規定進行補充。簡要說明如下: (1)需配置駕駛人之自駕車:需具備手動駕駛功能與清晰的交接程序,以於自駕系統失效時透過充分提示與反應時間,使駕駛人接管操作。 (2)完全由自駕系統操作之自駕車:監管著重於各種情況下皆能自主運作、回退(Fallback)機制需具遠端監控能力,且能自動進入最小風險狀態。 除上述要求外,申請者皆須提供第三方機構之獨立評估報告、說明自動駕駛系統故障之應對措施,並持續接受NHTSA監督。

用ChatGPT找法院判決?從Roberto Mata v. Avianca, Inc.案淺析生成式AI之侷限

用ChatGPT找法院判決?從Roberto Mata v. Avianca, Inc.案淺析生成式AI之侷限 資訊工業策進會科技法律研究所 2023年09月08日 生成式AI是透過研究過去資料,以創造新內容和想法的AI技術,其應用領域包括文字、圖像及影音。以ChatGPT為例,OpenAI自2022年11月30日發布ChatGPT後,短短二個月內,全球月均用戶數即達到1億人,無疑成為民眾日常生活中最容易近用的AI科技。 惟,生成式AI大量使用後,其中的問題也逐漸浮現。例如,ChatGPT提供的回答僅是從所學習的資料中統整歸納,無法保證資料的正確性。Roberto Mata v. Avianca, Inc.案即是因律師利用ChatGPT撰寫訴狀,卻未重新審視其所提供判決之正確性,以致後續引發訴狀中所描述的判決不存在爭議。 壹、事件摘要 Roberto Mata v. Avianca, Inc.案[1]中,原告Roberto Mata於2019年8月搭乘哥倫比亞航空從薩爾瓦多飛往紐約,飛行過程中膝蓋遭空服員的推車撞傷,並於2022年2月向法院提起訴訟,要求哥倫比亞航空為空服員的疏失作出賠償;哥倫比亞航空則主張已超過《蒙特婁公約》(Montreal Convention)第35條所訂之航空器抵達日起兩年內向法院提出損害賠償之請求時效。 R然而,法院審理過程中發現原告訴狀內引用之六個判決無法從判決系統中查詢,進而質疑判決之真實性。原告律師Steven A. Schwartz因而坦承訴狀中引用的六個判決是ChatGPT所提供,並宣稱針對ChatGPT所提供的判決,曾多次向ChatGPT確認該判決之正確性[2]。 貳、生成式AI應用之潛在風險 雖然運用生成式AI技術並結合自身專業知識執行特定任務,可能有助於提升效率,惟,從前述Roberto Mata v. Avianca, Inc.案亦可看出,依目前生成式AI技術之發展,仍可能產生資訊正確性疑慮。以下彙整生成式AI應用之8大潛在風險[3]: 一、能源使用及對環境危害 相較於傳統機器學習,生成式AI模型訓練將耗費更多運算資源與能源。根據波士頓大學電腦科學系Kate Saenko副教授表示,OpenAI的GPT-3模型擁有1,750億個參數,約會消耗1,287兆瓦/時的電力,並排放552噸二氧化碳。亦即,每當向生成式AI下一個指令,其所消耗的能源量相較於一般搜尋引擎將可能高出4至5倍[4]。 二、能力超出預期(Capability Overhang) 運算系統的黑盒子可能發展出超乎開發人員或使用者想像的隱藏功能,此發展將會對人類帶來新的助力還是成為危險的阻力,則會隨著使用者之間的相互作用而定。 三、輸出結果有偏見 生成式AI通常是利用公開資料進行訓練,若輸入資料在訓練時未受監督,而帶有真實世界既存的刻板印象(如語言、種族、性別、性取向、能力、文化等),據此建立之AI模型輸出結果可能帶有偏見。 四、智慧財產權疑慮 生成式AI進行模型訓練時,需仰賴大量網路資料或從其他大型資料庫蒐集訓練資料。然而,若原始資料來源不明確,可能引發取得資料未經同意或違反授權條款之疑慮,導致生成的內容存在侵權風險。 五、缺乏驗證事實功能 生成式AI時常提供看似正確卻與實際情形不符的回覆,若使用者誤信該答案即可能帶來風險。另外,生成式AI屬於持續動態發展的資訊生態系統,當產出結果有偏誤時,若沒有大規模的人為干預恐難以有效解決此問題。 六、數位犯罪增加與資安攻擊 過去由人工產製的釣魚郵件或網站可能受限於技術限制而容易被識破,然而,生成式AI能夠快速建立具高度說服力的各種擬真資料,降低詐騙的進入門檻。又,駭客亦有可能在不熟悉技術的情況下,利用AI進一步找出資安弱點或攻擊方法,增加防禦難度。 七、敏感資料外洩 使用雲端服務提供商所建立的生成式AI時,由於輸入的資料存儲於外部伺服器,若要追蹤或刪除有一定難度,若遭有心人士利用而導致濫用、攻擊或竄改,將可能產生資料外洩的風險。 八、影子AI(Shadow AI) 影子AI係指開發者未知或無法控制之AI使用情境。隨著AI模型複雜性增加,若開發人員與使用者未進行充分溝通,或使用者在未經充分指導下使用 AI 工具,將可能產生無法預期之風險。 參、事件評析 在Roberto Mata v. Avianca, Inc.案中,法院關注的焦點在於律師的行為,而非對AI技術使用的批判。法院認為,隨著技術的進步,利用可信賴的AI工具作為協助用途並無不當,惟,律師應踐行其專業素養,確保所提交文件之正確性[5]。 當AI科技發展逐漸朝向自主與獨立的方向前進,仍需注意生成式AI使用上之侷限。當個人在使用生成式AI時,需具備獨立思考判斷的能力,並驗證產出結果之正確性,不宜全盤接受生成式AI提供之回答。針對企業或具高度專業領域人士使用生成式AI時,除確認結果正確性外,更需注意資料保護及治理議題,例如建立AI工具合理使用情境及加強員工使用相關工具之教育訓練。在成本能負擔的情況下,可選擇透過企業內部的基礎設施訓練AI模型,或是在訓練模型前確保敏感資料已經加密或匿名。並應注意自身行業領域相關法規之更新或頒布,以適時調整資料使用之方式。 雖目前生成式AI仍有其使用之侷限,仍應抱持開放的態度,在技術使用與風險預防之間取得平衡,以能夠在技術發展的同時,更好地學習新興科技工具之使用。 [1]Mata v. Avianca, Inc., 1:22-cv-01461, (S.D.N.Y.). [2]Benjamin Weiser, Here’s What Happens When Your Lawyer Uses ChatGPT, The New York Times, May 27, 2023, https://www.nytimes.com/2023/05/27/nyregion/avianca-airline-lawsuit-chatgpt.html (last visited Aug. 4, 2023). [3]Boston Consulting Group [BCG], The CEO’s Roadmap on Generative AI (Mar. 2023), https://media-publications.bcg.com/BCG-Executive-Perspectives-CEOs-Roadmap-on-Generative-AI.pdf (last visited Aug. 29, 2023). [4]Kate Saenko, Is generative AI bad for the environment? A computer scientist explains the carbon footprint of ChatGPT and its cousins, The Conversation (May 23, 2023.), https://theconversation.com/is-generative-ai-bad-for-the-environment-a-computer-scientist-explains-the-carbon-footprint-of-chatgpt-and-its-cousins-204096 (last visited Sep. 7, 2023). [5]Robert Lufrano, ChatGPT and the Limits of AI in Legal Research, National Law Review, Volume XIII, Number 195 (Mar. 2023), https://www.natlawreview.com/article/chatgpt-and-limits-ai-legal-research (last visited Aug. 29, 2023).

TOP