FCC核准拍賣700MHz頻譜波段,作為各式無線服務的使用

  有鑑於目前美國的廣播電視系統所使用的698-806 MHz 頻譜波段(一般稱作700MHz頻段),預計在由類比式的電視系統轉換至數位電視系統後,該頻段可完全地為各類無線服務所使用,包括公共安全以及商業服務,聯邦通訊傳播委員會(Federal Communications Commission, FCC)在2007年4月25日對此採納了「報告與命令」(Report and Order)以及「規則制訂建議的進一步通告」(Further Notice of Proposed Rulemaking )等文件作為相關規範。

 

  關於700 MHz頻段的使用,目前FCC正朝下列三個面向來規劃:

 (1) 在商用服務方面,FCC以不同經濟規模的區域(如都會區、較大的經濟區塊等)來決定執照的發放,同時也制訂了如功率限制及其他的技術性規範。

 (2)在保護頻道(Guard Bands)方面,FCC將改變目前在次級市場方面的租賃管理制度,使取得執照的業者在保護頻道的使用上更有彈性與效率;

 (3) 在公共安全頻段方面,FCC認為藉著更多頻段的釋放,使全國不同的網路(包括寬頻與窄頻)皆能全面達成互連,使危難發生時更得以發揮保障公共安全之功能。

 

  上述相關的規則與建議將使FCC得以拍賣700 MHz頻段中不同用途的執照,並期待在全國性無線寬頻服務的互連方面,營造出更為創新以及符合公共安全的服務環境。

相關連結
相關附件
※ FCC核准拍賣700MHz頻譜波段,作為各式無線服務的使用, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?no=57&tp=1&d=2228 (最後瀏覽日:2025/11/07)
引註此篇文章
你可能還會想看
音樂出版業者控告LimeWire侵害著作權

  國家音樂出版組織(National Music Publishers’ Association,簡稱NMPA)中8家音樂出版業者在2010年6月16日對LimeWire提起著作權侵權訴訟。8家出版業者包含EMI Music Publishing, Sony/ATV Music Publishing, Universal Music Publishing Group(環球), Warner/Chappell Music, Inc.(華納), Bug Music, MPL Music Publishing, Peermusic and The Richmond Organization.等唱片公司,被告LimeWire是知名的檔案共享線上服務網站。原告指出被告大量的侵害原告的音樂著作,因此要求賠償。     NMPA表示本案和上個月13家音樂公司和美國唱片業協會(Recording Industry Association of American,簡稱RIAA)對LimeWire的著作權訴訟是相關聯的案件。美國地方法院法官於上個月就RIAA和LimeWire一案作出判決,法官認定LimeWire公司及負責人侵害著作權,且構成不公平競爭。13家公司要求凍結LimeWire的資產並且要負擔近十億美金賠償,RIAA要求LimeWire立即關掉網站,但法官於6/8說明LimeWire至少可持續營業兩週。     NMPA的負責人及執行長Israelite表示,LimeWire提供的網路平台有助於網路著作權侵害的產生。每首音樂產出的背後都有一群龐大的網路,包含出版者、作曲家、表演者、錄音者,唱片公司,並非無中生有的,LimeWire檔案分享網站利用提供販賣音樂平台,使他人可以接觸音樂,但拒絕支付合理的音樂授權金。     LimeWire釋出善意歡迎NMPA進行協商談判,並表示將有許多與出版業者、作曲家、表演者、唱片公司的會談,就如同LimeWire新的音樂服務機制與商

英國公布合成生物學公眾對話報告,以避免早期爭議的產生

今(2010)年5月,美國克雷格文特爾研究所宣布,成功完成首個由電腦設計之人造基因組控制,並具有自我繁殖功能的合成細胞,研究人員將其取名為辛西亞(Synthia),並發表於科學雜誌,此舉意味生物科技的發展,已經從生命複製階段步入生命創造階段。此次合成細胞的成功,引發先進國家政府方面的對經濟利益、管理及社會法制影響等方面的重視。美國總統歐巴馬便敦促生物倫理委員會對此發展進行密切觀察,評估此研究將之影響、利益和風險。 英國對於合成生物學發展的規範議題也十分關心,該國2009年開啟有關合成生物學的公眾對話(public dialogue),並於今年6月完成並公布報告。獲得的結論如下: 一、肯定合成生物學所帶來的機會: 英國民眾普遍認為合成生物學的應用將會帶來許多重要的機會,可協助解決當前社會所面臨的重大挑戰,例如氣候變遷、能源安全與重大疾病等。 二、關心合成生物學發展的不確定性: 由於合成生物學的發展充滿著不確定性,故當長期的負面影響尚未可知時,有些民眾反而因發展過於快速而覺得到沒有確定感。 三、期待國際規範形成: 英國民眾認為希望能有國際性的合成生物學規範與管理措施,尤其應針對合成生命物質在未受到管制而釋出於環境之生物安全議題,猶應有國際性的管理規範。 四、衡量科研人員動機: 英國民眾擔心,研究者好奇心的驅使,會使合成生物學發展過於快速,故應衡量其研究所帶來的廣泛影響。 五、強調科研人員之責任 負責資助的研究委員會應有清楚角色,促使科學家在此新興科技領域研究中,培養思考科學家責任之能力。 此次對話結果將會納入英國對合成生物學研究補助的法規政策,成為決定補助方式、項目與範圍的重要參考依據。這樣的作法是考量到,希望使合成生物學在健全的管理與法規下持續發展,預先減低過往生物科技發展導致民眾疑慮而致延滯發展的可能性,也更能將政府科研資助有效地投入有利於國家整體發展的領域中。

演算法歧視將適用於《紐澤西州反歧視法》

2025年1月9日美國紐澤西州檢查總長與民權部(Division of Civil Rights, DCR)聯合發布「演算法歧視指引」(Guidance on Algorithmic Discrimination and the New Jersey Law Against Discrimination),指出《紐澤西州反歧視法》(the New Jersey Law Against Discrimination, LAD)亦適用於基於演算法所衍生的歧視。 隨著AI技術日趨成熟,社會各領域已大量導入自動化決策工具,雖然它們能提高決策效率但也增加了歧視發生之風險。指引的目的在於闡述自動化決策工具在AI設計、訓練或部署階段可能潛藏的歧視風險,亦列舉出在各類商業實務情境中常見的自動化決策工具,並說明它們可能會如何產生演算法歧視。以下分別說明《紐澤西州反歧視法》適用範圍,以及與演算法歧視有關的行為樣態。 一、《紐澤西州反歧視法》之適用主體及適用客體 《紐澤西州反歧視法》禁止在就業、住房及公共場所等領域所發生的一切歧視行為,其適用主體相當廣泛,包含但不限於下列對象:雇主、勞工組織、就業仲介機構、房東、房地產經紀人、公共場所之經營或管理者、以及任何教唆或協助歧視行為之個人;而該法之適用客體亦有明確定義,為具有受保護特徵(如性別、族裔、身心障礙等)之自然人或法人。 此外指引特別說明,即便適用主體無意歧視、或其所使用之自動化決策工具係由第三方所開發,只要發生歧視行為依然違反《紐澤西州反歧視法》。這是因為《紐澤西州反歧視法》係針對歧視所帶來的影響進行規範,儘管無意歧視,其所帶來的影響並不一定比故意歧視還要輕微。 二、 歧視行為的三種樣態 1.差別待遇歧視 差別待遇歧視係指適用主體基於受保護特徵而對適用客體施予不同對待。舉例而言,若房東使用自動化決策工具來評估黑人潛在租戶,但不評估其他族裔的潛在租戶,則會因為其選擇性使用自動化決策工具而構成歧視。 2.差別影響歧視 差別影響歧視係指適用主體的政策或行為對適用客體造成不成比例的負面影響,且該政策或行為未能證明具有正當性、非歧視性、或不存在較少歧視性的替代方案,則該政策或行為構成歧視。例如,某商店利用臉部辨識技術來偵測過去曾有偷竊紀錄的顧客,但該系統對配戴宗教頭巾的顧客較容易產生誤判,此亦可能構成歧視。 3.未提供合理調整 合理調整係指身心障礙者、宗教信仰者、懷孕者以及哺乳者,在不會對適用主體造成過度負擔的前提下,得向其提出合理請求,以符合自身的特殊需求。以身心障礙員工為例,若雇主使用了自動化決策工具來評估員工的工作表現(例如監測員工的休息時間是否過長),在未考量合理調整的情況下,該工具可能會過度針對身心障礙員工進而構成歧視。 為減少演算法歧視發生頻率,「演算法歧視指引」特別闡述自動化決策工具可能會出現的歧視行為及歧視樣態。此份指引的另一個意義在於,縱使目前紐澤西州並沒有一部監管AI的專法,但仍可以利用現行的法律去處理AI帶來的種種問題,以利在既有的法律架構內擴充法律的解釋來回應新科技的挑戰,並達到實質管制AI的效果。

日本內閣府公布生成式AI初步意見彙整文件,提出風險因應、應用及開發兩大關注重點

日本內閣府於2023年5月26日召開第2次「AI戰略會議」(AI戦略会議),並公布「AI相關論點之初步整理」(AIに関する暫定的な論点整理)。鑒於AI對於改善國人生活品質、提高生產力無疑有相當助益,考量生成式AI甫問世,社會大眾對其潛在風險尚心存疑慮,內閣府遂以生成式AI為核心,延續先前已公布之「AI戰略2022」(AI 戦略 2022)、「以人為中心的AI社會原則」(人間中心の AI 社会原則),以「G7廣島峰會」(G7広島サミット)所提出之願景—「符合共同民主價值的值得信賴AI」為目標,提出「風險因應」及「應用與開發」兩大關注重點,供政府有關部門參考之同時,並期待可激起各界對於生成式AI相關議題之關注與討論: 一、風險因應:AI開發者、服務提供者與使用者應自行評估風險並確實遵守法規及相關指引;政府則應針對風險應對框架進行檢討,對於已知的風險,應先以現有的法律制度、指引與機制進行處理,假如現有法制等無法完全因應這些風險,則應參考各國作法盡速對現行制度進行修正。 AI的透明度與可信賴度於風險因應至關重要。若能掌握AI學習使用哪些資料、所學習資料之來源、AI如何產生結果等,就能針對使用目的選擇適合的AI,也較易因應發生之問題,並避免AI產生錯誤結果或在對話中洩漏機密資訊等。對此,本文件呼籲AI開發者及服務提供者依據現行法令和指引主動揭露資訊,政府則應對透明度和可信賴度相關要求進行檢討,並應依普及程度及各國動向對既有的指引進行必要之修正。 二、應用與開發:本文件建議政府部門積極使用生成式AI於業務工作上,找出提升行政效率同時不會洩漏機密之方法,並向民眾宣導AI應用之益處與正確的使用方式,以培養民眾AI相關技能與素養,藉以更進一步建構AI應用與開發之框架,如人才培育、產業環境準備、相關軟硬體開發等。

TOP