美國聯邦通訊管理委員會對LPTV的新管制措施

  為了確保農村地區低功率電視(LPTV)播送的服務,與協助該等地區傳輸數位訊號,美國聯邦通訊委員會(FCC)決議從2009年8月25日起,不再接受新的類比傳輸運用與設備建置之申請,只允許新的數位低功率電視(new digital-only LPTV)及其有關之電視訊號轉換站的設置申請。此申請機會將限於特定區域,以及採行「先申請先服務」(first-come, first-served)的處理程序。此外,針對全國性的核發執照申請,則於2010年1月25日開始受理。

 

  低功率電視起源於1982年,係FCC為了地方導向、實踐表意自由權利與促進文化多樣性,而在小型社區允許低功率電視執照擁有者得享有「次級性頻譜使用權」(secondary spectrum priority),於VHF(2-13)或UHF(14-51)頻段中,提供電視節目播送之服務。

 

  根據2005年聯邦赤字削減法(Federal Deficit Reduction Act of 2005)規定,美國已於2009年6月12日全面停播類比訊號節目,改以數位訊號播送,但該法並未規範低功率電視台播送訊號的數位化時程,故有關既有低功率電視相關之管制亦須一併修訂,方能達到全數位化的視聽環境目標。

相關連結
相關附件
※ 美國聯邦通訊管理委員會對LPTV的新管制措施, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=3076&no=57&tp=1 (最後瀏覽日:2026/03/08)
引註此篇文章
你可能還會想看
Apple 對於Psystar案件之判決

  Apple在對Psystar的法律訴訟上贏得重要的勝利,美國政府聯邦法院已判決複製品製造者Psystar於販售個人電腦時事先安裝Mac OS X作業系統,已侵犯Apple的著作權。   在雙方提起簡易判決訴訟後一個月,美國地方法院法官William Alsup 表示Psystar已侵害Apple專用之重製權、散布權及衍生著作權,於判決中針對著作權侵害一事已被承認。並且確認Apple於Mac OS X產品之直接用戶授權合約,是限制使用於Apple生產的電腦,更特別禁止安裝此作業系統於其他電腦;在此同時,法官否決Psystar的論點:首次銷售原則所允許,買家可以任意使用此作業系統。 此外,法官同意Apple的聲明,Psystar侵害數位化千禧年著作權法案之反規避條款及反交易條款,另一方面,法官也否決Psystar對Apple濫用著作權的論點。   此判決並未包含其他Apple所提出的主張,包括:合約的侵害、商標的侵權及商標稀釋,法官也未提出給予Apple救濟上的權利,包括先前提及之永久禁止令,要求中止Psystar販售任何帶有Apple軟體的硬體並強迫其召回所有已售出帶有此作業系統之機器。   此判決對Apple而言,是決定性的勝利,但並非結束所有在法律上的爭議,12月14日將進行賠償的審訊,其餘審判也預訂於明年1月開始。

美國士兵曼寧因向「維基解密」網站洩漏國家外交及軍事情報而遭起訴22項罪名

  美國的情報分析員一等兵布蘭德利.曼寧(Brandly Manning),被控訴22項包括通敵罪、非法取得並散布外交及軍事機密的文件給「維基揭密」網站等妨害國家安全罪名,現被拘禁在馬里蘭州的米德堡。     曼寧一審由軍事法院審理,但軍事上訴審法院認為管轄權有爭議,為決定是否繼續適用軍事法院的審理程序,今年10月10日舉行預審聽證會,由五人一組的普通法院法官受理。同時,維基解密、憲法人權中心、美聯社等新聞媒體,均要求軍事法庭依憲法第一修正案,提供曼寧案的相關卷宗資料,但政府發言人查得費雪上尉(Captain Chad Fisher)表示,第一憲法修正案沒有絕對的效力,也未賦予法院公開卷宗的義務。若記者和大眾想獲得案件的文件資料,可透過「情報自由法」申請。但依「情報自由法」的申請程序非常冗長,而且美聯社和曼寧的辯護律師大衛.庫姆斯(david Commbs)的申請都已遭拒絕,律師大衛只能在私人網誌上向關心曼寧案的民眾公布案件進度和內情。     憲法人權中心的律師Shayana Kadidal 表示,不公開卷宗資料,就算參與了聽證會也無法理解案件的真實面貌,而無法做出準確的報導。但軍事法院對於憲法人權中心、新聞媒體及公眾要求公開法庭卷宗的訴求依然無動於衷。軍方和憲法人權中心將在之後會提交聲請,解釋為何他們認為軍事上訴審法院有權裁決卷宗是否公開。     曼寧下次庭期是明年2月4日,若通敵罪成立,曼寧將會被判終身監禁。

全美各州醫療委員會聯合會發布人工智慧(AI)治理指引,並要求醫師為AI之利用結果負最終責任

全美各州醫療委員會聯合會(The Federation of State Medical Boards, FSMB)於2024年4月發布「引導人工智慧以負責任與符合倫理方式融入臨床實務」(Navigating the Responsible and Ethical Incorporation of Artificial Intelligence into Clinical Practice)指引,明確概述醫師於利用AI協助提供照護時可採取之步驟,以履行其倫理與專業職責,期能藉此降低對患者造成傷害之風險;本指引之特色在於,其要求醫師為AI之利用結果負最終之責任。 FSMB 向各州醫療委員會與其他利害關係人所提供之原則與建議如下,以支持對包含AI之臨床照護進行負責任與符合倫理之監管: (1)透明度與揭露(Transparency and Disclosure): 應要求維持於醫療照護領域使用AI之透明度;各州醫療委員會應制定明確之指導方針,向患者揭露AI之使用情況,其有助於患者與醫師之理解,但不會造成不必要之行政負擔;FSMB 應制定文件,詳細說明最常用之AI工具之功能與局限性,以協助醫療委員會發揮監管者之角色,並應制定常見問題與最佳實務文件,作為提供照護時利用AI方面關於透明度之資源。 (2)教育與理解(Education and Understanding): FSMB及其於醫學教育界之合作夥伴,應為醫師、醫療委員會與患者,確認有關醫療照護中AI之結構化教育資源,該等資源應包括協助瞭解AI如何運作、其優點、潛在風險以及對患者照護之影響。 (3)負責任之使用與問責(Responsible Use and Accountability): 開發人員應協助醫師瞭解何時、以及如何於患者之照護中利用AI工具;選擇AI工具支援臨床決策之醫院系統、保險公司或其他機構應向醫師提供有關AI工具之教育、存取各工具之性能報告,並應設計一個定期檢視工具功效的流程;AI工具應以得使各州醫療委員會能稽核與理解之方式設計,以便適當評估依賴工具輸出結果之醫師是否偏離照護標準(standard of care);FSMB 應支持各州醫療委員會針對臨床醫師如何負責任、可問責地使用AI之解釋。 (4)公平性與近用(Equity and Access): 應努力確保所有患者皆能公平地近用AI帶來之好處;FSMB與各州醫療委員會致力於以下原則:醫療人員所提供之照護是公平的、且不受基於種族、民族或其他形式歧視之偏見影響;FSMB應與其他利害關係人一起理解並解決演算法偏差問題。 (5)隱私與資料安全(Privacy and Data Security): AI工具之開發者必須實施嚴格之保護措施,以保護AI開發與評估時所利用之患者資料,通常情況下應告知患者資料如何被利用,且FSMB應與行業利害相關人一起制定AI系統使用與散布患者資料之政策,包括針對AI開發或評估中使用之患者資料之最低資料保護措施。 (6)監督與監管(Oversight and Regulation): 各州醫療委員會必須保留對於提供醫療服務時,不當應用AI工具之醫生進行紀律處分之權力,其包括問責議題之考慮,特別是當AI系統變得更加自主時;各州醫療委員會應審查其管轄範圍內如何對「醫療行為」(practice of medicine)進行法律定義,以確保對提供醫療照護、人力或其他方面進行持續之監管監督。 (7)法律法規之持續審查與調整(Continual Review and Adaptation of Law and Regulations): 各州醫療委員會應在FSMB之支持下,隨著AI之不斷發展,持續檢視與更新與AI相關之指引與法規;政策制定者應考慮AI對基本法律原則的影響,例如醫療行為之定義以及AI對企業醫學實務之影響;FSMB 應建立一個專門團隊,持續檢視與調整AI指引與法規。 本指引指出,AI工具通常無能力取代醫師之專業判斷、道德責任或對州醫療委員會之責任,醫療行為中之關鍵職業責任始終為確保診斷、臨床決策與建議不存在偏差。與用於診斷或治療疾病之任何其他工具或鑑別方法相同,醫療專業人員有責任確保基於證據結論之準確性與真實性,因此於將AI系統用於患者照護前,醫師應以合理努力識別與解決偏差(如虛假或不準確之資訊等)。

經濟合作與發展組織發布《促進AI可歸責性:在生命週期中治理與管理風險以實現可信賴的AI》

經濟合作與發展組織(Organisation for Economic Co-operation and Development, OECD)於2023年2月23日發布《促進AI可歸責性:在生命週期中治理與管理風險以實現可信賴的AI》(Advancing accountability in AI: Governing and managing risks throughout the lifecycle for trustworthy AI)。本報告整合ISO 31000:2018風險管理框架(risk-management framework)、美國國家標準暨技術研究院(National Institute of Standards and Technology, NIST)人工智慧風險管理框架(Artificial Intelligence Risk Management Framework, AI RMF)與OECD負責任商業行為之盡職調查指南(OECD Due Diligence Guidance for Responsible Business Conduct)等文件,將AI風險管理分為「界定、評估、處理、治理」四個階段: 1.界定:範圍、背景、參與者和風險準則(Define: Scope, context, actors and criteria)。AI風險會因不同使用情境及環境而有差異,第一步應先界定AI系統生命週期中每個階段涉及之範圍、參與者與利害關係人,並就各角色適用適當的風險評估準則。 2.評估:識別並量測AI風險(Assess: Identify and measure AI risks)。透過識別與分析個人、整體及社會層面的問題,評估潛在風險與發生程度,並根據各項基本價值原則及評估標準進行風險量測。 3.處理:預防、減輕或停止AI風險(Treat: Prevent, mitigate, or cease AI risks)。風險處理考慮每個潛在風險的影響,並大致分為與流程相關(Process-related)及技術(Technical)之兩大處理策略。前者要求AI參與者建立系統設計開發之相關管理程序,後者則與系統技術規格相關,處理此類風險可能需重新訓練或重新評估AI模型。 4.治理:監控、紀錄、溝通、諮詢與融入(Govern: Monitor, document, communicate, consult and embed)。透過在組織中導入培養風險管理的文化,並持續監控、審查管理流程、溝通與諮詢,以及保存相關紀錄,以進行治理。治理之重要性在於能為AI風險管理流程進行外在監督,並能夠更廣泛地在不同類型的組織中建立相應機制。

TOP