美國FCC發布新廣電事業所有權限制規則的法規制定建議通知

  美國FCC在2011年12月22日發布了新廣電事業所有權限制規則的法規制定建議通知(Notice of proposed rulemaking, NPRM),進一步降低包括高功率無線電視台、廣播電台等地區性媒體集中、全國無線電視網所有權集中、以及地區性報社與無線電視台的跨媒體集中之管制密度。

  廣電事業所有權限制規則自2000年之後歷經多次修正與涉訟,FCC於2003年的修正,於遭到2004年遭到聯邦第三巡迴法院的部份廢棄;2007年與2008年的修正,亦同樣遭到同法院的部份廢棄。而FCC在經2010年的四年一度檢視、並委託外界研究之後,再於此次進行修正、並諮詢各界。

  FCC認為,寬頻網路確實使消費者轉向網路或行動平台接收新內容與影音節目,也連帶使媒體市場結構大幅變化。但新媒體目前尚未如傳統媒體般無所不在,主因是美國寬頻上網仍未普及,寬頻普及率僅70%;並有1400萬人無法接取寬頻基礎設施。而線上影音串流或下載節目皆要求最小寬頻頻寬,阻礙了新媒體的普及,因此廣電事業所有權限制規則對於維護競爭、在地化、多樣性、與保障少數族群、身心障礙者和女性的政策目標上,仍有存在必要。

  此次NPRM重點如下:
1、維持地區無線電視所有權限制規則(Local Television Ownership Rule);
2、維持地區報社/地區無線電視跨媒體所有權限制規則(Newspaper/Broadcast Cross-Ownership Rule);
3、因既有地區無線電視、地區廣播所有權限制規則已足夠維護政策目標,廢除地區廣播電台/地區無線電視台跨媒體所有權限制規則(Radio/Television Cross-Ownership Rule);
4、維持複數全國無線電視網所有權限制規則(Dual Network Rule); 新訂少數族群與女性所有權保障規範。

※ 美國FCC發布新廣電事業所有權限制規則的法規制定建議通知, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=5736&no=57&tp=1 (最後瀏覽日:2025/12/09)
引註此篇文章
你可能還會想看
德國聯邦內政部提出「資訊科技安全法」(草案),保障關鍵基礎設施及資訊安全

  德國聯邦內政部繼與德國聯邦經濟暨能源部與交通暨數位基礎設施部共同擬定之「數位議程2014 - 2017」(Digitale Agenda 2014 – 2017)政策裏,於本年8月19日提出資訊科技安全法(草案)(IT-Sicherheitsgesetz)。該草案的提出目的為保障德國公民與企業使用的資訊系統安全,特別是在全國數位化進程中,攸關國家發展的關鍵基礎設施。德國內政部長de Maizière在新聞發表會上,宣稱要讓德國成為全球資訊科技系統及數位基礎設施安全的先驅與各國的模範。除外,亦欲藉此強化德國資訊科技安全企業的競爭力,提升外銷實力。   該草案的主要對象係關鍵基礎設施營運者(Kritische Infrastrukturbetreiber),例如在能源、資訊科技、電信、運輸和交通、醫療、水利、食品、金融與保險等領域的企業。「關鍵基礎設施」的定義並未涵蓋德國聯邦政府部門之間使用的數據通信系統。不過,究竟係在這些基礎設施領域的哪些企業該受到資訊科技法的約束,德國內政部將陸續與各相關部會研討後再以行政法規的方式明確表列出來。   關鍵基礎設施企業必須採取適當的保護措施以保障關鍵基礎設施的正常運行。所採取的保護措施可符合同業或同業公會裡所認可的最新資訊安全標準,且得符合一定的付出成本比例。不過衡量標準,最後還是得由德國聯邦資訊安全局(Bundesamt für Sicherheit in der Informationstechnik, BSI)〉做認定。上述之企業需兩年內完成安全防護措施的設置。為防止電信系統非法入侵,該草案也修增德國電信法(Telekommunikationsgesetz)為施予電信業者更高的資訊安全防護標準。針對網際網路服務提供者(Internet Service Providers, ISP)也特別施加設置防範駭客攻擊的尖端防護措施義務。   關鍵基礎設施業者的資訊安全系統均須透過德國聯邦資訊安全局(Bundesamt für Sicherheit in der Informationstechnik, BSI)每兩年定期審核,若沒通過則會被要求依德國聯邦資訊安全局的標準去處裡該安全漏洞。   若是上述業者的資訊安全系統有受損,並且可導致關鍵基礎設施的故障或損毀,該企業需通報德國聯邦資訊安全局,且該記錄可匿名化。但是,若是因駭客攻擊直接導致關鍵基礎設施的故障或損毀,該企業則需立即通報德國聯邦資訊安全局,不可匿名。

歐盟擬立法要求電信業者及ISP業者保留通聯紀錄

  歐洲議會民眾權益委員會( the European Parliament's civil liberties committee)於2005年11月25日以33票對8票通過新的指令草案,要求電話與網路的通聯紀錄(但不包含內容紀錄)均需被保留6個月到12個月。目前此草案已送交部長理事會(Council of Ministers)審議中。   為避免保留之通聯紀錄遭到濫用,民眾權益委員會要求僅法官可以調閱通聯紀錄,且僅限於調查重大犯罪(例如恐怖份子或是組織犯罪)時始可調閱。但創作及媒體企業協會( the Creative and Meida Business Alliance, CMBA)則希望歐盟能放寬通聯紀錄調閱之限制,允許進行所有犯罪之調查時,特別是在查緝盜版犯罪之情形,能調閱通聯紀錄。   對於業者因配合保留通聯紀錄而增加的額外負擔,則可能透過轉嫁給消費者或是透過整府補貼的方式解決。

美國田納西州《確保肖像、聲音和圖像安全法案》要求第三方若利用生成工具重製肖像、聲音或圖像應得本人之事前同意

作為鄉村音樂發源地的美國田納西州,有著蓬勃的音樂產業,匯聚來自各路的表演藝術工作者,因而對相關從業者的個人公開權(Right of Publicity)保障尤為重視,早在1984年即制訂《個人權利保護法》(Personal Rights Protection Act),確保該權利不會因權利人死亡而消滅,屬於可由他人繼承之財產權,允許繼承人自由轉讓和授權,包含其姓名(Name)、肖像(Image)、形象(Likeness)之權利主張,但被繼承人之聲音仍不在權利主張的範疇。 惟現今AI深偽仿聲技術所生成之音樂亦可能侵害音樂人及藝術家的智慧財產權,因而於2024年3月21日由州長簽署《確保肖像、聲音和圖像安全法案》(Ensuring Likeness Voice and Image Security Act),簡稱貓王法案(ELVIS Act),該法案於3月7日獲得州議會兩黨一致支持,首度明確將個人公開權得主張之範圍擴及至表演者的聲音(NIL+V),其目的是為了應對AI生成音樂的突破性進展,以保護音樂創作人及表演藝術家之權利免受AI技術侵害,這是全美首部禁止他人未經授權使用或重製權利人的聲音以供訓練AI模型或生成深偽內容所制定的法律(註:加州雖已將聲音作為權利保護客體但非針對AI技術之侵害),明確規定第三人在未得本人之同意下,若意圖利用AI深偽技術生成經仿製、偽造或變造的圖片、影音、聲音等數位檔案,而後續冒用本人名義進行公開發表或公開演出詞曲創作人及表演藝術工作者之聲音或影像的行為,則須承擔相應的民事侵權行為責任,以及構成歸類在微罪的刑事犯罪,刑期最高可處11個月又29天的監禁或2,500美元以下的罰金,該法案預計於今年7月1日生效,且僅適用於在田納西州境內的工作者。 該法案所保護之主體除音樂創作人及表演藝術家外,亦包含動畫配音員及串流媒體盛行下廣播與網路節目的播音員(俗稱播客),以確保這類主要仰賴聲音維生的工作者能免於AI仿聲技術而減損其專業價值;另外若有與詞曲創作人或表演藝術工作者締結專屬合約之唱片公司或經紀公司亦為訴訟程序的適格當事人,可代理公司旗下的工作者尋求救濟管道;最後,若利用權利人的姓名(Name)、肖像(Image)、形象(Likeness)或聲音(Voice)屬於法案中列舉的合理使用行為,如基於公益目的、新聞播報、轉化性使用、偶然入鏡或著作之附帶性利用等,則應屬美國憲法第一修正案之保障範圍而非在該法案的規範射程。 除田納西州之外,美國尚有其他39個州提出或正在推動相似的法案,但全美目前仍欠缺統一性的立法;聯邦政府仍尚在研擬如何保護表演藝術工作者個人公開權的階段,日前在田納西州政府今年1月時提出貓王法案的草案後不久,由美國眾議院議員組成的跨黨派小組曾公佈《禁止人工智慧偽造和未經授權的重製法案》(或稱為《禁止人工智慧詐欺法案》),旨在推動建立聯邦層級的框架性立法,以確保個人的聲音或肖像權屬美國憲法第一修正案的保障範圍,而該提案據稱是針對美國參議院去年10月提出的《鼓勵原創、培育藝術和維繫安全娛樂法案》(或稱為《禁止仿冒法案》)的更新及補充,以維護公共利益,創造具有原創性、正當性及安全性的休閒娛樂環境。

美國國家標準暨技術研究院規劃建立「人工智慧風險管理框架」,並徵詢公眾對於該框架之意見

  美國國家標準暨技術研究院(National Institute of Standards and Technology, NIST)為管理人工智慧對於個人、組織以及社會所帶來之風險,於2021年7月29日提出將建立「人工智慧風險管理框架」(Artificial Intelligence Risk Management Framework, AI RMF)之規畫並徵詢公眾意見,截止日為9月15日,並預計於10月發布正式報告。   依照NIST說明,公眾所建議之人工智慧風險管理框架,可促進人工智慧之可信賴性,其中包含如何應對並解決人工智慧於設計、發展及使用過程中所遭遇之「精確度」(accuracy)、「可解釋性」(explainability)、「偏見」(bias)等議題。此外,上開管理框架預計為非強制性、供企業自願性使用於人工智慧設計、發展、使用、衡量及評估之人工智慧標準。   依現有公眾意見徵詢結果,其中DeepMind公司建議於人工智慧設計初期,必須預先構思整體系統之假設是否符合真正社會因果關係。舉例言之,當設計一套可預測民眾健保需求程度之系統時,如輸入參數僅考量民眾於醫療上的花費,將使僅有可負擔較高醫療費用之民眾被歸類為健保需求程度較高者,從而導致健保制度排擠經濟負擔程度較差之公民,故在設計系統時,應從預先設定之假設事實反面(counter-factual)思考並驗證是否會產生誤差或公平性之問題(例如預先思考並驗證「醫療費用支出較低之民眾是否即可被正確歸類為健保需求度低之民眾」)。惟進行上述驗證需要大量社會資料,因此DeepMind也建議NIST應建立相關機制,使這些社會資料可以被蒐集、使用。   此外,亦有民眾建議管理框架應有明確之衡量方法以及數值指標,以供工程界遵循。同時鑒於人工智慧發展極為快速,未來可能有不同於以往之人工智慧類型出現,故亦建議NIST應思考如何在「建構一套完整且詳細之人工智慧治理框架」與「保持人工智慧治理框架之彈性與靈活性」之間取得平衡。   最後,目前也有許多徵詢意見指出,許多人工智慧治理之目標會相互衝突。舉例言之,當NIST要求人工智慧系統應符合可解釋性,則人工智慧公司勢必需要經常抽取人工智慧系統中之「數據軌跡」(audit logs),惟數據軌跡可能被認為是使用者之個人資料,因此如何平衡或完善不同治理框架下之目標,為未來應持續關注之議題。

TOP