OFCOM將重新檢討商業廣播電視節目贊助規定

  英國廣播電視主管機關OFCOM於今年十月下旬公布,其將修酌廣播電視規則(Broadcasting Code),放寬商業廣播電視節目/頻道贊助規定。


  現行的廣播電視規則禁止特定類型的節目接受贊助,例如新聞和時事節目不得接受贊助,也禁止特定種類之商品或服務廠商贊助特定節目,例如禁止酒商贊助兒童節目。


  OFCOM表示將修酌現行規定,放寬節目/頻道贊助之規定,惟在兼顧節目編輯權以及兒童閱聽人之收視權益的考量下,將訂定相關的節目/頻道贊助限制,包括


    1.必須使閱聽人知道節目有接受贊助,贊助廠商之資訊必須與節目和廣告內容所有區隔。


    2.頻道贊助廠商之資訊不得出現於禁止接受贊助之節目內容中或播放時間之前、後。


    3.贊助廠商資訊之呈現不得過於明顯。


    4.節目頻道不得以贊助廠商之名稱命名。

相關連結
※ OFCOM將重新檢討商業廣播電視節目贊助規定, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=566&no=67&tp=1 (最後瀏覽日:2026/04/30)
引註此篇文章
你可能還會想看
美國發布保護無人機系統資通訊技術及服務供應鏈之法規制定預告

.Pindent{text-indent: 2em;} .Noindent{margin-left: 2em;} .NoPindent{text-indent: 2em; margin-left: 2em;} .No2indent{margin-left: 3em;} .No2Pindent{text-indent: 2em; margin-left: 3em} .No3indent{margin-left: 4em;} .No3Pindent{text-indent: 2em; margin-left: 4em} 美國商務部產業安全局(Bureau of Industry and Security, BIS)於2025年1月2日發布保護無人機系統資通訊技術及服務供應鏈(Securing the Information and Communications Technology and Services Supply Chain: Unmanned Aircraft Systems)之法規制定預告(advance notice of proposed rulemaking, ANPRM),其目的在於透過維護供應鏈安全,避免中俄等外國敵對勢力,藉由參與無人機系統(Unmanned Aircraft Systems, UAS)資通訊技術與服務(Information and Communications Technology and Services, ICTS)遠端存取和操縱UAS,提高美國敏感資訊暴露風險。本次ANPRM是BIS依據2019年5月15日川普總統簽署之確保ICTS供應鏈安全的第13873號行政命令所發布。 為確保UAS安全,BIS針對下列事項尋求公眾意見,包括但不限於: 1. 無人機系統及其零組件的定義: 針對BIS初步認定之下列UAS平台必要組成部分,評估其定義和標準功能:(1)機載電腦;(2)通訊系統;(3)飛行控制系統;(4)地面控制站或系統;(5)運作軟體;(6)任務規劃軟體;(7)智慧型電池電源系統;(8)本地和外部資料儲存設備和服務;及(9)人工智慧軟體或應用程式; 2. 評估是否有資料外洩和遠端存取控制以外的其他風險; 3. 評估不同外國敵對勢力帶來的風險,例如:是否應考慮與外國敵對勢力有關聯的特定個人或實體等; 4. 評估例外可允許交易的情形;及 5. 評估相關經濟性影響,例如:對美國企業或公眾資料隱私和保護、反競爭效應(Anticompetitive Effects)等,及其應有的相應措施。 BIS開放公眾得針對該ANPRM於2025年3月4日前提出意見,俾利後續發布法規。

日本《研究資料基盤整備與國際化戰略》報告書

  日本因應各先進國家近年於開放科學概念下,政府資助研發計畫研究資料管理及開放之倡議與制度化推展趨勢,內閣府於2015年提出開放科學國際動向報告書,並在第5期科學技術基本計畫與2019年統合創新戰略中規劃推動開放科學。上述政策就研究資料管理開放議題,擬定了資料庫整備、研究資料管理運用方針或計劃之制定、掌握相關人才培育與研究資料運用現況等具體施政方針。在此背景下,內閣府於2018年設置「研究資料基盤整備與國際化工作小組(研究データ基盤整備と国際展開ワーキング・グループ)」,持續檢討日本國內研究資料管理、共享、公開、檢索之基盤系統建構與政府制度、國家研究資料戰略與資料方針、國際性層級之推動方向等議題,在2019年10月據此作成《研究資料基盤整備與國際化戰略》(研究データ基盤整備と国際展開に関する戦略)報告書,形成相關政策目標。   本報告書所設定的政策目標採階段性推動,區分為短期目標與中長期目標。短期預計在2020年前,正式開始運用目前開發測試中之研究資料基盤雲端平台系統(NII Research Data Cloud, RDC),針對射月型研發計畫研擬並試行研究資料管理制度,建構詮釋資料(metadata)之集中檢索體系,並建立與歐洲開放科學雲(EOSC)之連結;中長期目標則規劃至2025年前,持續調適運用RDC,正式施行射月型研發計畫之研究資料管理制度,確立共享與非公開型研究資料之管理框架,蒐整管理資料運用現況之相關資訊,並逐步擴張建立與全球研究資料共享平台間之連結。

紐約通過法案,將禁止企業使用未能通過偏見審計的自動化招募系統

  紐約市議會於2021年11月10日通過紐約市行政法規的修正法案,未來將禁止雇主使用未通過偏見審計(bias audit)的「自動化聘僱決策工具(Automated Employment Decision Tools)」,避免因為自動化工具導致的偏見與歧視,不當反映於雇主的最終聘僱決策。   於該法所定義之「自動化聘僱決策工具」,係指透過機器學習、統計模型、數據分析或人工智慧之運算,以實質性協助或取代決策過程,影響最終聘僱決定。而聘僱決定包含篩選應徵者以及對員工作成是否晉升之結果。偏見審計由獨立審計員針對自動化聘僱決策工具進行測試,藉以評估該自動化聘僱決策工具對於雇主依法應申報資訊的影響,例如是否影響及如何影響員工性別、族裔、職位、職務等特徵分布情形。該法並規定雇主或職業介紹機構只有在滿足以下條件的前提下,始得使用自動化聘僱決策工具,包括: 一、通過審計義務:自動化聘僱決策工具須於1年之內通過偏見審計(bias audit)。在使用該工具前,應將該最新審計結果摘要及該工具發行日公告於雇主或職業介紹機構的網站上。除非另有規定,如未有公告,應徵者或員工得提出書面要求雇主於30日內提供自動化聘僱決策工具所收集的數據類型、來源及雇主或職業介紹機構之數據保留政策之相關資訊。 二、通知義務:如欲使用自動化聘僱決策工具對居住在紐約市的員工或應徵者進行評估時,雇主應於使用前的10個工作日內通知該員工或應徵者,且應通知用於評估時所使用之工作資格或特質等參數,並允許應徵者或員工申請以替代方式進行評估。   如雇主或職業介紹機構違反上開規定,第一次違反者將承擔500美元的民事懲罰(civil penalty),如連續違反者,對於之後的違反將承擔500至1500美元不等。目前該法案仍待市長簽署,該法案如經市長簽署通過,將於2023年1月1日生效。

美國勞工部發布「人工智慧及勞工福祉:開發人員與雇主的原則暨最佳實務」文件,要為雇主和員工創造雙贏

.Pindent{text-indent: 2em;} .Noindent{margin-left: 2em;} .NoPindent{text-indent: 2em; margin-left: 2em;} .No2indent{margin-left: 3em;} .No2Pindent{text-indent: 2em; margin-left: 3em} .No3indent{margin-left: 4em;} .No3Pindent{text-indent: 2em; margin-left: 4em} 美國勞工部(Department of Labor)於2024年10月發布「人工智慧及勞工福祉:開發人員與雇主的原則暨最佳實務」(Artificial Intelligence and Worker Well-Being: Principles and Best Practices for Developers and Employers)參考文件(下稱本文件)。本文件係勞工部回應拜登總統2023年在其《AI安全行政命令》(Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence)中對勞工的承諾,作為行政命令中承諾的一部分,本文件為開發人員和雇主制定如何利用人工智慧技術開展業務的路線圖,同時確保勞工可從人工智慧創造的新機會中受益,並免受其潛在危害。 本文件以八項AI原則為基礎,提出最佳實踐作法,其重點如下。 1. 賦予勞工參與權(empowering workers):開發人員和雇主履行各項原則時,應該秉持「賦予勞工參與權」的精神,並且將勞工的經驗與意見納入AI系統整個生命週期各環節的活動中。 2. 以合乎倫理的方式開發AI系統:開發人員應為AI系統建立標準,以利進行AI系統影響評估與稽核,保護勞工安全及權益,確保AI系統性能符合預期。 3. 建立AI治理和人類監督:組織應有明確的治理計畫,包括對AI系統的人類監督機制與定期評估流程。 4. 確保AI使用透明:雇主應事先告知員工或求職者關於AI系統之使用、使用目的及可能影響。雇主及開發人員應共同確保以清晰易懂的方式公開說明AI系統將如何蒐集、儲存及使用勞工的個資。 5. 保護勞工和就業權利:雇主使用AI系統時,除應保障其健康與安全外,不得侵犯或損害勞工的組織權、法定工資和工時等權利。 6. 使用AI以提升勞工技能(Enable Workers):雇主應先了解AI系統如何協助勞工提高工作品質、所需技能、工作機會和風險,再決定採用AI系統。 7. 支援受AI影響的勞工:雇主應為受AI影響的勞工提供AI技能和其他職能培訓,必要時應提供組織內的其它工作機會。 8. 負責任使用勞工個資:開發人員和雇主應盡責保護和處理AI系統所蒐集、使用的勞工個資。

TOP