歐盟執委會通過《歐洲媒體自由法》草案

  歐盟執委會(European Commission,下稱執委會)於2022年9月16日通過《歐洲媒體自由法(European Media Freedom Act)》草案,旨在保護歐盟媒體多元化和獨立性。其立法目標一方面確保媒體多元化與編輯獨立性,讓歐盟公民能夠獲得廣泛且多樣的媒體服務。另一方面防止成員國對媒體的政治干預,要求以公平、公正、公開方式分配國家資源。此外,執委會建議成立歐洲媒體服務委員會作為媒體自由主管機關。

  《媒體自由法》要點如下:
  1.保護編輯獨立性:要求成員國尊重媒體服務提供商的編輯自由,並加強對新聞來源的保護,防止媒體決策受政治干擾。
  2.不得對媒體使用間諜或監視軟體:包括針對媒體、記者及其家人使用。
  3.獨立的公共服務媒體:其資金應充足且穩定,以確保編輯獨立。負責人和理事會必須以透明、公開和非歧視的方式任命。公共服務媒體提供者應當根據其公共服務使命,公正地提供多種訊息和意見。
  4.媒體多元化測試:要求成員國評估媒體市場集中度對媒體多元化和編輯獨立性的影響。成員國採取的任何可能影響媒體的立法、監管或行政措施都應有正當理由。
  5.透明的國家廣告:公開透明的國家廣告資源分配與受眾衡量系統(audience measurement)。該法特別關注數位廣告之收入。
  6.線上媒體內容的保護:以《數位服務法》為基礎,該法包括防止不合理刪除合法的媒體內容。在不涉及虛假訊息的情況下,大型數位平臺有意移除某些被認為違反平臺政策的合法媒體內容時,必須告知原因,媒體提出的任何投訴都必須優先處理。
  7.使用者自行定制媒體偏好:用戶能更改默認設置以反映自己的偏好。
  8.提高媒體所有權的透明度

  本文同步刊登於TIPS網站(https://www.tips.org.tw

※ 歐盟執委會通過《歐洲媒體自由法》草案, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8881&no=64&tp=1 (最後瀏覽日:2026/04/02)
引註此篇文章
你可能還會想看
歐盟議會發布《可信賴人工智慧倫理準則》

  2019年4月9日,歐盟議會發布《可信賴人工智慧倫理準則》(Ethics Guidelines for Trustworthy AI)。此次內容大致延續歐盟人工智慧高階專家小組(High-level Expert Group on Artificial Intelligence)於2018年12月18日發布的《可信賴人工智慧倫理準則草案》(Draft Ethics Guidelines for Trustworthy Artificial Intelligence)之內容,要求人工智慧須遵守行善(do good)、不作惡(do no harm)、保護人類(preserve human Agency)、公平(be fair)與公開透明(operate transparency)等倫理原則;並在4月9日發布的正式內容中更加具體描述可信賴的人工智慧的具體要件,共計七面向概述如下: 人類自主性和監控(Human agency and oversight):AI係為強化人類能力而存在,使人類使用者能夠做出更明智的決策並培養自身的基礎能力。同時,AI應有相關監控機制以確保AI系統不會侵害人類自主性或是引發其他負面效果。本準則建議,監控機制應可透過人機混合(一種整合人工智慧與人類協作的系統,例如human-in-the-loop, human-on-the-loop, and human-in-command)的操作方法來實現。 技術穩健性和安全性(Technical Robustness and safety):為防止損害擴張與確保損害最小化,AI系統除需具備準確性、可靠性和可重複性等技術特質,同時也需在出現問題前訂定完善的備援計劃。 隱私和資料治理(Privacy and data governance):除了確保充分尊重隱私和資料保護之外,還必須確保適當的資料治理機制,同時考慮到資料的品質和完整性,並確保合法近用資料為可行。 透明度(Transparency):資料、系統和AI的商業模型應該是透明的。可追溯性機制(Traceability mechanisms)有助於實現這一目標。此外,應以利害關係人能夠理解的方式解釋AI系統的邏輯及運作模式。人類參與者和使用者需要意識到他們正在與AI系統進行互動,並且必須了解AI系統的功能和限制。 保持多樣性、不歧視和公平(Diversity, non-discrimination and fairness):AI不公平的偏見可能會加劇對弱勢群體的偏見和歧視,導致邊緣化現象更為嚴重。為避免此種情況,AI系統應該設計為所有人皆可以近用,達成使用者多樣性的目標。 社會和環境福祉(Societal and environmental well-being):AI應該使包含我們的後代在內的所有人類受益。因此AI必須兼顧永續發展、環境友善,並能提供正向的社會影響。  問責制(Accountability):應建立機制以妥當處理AI所導致的結果的責任歸屬,演算法的可審計性(Auditability)為關鍵。此外,應確保補救措施為無障礙設計。

經濟部技術處研究機構智慧財產管理制度評鑑與台灣智慧財產管理規範(TIPS)驗證內容比較

台灣智慧財產管理規範(TIPS)之發展與現況

英國期望透過資料使用與近用法案修正案,強化數位證據資料之可信任性

英國於2024年11月提出資料使用與近用法案(Data (Use and Access) Bill)修正案,其修正內容包含強化數位證據資料之可信任性。 根據英國數十年來的法院判決,可以觀察到英國法院信任電腦自動產出的資料,因此除非當事人提出反證,否則將推定電腦證據是可信賴的。然而,該見解導致英國爭議案件「郵局Horizon系統出錯案」的發生,亦促使資料使用與近用法案修正案的提出。 資料使用與近用法案修正案於第132條新增與數位證據相關的條款,同條第1項規定由電腦、裝置或電腦系統產生的數位證據,符合下列規定者,於訴訟程序中可以作為證據。 a、 數位證據以及產生數位證據或衍生數位證據之系統之可信任性未受質疑。 b、 法院確信無法合理地挑戰系統之可信任性。 c、 法院確信數位證據源自可信任的系統。 此外,同條第4項規定第1項第c款所指之可信任的系統,應包括適用於系統運作的任何指示或規則,以及為確保系統中保存的資料的完整性而採取的任何措施。 綜上所述,英國逐漸扭轉過去英國法院認為由電腦自動產生的資料具有可信任性之見解,並透過資料使用與近用法案修正案修正對於數位證據的認定,未來在涉及數位證據的案件中,檢辯雙方需要證明作為數位證據的資料完整性具有可信任性。 我國企業如欲強化數位資料的可信任性,可參考資訊工業策進會科技法律研究所創意智財中心所發布之重要數位資料治理暨管理制度規範(EDGS),建立並落實數位資料管理流程,除可確保數位資料的完整性及正確性具有可信任性,亦可提升法院採納數位資料作為證據之可能性。 本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。 本文同步刊登於TIPS網站(https://www.tips.org.tw) .Pindent{text-indent: 2em;} .Noindent{margin-left: 2em;} .NoPindent{text-indent: 2em; margin-left: 2em;} .No2indent{margin-left: 3em;} .No2Pindent{text-indent: 2em; margin-left: 3em} .No3indent{margin-left: 4em;} .No3Pindent{text-indent: 2em; margin-left: 4em}

TOP