歐盟發布頻譜政策公眾諮詢書

  於今年 5 月中旬,歐盟無線頻譜政策小組 ( Radio Spectrum Policy Group ,以下簡稱 RSPG ) 對於是否允許使用用以提供廣播電視服務之頻段,提供多媒體服務 (multimedia services) 一事,表示意見並徵詢共眾意見,而所稱的多媒體服務係指於行動通信環境中,提供結合傳統廣播 ( 一對多 ) 以及通訊 ( 點對點 ) 的服務。於此次的公眾意見諮詢書中, RSPG 表示此次意見諮詢的目的旨在促進多媒體服務的提供,但亦指出多媒體服務的發展不應扭曲頻譜的整體使用規劃以及市場競爭。除此之外,亦不應與歐盟各會員國境內以促進文化及媒體多元化之媒介內容規範相左。而就如何導入多媒體服務一事, RSPG 考量核發新執照,或是重新檢視現有的執照制度,以允許業者得使用頻譜提供多媒體服務。此次的公眾意見諮詢將於 6 14 結束,其發展有待未來更進一步的觀察。

相關連結
※ 歐盟發布頻譜政策公眾諮詢書, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=559&no=67&tp=1 (最後瀏覽日:2026/01/22)
引註此篇文章
你可能還會想看
日本經產省修正《輸出貿易管理令》對南韓出口之電子原料實施嚴格管制審查

  2019年7月1日,日本經產省依據《外匯及對外貿易法(以下簡稱外匯法)》,對於產品技術的輸出與輸入進行適當之進出口管制,要求日本國內向南韓進行輸出之行為,必須通過嚴格的出口管制審查。日本經產省表示,進出口管制制度係建構在國際信賴關係的基石之上,近年來有相關產品技術輸出南韓管制不當之案例,已造成日韓兩國間信賴關係嚴重損害(例如二戰強徵勞動力的訴訟案件爭議,以及日本提供的材料可能從南韓非法轉運至北韓、被轉為軍事用途之風險等),故提出兩項政策以為反制,包括將南韓從白色國家名單移除,及提升對南韓出口管制審查標準等,具體說明如下。 1.修正日本對南韓之輸出貿易管理列表   基於《外匯法》第48條,擬修正外匯法之政令《輸出貿易管理令》附件三類別表,將南韓從日本安全保障、友好貿易夥伴的「白色國家」列表中刪除,透過監管改革嚴格審查對南韓的出口管制制度。 2.針對向南韓出口之電子原料實施嚴格管制審查與核發特定出口許可證   自2019年7月4日起,針對日本向南韓出口的三項半導體關鍵電子原料,含氟聚醯亞胺(Fluorine Polyimide)、光阻劑(Resist)、蝕刻氣體(Eatching Gas)以及轉讓相關連的製造技術等,均被排除於綜合出口許可證制度範圍外,須額外單獨申請特定出口許可證並進行出口審查。   針對日本管制措施,南韓產業通商資源部(Ministry of Trade, Industry and Energy, MOTIE)表示強烈抗議,認為日本在未提供任何具體證據的情況下逕行對南韓實施出口管制,並將南韓從白色國家名單中刪除,已違反WTO自由與公平貿易原則(Free and Fair Trade),構成貿易壁壘與歧視性差別待遇,嚴重威脅日韓經濟夥伴關係,恐將引發兩國企業及全球產業供應鏈動盪,對自由貿易造成負面影響。南韓政府已強烈要求日本取消對於出口管制的不公平措施,撤銷將南韓從白色國家名單移除之《輸出貿易管理令》修正案,同時積極尋求聯合國安全理事會介入調查。

再工業化!?美國推動先進製造知基礎法制政策研析

美國科羅拉多州通過《人工智慧消費者保護法》

2024年5月17日,科羅拉多州州長簽署了《人工智慧消費者保護法》(Consumer Protections for Artificial Intelligence Act,Colorado AI Act,下簡稱本法),其內容將增訂於《科羅拉多州修訂法規》(Colorado Revised Statutes,簡稱CRS)第6篇第17部分,是美國第一部廣泛對AI規範的法律,將於2026年2月1日生效。 本法旨在解決「高風險人工智慧系統」的演算法歧視(Algorithmic Discrimination)的問題 ,避免消費者權益因為演算法之偏見而受到歧視。是以,本法將高風險AI系統(High-risk Artificial Intelligence System)定義為「部署後作出關鍵決策(Consequential Decision)或在關鍵決策中起到重要作用的任何AI系統」。 而後,本法藉由要求AI系統開發者(Developers)與部署者(Deployers)遵守「透明度原則」與「禁止歧視原則」,來保護消費者免受演算法歧視。規定如下: (一)系統透明度: 1.開發者應向部署者或其他開發者提供該系統訓練所使用的資料、系統限制、預期用途、測試演算法歧視之文件以及其他風險評估文件。 2.部署者應向消費者揭露高風險人工智慧系統的預期用途,也應在高風險人工智慧系統做出決策之前向消費者提供聲明,聲明內容應該包含部署者之聯絡方式、該系統的基本介紹、部署者如何管理該系統可預見之風險等資訊。 (二)禁止歧視: 1.開發者應實施降低演算法歧視之措施,並應協助部署者理解高風險人工智慧系統。此外,開發者也應該持續測試與分析高風險人工智慧系統可能產生之演算法歧視風險。若開發者有意修改該系統,應將更新後的系統資訊更新於開發者網站,並須同步提供給部署者。 2.部署者應該實施風險管理計畫,該風險管理計畫應包含部署者用於識別、紀錄降低演算法歧視風險之措施與負責人員,且風險管理計畫應定期更新。在制定風險管理計畫時,必須參考美國商務部國家標準暨技術研究院(National Institute of Standards and Technology, NIST)的《人工智慧風險管理框架》(AI Risk Management Framework, AI RMF 2.0)與ISO/IEC 42001等風險管理文件。 美國普遍認為科羅拉多州的《人工智慧消費者保護法》為目前針對人工智慧系統最全面之監管法規,可作為其他州有關人工智慧法規的立法參考,美國各州立法情況與作法值得持續關注。

英國資訊委員辦公室(Information Commissioner’s Office,ICO)認定Uber違反《Data Protection Act 1998》資料保護法

  英國資訊委員辦公室(Information Commissioner’s Office,ICO)認定知名共享公司Uber未能在網路攻擊期間保護客戶的個人資料,故處以罰款385,000英鎊。   ICO調查發現Uber的諸多過失,包含系統存有一系列原可避免的數據安全漏洞,使得攻擊者可透過Uber美國母公司旗下所營運的雲端儲存系統,下載大約270萬筆英國客戶個人資料,例如全名、電子郵件及電話號碼等。該事件亦影響了Uber在英國8萬多名司機的相關營運紀錄,如旅程詳情及支付金額。然而,受影響的客戶和司機竟達一年多未被告知此個資外洩事故。相反的,Uber反而向攻擊者妥協並支付了10萬美元,以銷毀被盜取的數據。   ICO認為,這不僅為Uber資料安全之問題,且當時未採取任何措施通知可能受影響的人,或對其提供任何協助,已完全忽視受害客戶和司機之權益。而對攻擊者支付贖金後即保持沉默,亦非對於網路攻擊之適當反應,Uber未完善的數據保護措施,以及隨後的決策與行為,反將可能會加劇受害者權益的受損。   因此,ICO認為該事件已嚴重違反了英國1988年資料保護法(Data Protection Act 1998, DPA)第7條的原則,有可能使受影響的客戶和司機面臨更高的詐欺風險,故從嚴判處Uber高達385,000英鎊罰款。

TOP