日本「通信‧放送政策懇談會」提出最終報告

  日本總務省召開的「通信放送政策懇談會」,於本月 6 日進行今年第 14 次集會,提出該會之最終報告。


  其中,有關
NTT (日本電信電話公司)之改革,預計於 2010 年解散目前所採行的控股公司架構,將其所掌控的 NTT 東日本、 NTT 西日本(主要經營固接電話以及上網服務),以及 NTT DoCoMo (主要經營行動通訊業務)三者完全分割,成為三間各自獨立的公司;且分割以後以上三者之間的合作關係亦應受到嚴密規制。至於 NHK (日本放送協會)之改革,則計畫釋出一個衛星頻道,兩個廣播頻道,同時娛樂以及體育節目相關部門,以及網路傳輸、國際播送業務等,應與 NHK 之核心業務切割,成立子公司自行獨立經營。


  上開內容雖然是因應通信與放送兩大體系日漸匯流之趨勢而生,惟論者以為勢將引發輿論以及各大政黨之議論甚至反彈;而最終能否納入政府以及執政黨目前正在研擬規劃的施政綱領,仍在未定之天,有待持續追蹤觀察。

相關連結
※ 日本「通信‧放送政策懇談會」提出最終報告, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=561&no=64&tp=1 (最後瀏覽日:2026/02/08)
引註此篇文章
你可能還會想看
美國公民自由聯盟控告兒童線上保護法侵害言論自由

 美國公民自由聯盟(American Civil Liberties Union, ACLU)在挑戰一網際網路審查法案—「兒童線上保護法(Child Online Protection Act, COPA)」的訴訟中獲得勝利。美國公民自由聯盟聲稱,1998年頒布的兒童線上保護法立意雖是為了防止兒童在網際網路上接觸到色情內容,但卻違反了美國憲法,也損害了數以百萬計成年網際網路使用者的言論自由。這個案件被視為對網路言論自由限度的重要檢測指標。 該法案中要求所有商業網站在允許使用者瀏覽那些有害未成年人的內容時,必須以信用卡號碼或其他方式來證明使用者的年紀。此外,在該法案中,那些製造有害未成年人內容的業者每日必須支付最高五萬美元的罰款,以及最多六個月的牢獄之災。美國公民自由聯盟認為,該法案有效杜絕色情網頁的比例甚至不到五成,而最高法院也表示,如可透過像過濾軟體或類似技術來達到防止未成年人接觸網路色情內容的目的,則法律限制的必要性則有待商榷。

美國國會眾議院發布數位資產市場結構法案討論稿,期望建立明確監管框架

隨著加密資產與區塊鏈技術的迅速發展,美國國會眾議院於2025年5月5日提出《數位資產市場結構法案討論稿》(Digital Asset Market Structure Discussion Draft),旨在制定新法並同時修改多部美國聯邦金融法規,以建立數位資產的清晰監管框架,期促進美國數位資產市場創新、投資人保障與維護市場公平,其討論重點如下: 1. 數位資產定義與監管職權劃分:於證券法(Securities Act)與商品交易法(Commodity Exchange Act)新增大量關於數位資產的定義,並明確劃分證券交易委員會(Securities and Exchange Commission, SEC)與商品期貨交易委員會(Commodity Futures Trading Commission, CFTC)的監管界線。 2. 去中心化金融(Decentralized Finance, DeFi)、穩定幣與成熟區塊鏈系統的豁免機制:成熟區塊鏈系統、受核准的支付型穩定幣(Permitted Payment Stablecoins)與特定DeFi活動(如:驗證交易、提供用戶介面等)得排除法令適用,為區塊鏈項目提供更彈性的監管途徑。 3. 市場參與者註冊要求:規定數位商品交易所、經紀商、交易商之市場參與者,應向CFTC註冊之相關要求,遵循包含資本規範、客戶資金隔離、交易監控、報告義務等原則,以提升市場透明度和投資者保護。 4. 數位資產領域研究:要求SEC與CFTC應設立金融創新辦公室(Offices of Financial Innovation) 和創新實驗室(LabCFTC),進行多項關於數位資產領域的研究,包含DeFi、金融市場基礎設施之改善等,以提供監管機構新興技術資訊。

歐盟執委會公布《可信賴的AI政策及投資建議》

  歐盟執委會於2018年6月成立人工智慧高級專家組(The High-Level Expert Group on Artificial Intelligence, AI HLEG),主要負責兩項工作:(1)人工智慧倫理準則;(2)人工智慧政策與投資建議。並於2019年4月8日提出《可信賴的人工智慧倫理準則》(Ethics Guidelines for Trustworthy AI),2019年6月公布之《可信賴的AI政策及投資建議》(Policy and Investment Recommendations for Trustworthy Artificial Intelligence)則是人工智慧高級專家組所交付之第二項具體成果。   該報告主要分為兩大部分,首先第一部分是要透過可信賴的人工智慧建立對歐洲之正面影響,內容提及人工智慧應保護人類和社會,並促進歐洲公司各部門利用人工智慧及技術移轉,而公部門則扮演人工智慧增長及創新之催化劑,以確保歐洲具有世界一流之研究能力;第二部分則是影響歐洲各成員國建立可信賴之人工智慧,內容則提及將發展人工智慧相關基礎設施、教育措施、政策規範及資金投資,同時合法、有道德的使用各項數據。   在本報告中關於法規面的建議則是進一步制定政策和監管框架,確保人工智慧在尊重人權、民主及創新下發展,因此將建立人工智慧政策制定者、開發者及用戶間的對話機制,若是遇到將對社會或是人類產生重大影響之敏感性人工智慧系統,除透過歐洲人工智慧聯盟(The European AI Alliance)進行對話之外,也需要在尊重各成員國之語言及文化多樣性下展開協調機制。另外,報告中也特別提到如果政府以「保護社會」為由建立一個普遍的人工智慧監督系統是非常危險的作法,政府應該承諾不對個人進行大規模監視,並在遵守法律及基本權利下進行人工智慧系統之發展。

敏感科技保護

  「敏感科技」的普遍定義,係指若流出境外,將損害特定國家之安全或其整體經濟競爭優勢,具關鍵性或敏感性的高科技研發成果或資料,在部分法制政策與公眾論述中,亦被稱為關鍵技術或核心科技等。基此,保護敏感科技、避免相關資訊洩漏於國外的制度性目的,在於藉由維持關鍵技術帶來的科技優勢,保護持有該項科技之國家的國家安全與整體經濟競爭力。   各國立法例針對敏感科技建立的技術保護制度框架,多採分散型立法的模式,亦即,保護敏感科技不致外流的管制規範,分別存在於數個不同領域的法律或行政命令當中。這些法令基本上可區分成五個類型,分別為國家機密保護,貨物(技術)之出口管制、外國投資審查機制、政府資助研發成果保護措施、以及營業秘密保護法制,而我國法亦是採取這種立法架構。目前世界主要先進國家當中,有針對敏感科技保護議題設立專法者,則屬韓國的「防止產業技術外流及產業技術保護法」,由產業技術保護委員會作為主管機關,依法指定「國家核心科技」,但為避免管制措施造成自由市場經濟的過度限制,故該法規範指定應在必要的最小限度內為之。

TOP