日本公布《行動通信領域的基礎設施共享,於電信事業法及電波法的適用關係指引》

  隨著具有高速大容量特性的第五代行動通訊(5G)技術啟用,如何促使發射射頻(Radio frequency, RF)的基地臺能夠達到小型化及多點化的目標,將是未來重要的課題。但在地理空間限制、景觀影響與法規限制等因素下,除了增設基地臺外,也可考慮「基礎設施共享」(Infrastructure Sharing)的概念。

  日本總務省於2018年12月28日公布《行動通訊領域的基礎設施共享-電信事業法及電波法的適用關係指引》(移動通信分野におけるインフラシェアリングに係る電気通信事業法及び電波法の適用関係に関するガイドライン)。

  本指引主要從「利用基礎設施共享,推動行動通訊網絡整備」的觀點出發,首先定義「基礎設施共享事業」之範圍與型態,其將基礎設施分為兩類,一類為土地和建物、鐵塔等工作物、另一類為電信設備(如天線、增幅器、調變器)。接著說明基礎設施分享業者在使用上述兩類基礎設施時,於電信事業法及電波法之適用。具體內容包含欲經營該事業之必要程序、業者向行動通訊業者提供基礎設施時簽訂的契約類型、提供基礎設施的條件,最後說明若行動通訊業者、電信業者等各業者間,無法就欲共享的基礎設施使用權達成共識時,相關的爭議處理流程。本指引最後亦說明各業者在使用土地和建物、鐵塔等工作物,以及電信設備時的共通措施。

本文為「經濟部產業技術司科技專案成果」

相關附件
※ 日本公布《行動通信領域的基礎設施共享,於電信事業法及電波法的適用關係指引》, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8266&no=55&tp=1 (最後瀏覽日:2026/05/14)
引註此篇文章
你可能還會想看
英HFEA同意該國婦女利用PGD技術「訂製嬰兒」

  現今生殖醫學進步相當快速,透過諸如胚胎殖入前之基因診斷( PGD )、組織配對( tissue match )等新興生物技術,人們將有能力選擇未來孩子的外表、智力、健康甚至性別等,故就現今的科技發展而言,篩選具有某種特徵之嬰兒的技術能力早已具備,反而是相關的倫理、道德及社會共識等等卻是最難的部分,這也是有關「訂製嬰兒」( design babies )之爭議焦點。   近幾年,訂製嬰兒的討論在英國非常熱烈,在英國,人工生殖之進行應依人工生殖與胚胎學法規定,獲得 「人類生殖與胚胎管理局」 ( Human Fertilization and Embryology Authority, HFEA )之許可,至於進行人工生殖之同時,父母親是否得附加進一步的條件以「訂製嬰兒」,則一直有爭議。英國高等法院在 2002 年 12 月 20 日的一項判決中曾認為,國會制訂人工生殖與胚胎學法之目的,乃是在協助不孕婦女能夠生兒育女,至於組織配對的行為,則不在該法授權目的之內,因此 HFEA 無權就此等行為給予准駁。惟 2003 年 4 月 8 日 ,上訴法院推翻了高等法院的判決結果,但也進一步指出,這並不代表未來所有在進行 PGD 的同時加做組織配對之行為都是被允許的,想要施行這項技術之任何人,仍然需於事前取得 HFEA 的許可,新近 HFEA 已放寬管制規範,准許對更多種遺傳性疾病進行篩檢。   英國泰晤士報最近報導,一名英國女子已獲得英國 HFEA 同意 ,讓醫師將其透過體外受精方式培養出來的胚胎,利用基因篩檢技術,選擇出健康之胚胎植入其子宮內,以避免將她所罹患的遺傳性眼癌「視網膜母細胞瘤」基因傳給下一代。   本案婦女雖經 HFEA 同意「訂製嬰兒」,但仍會使「胚胎殖入前之基因診斷」( PGD )程序的爭議加劇,反對人士堅稱,基因篩檢的過程中勢必摧毀部分胚胎,且 為了某些目的而製造胚胎,將使人類被商品化,被訂製之嬰兒在長大成人後,若得知其出生之目的乃是在於治療其它親人,其心裡會對自己產生懷疑,並影響對自己人格的認同與其心理狀態。隨著生物技術發展飛快,許多可能背離社會良俗的行為恐將不斷出現,而法規能否隨之跟上則是生技產業能否興盛與倫理道德可否兼顧之重要關鍵。

德國法院針對GEMA控告YouTube判決出爐

  德國漢堡地方法院4月20日針對GEMA控告YouTube一案作出判決(Az. 310 O 461/10),確認影片平台業者著作權法上之義務,預料將為兩造授權金協議過程的僵局,造成一定影響。   本案原告GEMA主張被告YouTube應採取措施,阻止其享有權利之12個影音檔案,繼續透過YouTube平台在德國境內流通。而本案的爭點即在於:對於YouTube平台上由網友上傳、且涉嫌侵害著作權的影片內容,被告移除及防止侵害的責任範圍究竟多大。   本案法院認為,因被告本身並非將違法內容上傳之行為人,無法以德國電信服務法(TMG)第7條規定,課予其侵權行為人責任(Täterhaftung)。但被告因提供、經營平台,對著作權侵害有所「貢獻」,故法院依TMG第10條規定,認定被告YouTube僅在知悉特定侵權情事的情況下,才負擔移除或阻斷網路接取的義務;而當平台業者收到著作權侵害的通知後,便須立即阻斷涉嫌侵權的影片,並採取合理的措施,防止侵權行為再發生。然而,法院也強調,平台業者只負擔「合理」的檢查及管控義務,故平台業者毋須逐一檢視所有已上傳的影片。   按本案法院見解,所謂合理的措施,包括YouTube須利用其所研發的「內容識別系統Content-ID」,防止特定的侵權內容再次發生。另YouTube也負擔加裝文字過濾軟體的義務,以杜絕含有特定標題或關鍵字之影片上傳至平台。   據了解,雙方均發表聲明對此判決結果表示肯定。除原告得以主張其所享有的著作權外,YouTube也認為法院明確界定影視平台業者應作為的義務範圍。但對原告GEMA來說,重點在如何透過訴訟程序對YouTube施壓,重啟授權金的談判。兩造後續對長久來授權金計算公式的歧異將如何達成共識,值得關注。

美國最高法院認定州政府得對電商業者課徵銷售稅

  美國最高法院在今(2018)年1月12日決定接受南達科塔州的上訴,就South Dakota v. Wayfair一案(下稱Wayfair案)進行審理,以決定州政府是否有權對網路零售業者課徵銷售稅。依據最高法院在1992年Quill v. North Dakota (下稱Quill案)所確立之原則,若網路零售商在該州無實體呈現 (physical presence),州政府即不得對該零售商向該州居民所銷售之貨物課徵銷售稅。   在1992年Quill案中,最高法院認為州政府對於遠距零售者(remote retailer)課稅,將違反潛在商務條款(dormant commerce clause),理由是對於無具體呈現的零售商課稅,將使其面對許多不同的課稅管轄權,造成零售商巨大的負擔,並增加州際商務的複雜性。南達科塔州認為科技的進步已使得零售商商所面臨課稅的複雜度降低,故在2016年通過法案對無實體呈現之電商業者課稅,因而引發相關爭訟。   本案在今年6月21日宣判由南達科塔州勝訴,判決指出隨著電子商務的成長及資訊科技的進步,課稅並不如過往會對業者造成具大的負擔,同時也可滿足正當程序與潛在商務條款的要求;此外,Quill案將會造成市場的扭曲,其所造成的稅捐保護傘將對具有實體呈現的業者造成不公平的競爭。因此認定Quill案已難以適用於現在的電子商務市場。   但本案仍有四位大法官反對,認為應由國會立法來糾正此一錯誤。因為國會並未明確授權州政府可對跨州零售交易課稅,因此才有潛在商務條款的適用,換言之,國會實際擁有立法授與各州徵收遠距交易之權力,在115期國會當中,也已經有相關的法案被提出,包括Remote Transaction Parity Act of 2017 (H.R. 2193)、Marketplace Fairness Act of 2017 (S.976)。在最高法院完成此一判決後,後續可繼續觀察美國國會是否會以立法的方式,授與州政府對跨州商業貿易課徵租稅。

美國OMB發布人工智慧應用監管指南備忘錄草案

  美國行政管理預算局(United States Office of Management and Budget, OMB)於2020年1月發布「人工智慧應用監管指南(Guidance for Regulation of Artificial Intelligence Applications)」備忘錄草案。該備忘錄草案係基於維護美國人工智慧(AI)領導地位之目的,而依據美國總統川普(Donald John Trump)於2019年2月簽署之「維持美國人工智慧領導地位(Maintaining American Leadership in Artificial Intelligence)─行政命令13859號」,並在啟動美國人工智慧計畫後180天內,經OMB偕同科技政策辦公室(Office of Science and Technology Policy, OSTP)、美國國內政策委員會(United States Domestic Policy Council)與美國國家經濟委員會(National Economic Council)與其他相關機構進行協商,最後再由OMB發布人工智慧應用監管指南備忘錄草案,以徵詢公眾意見。   該備忘錄草案不僅是為了規範新型態AI應用技術,更希望相關的聯邦機構,在制定AI應用產業授權技術、監管與非監管方法上,能採取彈性的制定方向,以避免過度嚴苛的規定,反而阻礙AI應用的創新與科技發展,繼而保護公民自由、隱私權、基本權與自治權等價值。同時,為兼顧AI創新與政策之平衡,應以十大管理原則為規範制定之依據,十大管理原則分別為: 培養AI公眾信任(Public Trust in AI); 公眾參與(Public Participation); 科學研究倫理與資訊品質(Scientific Integrity and Information Quality); AI風險評估與管理(Risk Assessment and Management); 獲益與成本原則(Benefits and Costs); 彈性原則(Flexibility); 公平與反歧視(Fairness and Non-Discrimination); AI應用之揭露與透明化(Disclosure and Transparency); AI系統防護與措施安全性(Safety and Security); 機構間之相互協調(Interagency Coordination)。   此外,為減少AI應用之阻礙,機構制定AI規則時,應採取降低AI技術障礙的方法,例如透過聯邦資料與模型方法來發展AI研發(Federal Data and Models for AI R&D)、公眾溝通(Communication to the Public)、自發性共識標準(Voluntary Consensus Standards)之制定及符合性評鑑(Conformity Assessment)活動,或國際監管合作(International Regulatory Cooperation)等,以創造一個接納並利於AI運作的環境。

TOP