英國通訊管理局對於低軌衛星之加強監管提交公眾諮詢

  英國通訊管理局(Ofcom)於2021年7月26日提出「非同步衛星系統之執照更新」報告(Non-geostationary satellite systems: Licensing updates),表示若未能積極管理Amazon、OneWeb、SpaceX及Telesat等業者之低地球軌道衛星星座(satellite constellation)的通訊服務,後續恐會有局部干擾的疑慮,降低既有網路的通訊品質及可靠性,以及產生限制競爭的問題。

  因此,Ofcom規劃調整衛星執照之許可制度,並向各界徵求諮詢意見。有關新的衛星執照修正重點包括:

1.衛星執照細部項目:將再細分成「終端設備」(user terminals)及「系統閘道站」(gateway)兩種許可證。

(1)衛星終端設備許可證:允許使用非同步衛星系統之終端設備,例如在用戶端安裝碟型天線及設備,但必須係衛星營運商所有。

(2)衛星系統閘道站許可證:授權設置地面閘道站,以作為衛星網路連結到網際網路、專用網路或雲端服務的大型樞紐(hub)。

2.執照申請審查程序:Ofcom將確保系統間可以共存而不會降低服務品質;避免執照取得者會對後續各方進入市場產生競爭限制;以及提供利害關係人評論期間,以便反映有關干擾或競爭之潛在風險。

3.附加許可條件:要求營運商之間進行技術合作;讓行政機關在必要時介入管理干擾案件,以確保英國消費者權益。

相關連結
相關附件
※ 英國通訊管理局對於低軌衛星之加強監管提交公眾諮詢, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?no=55&tp=1&i=180&d=8716 (最後瀏覽日:2024/05/06)
引註此篇文章
你可能還會想看
英國無線電頻譜管理改革政策(下)--風險評估與對策

日本成立供應鏈資通安全聯盟(Supply Chain Cybersecurity Consortium)

  日本經濟產業省(下稱經產省)於2020年6月12日發布其國內產業資通安全現況與將來對策(昨今の産業を巡るサイバーセキュリティに係る状況の認識と、今後の取組の方向性)報告,指出近期針對供應鏈資通安全弱點企業所展開的攻擊,有顯著增長趨勢。為此,該報告建議共組供應鏈的企業間,應密切共享資訊;於關鍵技術之相關資訊有外洩之虞時,應向經產省提出報告;若會對多數利害關係人產生影響,並應公開該報告。遵循該報告之建議要旨,同年11月1日在各產業主要的工商團體引領下,設立了「供應鏈資通安全聯盟(原文為サプライチェーン・サイバーセキュリティ・コンソーシアム,簡稱SC3)」,以獨立行政法人資訊處理推進機構(独立行政法人情報処理推進機構,IPA)為主管機關。其目的在於擬定與推動供應鏈資通安全之整體性策略,而經產省則以觀察員(オブザーバー)的身分加入,除支援產業界合作,亦藉此強化政府與業界就供應鏈資通安全議題之對話。   只要贊同上述經產省政策方向與聯盟方針,任何法人或個人均得參加SC3。針對產業供應鏈遭遇資安攻擊的問題,經產省與IPA已有建構「資通安全協助隊(サイバーセキュリティお助け隊)」服務制度(以下稱協助隊服務),邀集具相關專長之企業,在其他企業遭遇供應鏈資安攻擊時,協助進行事故應變處理、或擔任事故發生時之諮詢窗口。而SC3則規畫為這些參與提供協助隊服務的企業建立審查認證制度。其具體任務包含擬定認證制度的審查基準草案、以及審查機關基準草案,提供IPA來建構上述基準。依該制度取得認證的企業,將獲授權使用「資通安全協助隊」的商標。同時在業界推廣協助隊服務制度,讓取得認證的中小企業得以之為拓展其業務的優勢與宣傳材料。

IBM提出「人工智慧日常倫理」手冊作為研發人員指引

  隨著人工智慧快速發,各界開始意識到人工智慧系統應用、發展過程所涉及的倫理議題,應該建構出相應的規範。IBM於2018年9月02日提出了「人工智慧日常倫理」(Everyday Ethics for Artificial Intelligence)手冊,其以明確、具體的指引做為系統設計師以及開發人員間之共同範本。作為可明確操作的規範,該手冊提供了問責制度、價值協同、可理解性等關注點,以促進社會對人工智慧的信任。 一、問責制度(Accountability)   由於人工智慧的決策將作為人們判斷的重要依據,在看似客觀的演算系統中,編寫演算法、定義失敗或成功的程式設計人員,將影響到人工智慧的演算結果。因此,系統的設計和開發團隊,應詳細記錄系統之設計與決策流程,確保設計、開發階段的責任歸屬,以及程序的可檢驗性。 二、價值協同(Value Alignment)   人工智慧在協助人們做出判斷時,應充分考量到事件的背景因素,其中包括經驗、記憶、文化規範等廣泛知識的借鑑。因此系統設計和開發人員,應協同應用領域之價值體系與經驗,並確保演算時對於跨領域的文化規範與價值觀之敏感性。同時,設計師和開發人員應使人工智慧系統得以「了解並認知」用戶的價值觀,使演算系統與使用者之行為準則相符。 三、可理解性(Explainability)   人工智慧系統的設計,應盡可能地讓人們理解,甚至檢測、審視它決策的過程。隨著人工智慧應用範圍的擴大,其演算決策的過程必須以人們得以理解的方式解釋。此係讓用戶與人工智慧系統交互了解,並針對人工智慧結論或建議,進而有所反饋的重要關鍵;並使用戶面對高度敏感決策時,得以據之檢視系統之背景數據、演算邏輯、推理及建議等。   該手冊提醒,倫理考量應在人工智慧設計之初嵌入,以最小化演算的歧視,並使決策過程透明,使用戶始終能意識到他們正在與人工智慧進行互動。而作為人工智慧系統設計人員和開發團隊,應視為影響數百萬人甚至社會生態的核心角色,應負有義務設計以人為本,並與社會價值觀和道德觀一致的智慧系統。

美國聯邦航空總署對外公布「無人機運行執法方針」

  近年來隨著科技進步,市面上無人飛行載具(Unmanned Aerial Vehicles, UAS,簡稱無人機)產品與相關應用蓬勃興起,為規範相關運行秩序,美國聯邦航空總署(the Federal Aviation Administration, FAA)於2015年1月8日公布了「無人機運行執法方針」(Law Enforcement Guidance for suspected unauthorized UAS Operations),並呼應美國眾議院所曾表達關切,建議應儘速公布美國無人機立法監管架構,以避免許多相關研發技術公司出走海外的不利發展。   FAA該執法方針,先指出實務上,目前以FAA為實際執法單位所面臨的困難,並徵募各州地方警力協助,以進行實際執法行動。由於FAA經常無法立即趕到並處理無人機事件發生地點,然而透過各州地方警力,對於攔阻未經授權或不安全的無人機活動,具有較佳的嚇阻、偵測、立即調查,以及採取適當執法行動的優勢。   因此,FAA執法方針指示州地方警力,應於未經授權的無人機活動事件發生處,採取以下措施:1. 認明並面詢目擊者;2. 鑑別操作可疑無人機活動者;3. 錄下其活動影像並繪製無人機使用之位置與情況;4. 辨識該區域限制航空範圍;5. 立即通知FAA;6. 蒐集證據。   目前美國有關無人機相關規範,僅有現代化及改革法(Modernization and Reform Act)第333條下,批准無人機具有豁免權之14項適用領域,如閉集錄影(closed-set filming)、空中調查工作、監控建築物地點、調查有關離岸鑽油平台、具農業目的等作業項目,並涵蓋相關具體應遵循之規範;所以美國後續亟待制訂更多相關遵守規範,以利產業界遵循,FAA預計於2015年底公布55磅以下無人機的規章制度,並受國會要求將於9月將無人機監管規章整合至美國領空管理系統(National Airspace System),相關規範內容待持續追蹤觀察。

TOP