美國FCC針對飛機上使用無線通訊服務之規則展開諮詢

  美國聯邦通信委員會(Federal Communications Commission,FCC)於2013年12月發佈法規命令制訂通知(Notice of proposed rulemaking,NPRM),將制訂規則以允許航空公司在飛機上安全地提供無線通訊服務,FCC並將諮詢公眾建議,考量消費者權益與相關產業影響。目前公布的規則,在公眾諮詢期間後,將放寬航空公司於飛行中提供通訊服務的管制,也包括以前受管制的無線頻段。

  該規則的基本原則是,航空公司必須選擇裝設經過認證的服務設備,以防止飛機與地面通訊的有害干擾,在干擾得以適當控制之下,航空公司將能提供乘客的無線寬頻網路,包括網際網路、電子郵件、文字通訊以及各種類型的語音服務。新管制規則也將提升航空公司機艙內通訊的品質。根據建議,個別航空公司以自律為原則,遵守FCC、美國聯邦航空管理局(FAA)和運輸部(DOT)的規定,決定是否要在飛機上提供行動通訊無線服務,並且決定提供哪些服務。

  如果一家航空公司選擇安裝新的通訊設備,便能提供消費者使用他們的行動裝置的完整通訊功能,航空公司必須公布哪些航班有提供服務、有什麼類型的服務,例如是否允許網路瀏覽、電子郵件、即時通訊等,但不包含語音通話。

  以下簡介FCC本次發佈的規則方向:
1. 開放更多無線頻譜的使用,移除既有的對於飛機上使用無線頻譜的嚴格限制。協調所有商用航空器相關的頻譜與設備的管制規範。
2. 暫不開放語音通訊服務(含傳統語音服務以及網路電話VOIP)。3. 為航空公司使用商用無線頻譜在飛機上提供無線通訊服務,提供新的執照授權。
4. 限制飛行器上裝設之無線通訊設備,必須通過美國運輸不或美國航空管制局(FAA)所認證之設備,以管制機上裝置的發射功率及電力需求。
5. 限制飛機在超過海拔3048公尺(約10,000英尺)以上高度飛行時,提供無線通訊服務的能力。
6. 其他有關法律管制架構、公眾及國家安全,以及潛在的語音服務影響之事項。

相關連結
※ 美國FCC針對飛機上使用無線通訊服務之規則展開諮詢, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?no=55&tp=1&d=6498 (最後瀏覽日:2025/11/16)
引註此篇文章
你可能還會想看
WTO歐盟生技產品案解析(下)

歐盟議會發布《可信賴人工智慧倫理準則》

  2019年4月9日,歐盟議會發布《可信賴人工智慧倫理準則》(Ethics Guidelines for Trustworthy AI)。此次內容大致延續歐盟人工智慧高階專家小組(High-level Expert Group on Artificial Intelligence)於2018年12月18日發布的《可信賴人工智慧倫理準則草案》(Draft Ethics Guidelines for Trustworthy Artificial Intelligence)之內容,要求人工智慧須遵守行善(do good)、不作惡(do no harm)、保護人類(preserve human Agency)、公平(be fair)與公開透明(operate transparency)等倫理原則;並在4月9日發布的正式內容中更加具體描述可信賴的人工智慧的具體要件,共計七面向概述如下: 人類自主性和監控(Human agency and oversight):AI係為強化人類能力而存在,使人類使用者能夠做出更明智的決策並培養自身的基礎能力。同時,AI應有相關監控機制以確保AI系統不會侵害人類自主性或是引發其他負面效果。本準則建議,監控機制應可透過人機混合(一種整合人工智慧與人類協作的系統,例如human-in-the-loop, human-on-the-loop, and human-in-command)的操作方法來實現。 技術穩健性和安全性(Technical Robustness and safety):為防止損害擴張與確保損害最小化,AI系統除需具備準確性、可靠性和可重複性等技術特質,同時也需在出現問題前訂定完善的備援計劃。 隱私和資料治理(Privacy and data governance):除了確保充分尊重隱私和資料保護之外,還必須確保適當的資料治理機制,同時考慮到資料的品質和完整性,並確保合法近用資料為可行。 透明度(Transparency):資料、系統和AI的商業模型應該是透明的。可追溯性機制(Traceability mechanisms)有助於實現這一目標。此外,應以利害關係人能夠理解的方式解釋AI系統的邏輯及運作模式。人類參與者和使用者需要意識到他們正在與AI系統進行互動,並且必須了解AI系統的功能和限制。 保持多樣性、不歧視和公平(Diversity, non-discrimination and fairness):AI不公平的偏見可能會加劇對弱勢群體的偏見和歧視,導致邊緣化現象更為嚴重。為避免此種情況,AI系統應該設計為所有人皆可以近用,達成使用者多樣性的目標。 社會和環境福祉(Societal and environmental well-being):AI應該使包含我們的後代在內的所有人類受益。因此AI必須兼顧永續發展、環境友善,並能提供正向的社會影響。  問責制(Accountability):應建立機制以妥當處理AI所導致的結果的責任歸屬,演算法的可審計性(Auditability)為關鍵。此外,應確保補救措施為無障礙設計。

加拿大安大略省通過修正健康資訊保護法

  加拿大安大略省議會於2016年5月三讀通過修正健康資訊保護法(Health Information Protection Act, HIPA)。該法案藉由一連串措施,包括增加隱私保護、問責制與提升透明度,以提高病人地位。 1.在符合指令定義內,將違反隱私之行為強制性地通報與資訊與隱私專員; 2.強化違反個人健康資訊保護法之起訴流程,刪除必須於犯罪發生之六個月內起訴之規定; 3.個人犯罪最高額罰款提升到50,000元至100,000元,組織則為250,000元至500,000元。   而健康資訊保護法也將更新照護品質資訊保護法(Quality of Care Information Protection Act, QCIPA),有助於提升透明度,以保持醫療系統的品質,更新內容包括: 1.確認病患有權得知其醫療相關資料; 2.釐清不得對關於受影響的病患與家屬保留重要事項之資訊與事實; 3.要求健康與長照部(Minister of Health and Long-Term Care)每五年定期審查照護品質資訊保護法。   安大略省亦正著手研究由專家委員會提出,所有關於提升照護品質資訊保護法所稱重大事故透明度之建議。   藉著透過該目標,將可提供病患更快的醫療,更好的家庭與社區照顧,安大略政府希望可以透過上開手段以保護病患隱私以及加強其資訊透明度。

Google個資隱私權政策違反歐洲資料保護指令,六國將聯合採取法律途徑

  2012年3月Google將世界各地總共60個相異的個人資料隱私權政策統一後,即受到歐盟個人資料保護機構「第29條工作小組」的關注,該小組認為Google修訂後的個人資料隱私權政策違反歐洲資料保護指令(European Data Protection Directive (95/46/CE)),將難以讓使用者清楚知悉其個人資料可能被利用、整合或保留的部分。同時,Google亦可能利用當事人不知情的情況下,大量利用使用者個人資料。因此,2012年10月歐盟要求Google在4個月內對該公司的個人資料隱私權政策未符歐盟規定者提出說明,惟至今Google仍無回應。因此,歐洲6個國家,包括法國、德國、英國、義大利、荷蘭及西班牙的個資監管機構,將聯合審視Google的個人資料隱私權政策是否違反各國的法律,並依據各國法律展開後續措施,如鉅額罰款等。法國之資訊自由國家委員會(Commission nationale de l'informatique et des libertés,簡稱CNIL)率先表示,若Google於4月11日前未改善其資料隱私權政策,法國將首先採取法律行動。然Google對此僅簡單回應,表示其資料隱私政策尊重歐盟的法律,且可以讓Google提供更簡單、更有效率的服務。

TOP