美國聯邦通信委員會(Federal Communications Commission,FCC)於2013年12月發佈法規命令制訂通知(Notice of proposed rulemaking,NPRM),將制訂規則以允許航空公司在飛機上安全地提供無線通訊服務,FCC並將諮詢公眾建議,考量消費者權益與相關產業影響。目前公布的規則,在公眾諮詢期間後,將放寬航空公司於飛行中提供通訊服務的管制,也包括以前受管制的無線頻段。 該規則的基本原則是,航空公司必須選擇裝設經過認證的服務設備,以防止飛機與地面通訊的有害干擾,在干擾得以適當控制之下,航空公司將能提供乘客的無線寬頻網路,包括網際網路、電子郵件、文字通訊以及各種類型的語音服務。新管制規則也將提升航空公司機艙內通訊的品質。根據建議,個別航空公司以自律為原則,遵守FCC、美國聯邦航空管理局(FAA)和運輸部(DOT)的規定,決定是否要在飛機上提供行動通訊無線服務,並且決定提供哪些服務。 如果一家航空公司選擇安裝新的通訊設備,便能提供消費者使用他們的行動裝置的完整通訊功能,航空公司必須公布哪些航班有提供服務、有什麼類型的服務,例如是否允許網路瀏覽、電子郵件、即時通訊等,但不包含語音通話。 以下簡介FCC本次發佈的規則方向: 1. 開放更多無線頻譜的使用,移除既有的對於飛機上使用無線頻譜的嚴格限制。協調所有商用航空器相關的頻譜與設備的管制規範。 2. 暫不開放語音通訊服務(含傳統語音服務以及網路電話VOIP)。3. 為航空公司使用商用無線頻譜在飛機上提供無線通訊服務,提供新的執照授權。 4. 限制飛行器上裝設之無線通訊設備,必須通過美國運輸不或美國航空管制局(FAA)所認證之設備,以管制機上裝置的發射功率及電力需求。 5. 限制飛機在超過海拔3048公尺(約10,000英尺)以上高度飛行時,提供無線通訊服務的能力。 6. 其他有關法律管制架構、公眾及國家安全,以及潛在的語音服務影響之事項。
專利連結專利連結(patent linkage,亦有稱patent registration linkage)是1984年美國《藥品價格競爭及專利期回復法(Hatch-Waxman Act, HWA)》所創設。傳統上,醫藥主管機關與專利主管機關的權責是有所區分的。然而,醫藥主管機關因為醫藥管理制度與專利制度的連結,使得醫藥主管機關須審查專利相關事務,即醫藥主管機關在審查學名藥上市許可申請時,必須同時判斷該藥品是否侵害專利藥公司就該藥品所掌握的專利。 專利連結制度可以採取幾種形式,最簡單形式的專利連結可能涉及了以下的要求:當有學名藥廠對專利藥公司所生產的的專利藥品提出學名藥,並尋求醫藥主管機關批准時,則應向專利藥公司告知學名藥廠的身份。強度較強的專利連結,在該專利藥品的專利到期或者無效之前,可以禁止醫藥主管機關核發上市許可給學名藥品。而更強的專利連結不僅可以禁止核發上市許可,也可以禁止在專利期間內對學名藥品的審查。 我國目前並未採納專利連結制度,但在我國目前擬積極參與的《泛太平洋夥伴協議(TPP)》中則要求成員應採納專利連結制度,故未來我國動向將值得關注。
論ENUM服務推動與應用之法制議題 歐盟執委會提出「具可信度之人工智慧倫理指引」歐盟執委會人工智慧高級專家小組(High-Level Expert Group on Artificial Intelligence)於2019年4月8日公布「具可信度之人工智慧倫理指引」(Ethics Guidelines For Trustworthy AI)。該指引首先指出,具可信度之人工智慧需具備三個關鍵特徵:(1)合法(Lawful):應遵守所有適用於人工智慧之法規;(2)合乎倫理(Ethical):確保人工智慧符合倫理原則與價值;(3)健全(Robust):自技術與社會層面觀之,避免人工智慧於無意間造成傷害。 該指引並進一步指出人工智慧應遵守以下四項倫理原則: (1) 尊重人類之自主權(Respect for Human Autonomy):歐盟之核心價值在於尊重人類之自由與自主,與人工智慧系統互動之個人,仍應享有充分且有效之自我決定空間。因此,人工智慧之運用,不應脅迫、欺騙或操縱人類,人工智慧應被設計為輔助與增強人類之社會文化技能與認知。 (2) 避免傷害(Prevention of Harm):人工智慧不應對人類造成不利之影響,亦不應加劇既有的衝突或傷害。人工智慧之系統運行環境應具備安全性,技術上則應健全,且確保不會被惡意濫用。此外,弱勢族群應於人工智慧運用中受到更多關注,並被視為服務對象。 (3) 公平(Fairness):人工智慧系統之開發、布建與利用,必須具備公平性。除了透過實質承諾與規範,進行平等與公正之利益與成本分配外,亦須透過救濟程序確保個人或特定族群不受到歧視與偏見之侵害,並可對人工智慧之自動化決策結果提出質疑,且獲得有效之補救。 (4) 可解釋性(Explicability):人工智慧應盡量避免黑箱(Black Box)決策,其系統處理程序須公開透明,並盡可能使相關決策結果具備可解釋性,分析特定訊息可能導致之決策結果,此外亦需具備可溯性且可接受審核。