歐洲航空安全局EASA將制訂無人機管理草案

  近來無人機使用越來越普遍,歐洲各國無人機管理制度不同,例如在德國,無人機不得超過25公斤,英國則規定重量超過20公斤以上的無人機視同一般民航機管理。法國雖禁止飛行器未經核准不得在巴黎上空飛行,但日前頻傳有無人機圍繞著艾菲爾鐵塔、美國大使館、羅浮宮和巴士底獄紀念碑,一度造成恐慌。至於美國,聯邦航空總署(Federal Aviation Administration,FAA)原則上禁止大部份商用無人機飛行,但業者可以申請豁免。

  因此,為了統一無人機相關管理辦法,歐洲航空安全局(European Aviation Safety Agency, 以下簡稱EASA)目前已擬管理草案,並將無人機分為三種等級,最低風險無人機是指低耗能飛行器(aircraft),包括模型飛機,該類飛機無須任何形式的證照,只能在操作者視線內且不得在機場與自然保護區使用,其最高飛行高度為150公尺,並禁止在人群上空使用。然而,最高風險無人機管理範圍則將與現行飛行器相關管理規則一樣,必須取得多種飛行證明。此外,無人機帶來的隱私與安全憂慮,EASA表示,這是國家層面議題,例如各國政府可要求無人機上加裝SIM卡的方式解決。

  歐盟委員會(European Commission)希望無人機基本規範架構能於今年年底前到位。有關最低風險無人機相關管理草案預計於12月提出,以便業者經營無人機明年可以上路。EASA局長Patrick Ky在一份聲明中表示:「這些規定將確保無人機產業可在安全與可成長的環境下發展。」

相關連結
※ 歐洲航空安全局EASA將制訂無人機管理草案, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=6811&no=57&tp=1 (最後瀏覽日:2026/01/31)
引註此篇文章
你可能還會想看
Regolith的試煉:太空物質私有化

  美國國家航空暨太空總署(National Aeronautics and Space Administration,NASA)向企業購買月球Regolith(岩屑層)與岩石物質,並於2020年9月提出《月球Regolith採購工作績效聲明》(Lunar Regolith Purchase Request Performance Work Statement)。惟月球的物質,是否可以開採?   依據《各國探索與應用外太空、月球暨其他天體之活動管理原則條約》(Treaty on Principles Governing the Activities of States in the Exploration and Use of Outer Space, Including the Moon and Other Celestial Bodies)第2條,外太空、月球與其他星體,非任何國家可藉由使用、占領與其他方式,或應用國家經費,而宣稱擁有主權。針對NASA的月球物質採購計畫,是否合乎該條約?NASA署長Jim Bridenstine指出,Artemis計畫增加商業參與,要求企業蒐集小型的月球「塵埃」(dirt),或月球表面的岩石。Jim Bridenstine並認為此項提案,充分遵守該條約與其他國際義務。申言之,NASA認為月球之物質,具有私有化之可能性。   為採購企業蒐集之月球物質,NASA擬定《月球Regolith採購工作績效聲明》,規範企業的義務為:1、自月球表面蒐集50克至500克的Regolith或岩石物質;2、提供NASA蒐集與物質的影像,該資料足以識別蒐集地點為月球表面;3、就地(in-place)移轉NASA蒐集物質的所有權,此些物質並將成為NASA得以使用的私有財產(sole property)。企業得以決定在月球表面的任何地點蒐集,且無須評估蒐集的材料;NASA係採購蒐集狀態(“as-collected” condition),並有權利獨立確認企業蒐集物質的聲明。亦即企業的任務為採購物質,並提出證明;對月球物質的評估,則由NASA為之。   企業對NASA採購月球物質之履行,須於2024年以前完成;NASA對契約的獎勵,並不以月球物質蒐集的數量為基準。NASA對企業採購月球物質的支付依據:10%來自於企業完成NASA概念審查的提案;10%係企業為此蒐集任務,而由企業系統發射航空器至太空;80%為達成移轉NASA太空物質的所有權。另外,機器人登陸器(robotic lander)的設計與建構,並非屬NASA向企業徵集太空物質之內容。換言之,NASA之採購計畫並非強調太空物質之蒐集數量,而係著重於太空物質所有權之移轉。   綜上所論,NASA向企業採購月球Regolith與岩石物質,並以所有權之移轉為主,開啟太空物質私有化的可能性。

美國第七巡迴上訴法院於Wallace v. IBM, Red Hat, and Novell 一案認定GPL或自由軟體授權模式不違反聯邦反托拉斯法

  美國第七巡迴上訴法院( U.S. Court of Appeals (7thCir) )最近就 Wallace v. IBM, Red Hat, and Novell 一案做出判決,本案爭執重點在於 GPL 授權條款與反托拉斯法之間的關係,美國第七巡迴上訴法院認為 GPL 授權條款並不違反反拖拉斯法,法院也同時明確表示,一般而言自由軟體無須擔心會違反反托拉斯法。   本案上訴人 Daniel Wallace 係程式設計師,其欲販售由 BSD ( Berkeley Software Distribution )所開發出來的競爭軟體給各級學校。 BSD 是 Linux 的衍生版本,而 Linux 作業系統則是屬於自由軟體的一種,想要使用 Linux 的人就必須遵守 GPL 授權條款。依 GPL 授權條款規定,不論 Linux 或 Linux 之衍生著作均不得收取授權費用,上訴人因此指控 IBM 、 Red Hat 、 Novell 與自由軟體協會涉嫌共謀將軟體價格設定在零,涉嫌以掠奪性定價( predatory pricing claim )方式削減作業系統市場之競爭,已違反反托拉斯法。   法院認為,本案並無法主張掠奪性定價,蓋被上訴人 IBM 、 Red Hat 及 Novell 並無法因此而取得獨佔價格,其授權價格之所以為零乃是遵照 GPL 授權條款的結果,且消費者並未因此受到損害。其次,法院也指出,著作權法通常對他人之改作權加以限制,其目的是為了收取授權金,不過著作權法人亦可用以確保自由軟體維持零授權金,因此任何嘗試想要販售自由軟體之衍生著作者,將會違反著作權法,即令改作人不同意接受 GPL 授權條款的約束。

歐盟針對單一專利制度達成協議

  歷經多年的討論與僵持後,歐盟各國領袖於2012年6月29日宣布同意建立歐盟單一專利制度,並決定將單一專利法院分別設置於巴黎、倫敦與慕尼黑三個城市。   專利法院的設置地點一直為建立歐盟單一專利制度的最後爭議點,包括英國、德國與法國一直積極爭取單一專利法院設立在他們國家,最後於6月29日終於達成妥協,將單一專利法院分成三個地點:第一審法院中央部門之主要位置將設立於法國巴黎,而法院的第一任院長也將會由法國人擔任,英國倫敦及德國慕尼黑也將分別設立部門,以因應專利訴訟案件的特殊性質,英國倫敦將負責處理跟化學藥學生命科學相關之專利案件,德國慕尼黑則負責處理跟機械工程相關之專利案件。而歐盟單一專利的核發將由歐洲專利局(European Patent Office)負責。   單一專利制度協議僅有25個歐盟國家同意,西班牙及義大利目前選擇不加入,原因是這兩個國家不滿西班牙文及義大利文都沒有被納入為單一專利制度之官方語言,只有法文、德文及英文被訂為單一專利制度之官方語言,西班牙及義大利認為這樣的安排將為位於法國德國及英國的企業帶來不公平的優勢。   此項協議現在將進入歐盟議會進行表決,預計於2014年就可以開始核發歐盟單一專利。

歐盟提出人工智慧法律調和規則草案

  歐盟執委會(European Commission)於2021年4月21日提出「人工智慧法律調和規則草案」(Proposal for a Regulation Laying Down Harmonised Rules on Artificial Intelligence (Artificial Intelligence Act) and Amending Certain Union Legislative Acts)(簡稱AI規則草案),旨在平衡「AI運用所帶來的優勢」與「AI對個人或社會所帶來的潛在負面衝擊」,促使會員國在發展及運用AI時,能採取協調一致的態度及方法,共同維護歐洲公民基本權利與歐盟價值。   歐盟自2019年起即倡議發展「值得信賴的AI」(Trustworthy AI)。AI規則草案之提出,除了落實執委會2019年至2024年之政策願景外,亦呼應2020年歐洲議會(European Parliament)之建議—針對AI應用之機會與利益採取立法行動,並確保合乎倫理原則。惟鑒於歐盟在環境、健康、公共事務、金融、交通、農業等領域對AI應用之高度需求,以及企業仰賴AI技術提升競爭優勢等因素,執委會係以「風險為基礎」之概念取向(risk-based approach)制定AI規則草案,避免對新技術發展造成不必要的限制或阻礙。   本規則草案將AI系統,依其「對歐盟基本權利或價值所創造的風險程度」,分為下列三種類型,並施以不同程度的監理方式: 一、不可接受之風險:原則上禁止使用此類型AI系統或使其進入歐盟市場。例如:利用潛意識技術操控個人、在公共場合利用「即時遠端生物辨識系統」進行執法、公務機關普遍對個人進行社會評分等。 二、高風險:於附錄中列出所謂高風險AI系統,要求高風險AI系統之提供者遵循風險管理、資料治理、文件紀錄保存、透明性與資訊揭露、人為監督、健全性、準確性與資安等要求;且AI系統進入歐盟市場前,需進行符合性評估(conformity assessment),進入市場後,則需持續監控。 三、非不可接受之風險亦非高風險:鼓勵AI系統提供者或使用者,自願建立行為準則(codes of conduct)。   AI規則草案亦鼓勵會員國建立AI監理沙盒(regulatory sandbox)機制,且以中小企業、新創公司為優先對象,使創新AI系統進入市場之前,能於可控環境中依明確計畫進行開發、測試與驗證。

TOP