美國聯邦航空總署針對特殊類型無人航空器提出新的適航性準則

  美國聯邦航空總署(Federal Aviation Administration, FAA)於2020年11月23日針對10種特殊類型(special class)無人航空器提出新的適航性準則(airworthiness criteria),以納入更多聯邦法規第107篇(14 CFR Part 107)所無法涵蓋之複雜無人航空器應用類型,包括包裹運送(package delivery)。

  FAA目前正針對其所提出之適航性準則蒐集公眾之意見,故將相關特殊類型之無人機應用申請案公告於聯邦公報(Federal Register)中,提供30天予公眾針對該申請案之適航性表示意見,後續正式公布該適航性準則時亦會將相關意見納入考量。

  該適航性準則將成為特殊類型無人航空器之安全標準,並能夠為相關特殊類型之無人航空器取得型式安全審驗合格證明(type certificate)建立之參考準則之一。

  該適航性準則主要適用於重量在5-89磅之電動定翼(fixed wing)與旋翼(rotorcraft)無人機。FAA說明,該特殊類型無人航空器若通過此準則,僅表示其符合該適航性準則所規範之類型,惟其是否能夠執行飛行任務,尚須檢視有否符合FAA相關操作規範,包括操作人員是否取得許可證、操作之空域是否為禁限航區等。

本文為「經濟部產業技術司科技專案成果」

相關連結
※ 美國聯邦航空總署針對特殊類型無人航空器提出新的適航性準則, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8591&no=55&tp=1 (最後瀏覽日:2026/04/14)
引註此篇文章
你可能還會想看
歐盟網路和資訊系統安全局(ENISA)

  歐盟網路與資訊安全局(ENISA)成立於2004年,目的在於確保歐盟內部網路與資訊安全保持在最高水準,同時也為執行2016年8月生效之歐盟網路和資訊系統安全指令(NIS- Directive),提高歐洲的網路安全準備,以防止並抵禦網路安全事件措施。計有84名工作人員,共同運作位於希臘的兩個辦公室:Heraklion (2005年成立之總部)辦公室;與雅典辦公室(2013年成立),以提高該機構的運作效率。   ENISA在NIS指令的執行中扮演重要的角色,任務包括支援歐盟機構、會員國國與產業界,快速對網路威脅與資訊安全問題做出反應。它也被要求在執行任務中協助各國間成立的合作小組。此外,更透過指令要求ENISA協助成員國與執委會,提供他的專業意見和建議。   ENISA戰略有五個面向:     •提供關鍵網路設施和資訊安全問題之資訊和專業知識。     •制定和執行歐盟網路政策。     •建立歐盟間跨國支援能力。     •培育網路與資訊安全社群的網路演習、協調與支援。     •促進各國間的合作關係。   由於ENISA在建立之後網路發展情勢有顯著的演變,其任務和目標應該因應新發展做出調整,故歐盟執委會也在2017年1月開始重新審視其設立之法律依據以應對新情勢發展。

英國發布人工智慧網路資安實務守則

英國政府於2025年1月31日發布「人工智慧網路資安實務守則」(Code of Practice for the Cyber Security of AI,以下簡稱「實務守則」),目的是提供人工智慧(AI)系統的網路資安指引。該實務守則為英國參考國際上主要標準、規範後所訂定之自願性指引,以期降低人工智慧所面臨的網路資安風險,並促使人工智慧系統開發者與供應商落實基本的資安措施,以確保人工智慧系統的安性和可靠性。 由於人工智慧系統在功能與運作模式上與傳統網路架構及軟體有明顯的不同,因此產生新的資安風險,主要包含以下: 1. 資料投毒(Data Poisoning):在AI系統的訓練資料中蓄意加入有害或錯誤的資料,影響模型訓練結果,導致人工智慧系統產出錯誤推論或決策。 2. 模型混淆(Model Obfuscation):攻擊者有意識地隱藏或掩飾AI模型的內部運作特徵與行為,以增加系統漏洞、引發混亂或防礙資安管理,可能導致AI系統的安全性與穩定性受損。 3. 輸入間接指令(Indirect Prompt Injection):藉由輸入經精心設計的指令,使人工智慧系統的產出未預期、錯誤或是有害的結果。 為了提升實務守則可操作性,實務守則涵蓋了人工智慧生命週期的各階段,並針對相關角色提出指導。角色界定如下: 1. 人工智慧系統開發者(Developers):負責設計和建立人工智慧系統的個人或組織。 2. 人工智慧系統供應鏈(Supply chain):涵蓋人工智慧系統開發、部署、營運過程中的的所有相關個人和組織。 實務守則希望上述角色能夠參考以下資安原則,以確保人工智慧系統的安全性與可靠性: 1. 風險評估(Risk Assessment):識別、分析和減輕人工智慧系統安全性或功能的潛在威脅的過程。 2. 資料管理(Data management):確保AI系統整個資料生命週期中的資料安全及有效利用,並採取完善管理措施。 3. 模型安全(Model Security):在模型訓練、部署和使用階段,均應符合當時的技術安全標準。 4. 供應鏈安全(Supply chain security):確保AI系統供應鏈中所有利益相關方落實適當的安全措施。 「人工智慧網路資安實務守則」藉由清晰且全面的指導方針,期望各角色能有效落實AI系統安全管控,促進人工智慧技術在網路環境中的安全性與穩健發展。

政府科研計畫執行與貪污犯罪

美國法院否決Google與作家、出版商達成的和解協議

  美國紐約南區地方法院於今年3月22日裁定否決Google 與美國作家協會(Authors Guild)及出版商間所達成的和解協議。此和解案起於Google 於2004年提出的Google Books 計畫,規劃與各大學圖書館合作進行將其館藏圖書數位化。美國作家協會於是於2005提起集體訴訟,在經過兩年談判後與Google 於2008年達成和解協議。如此協議被法院認可,Google 將可掃描及販售成千上萬之書籍,其中包含已絕版之書籍,且即使這些書籍並非屬於公共財或未取得出版商之許可置於Google Books上。   美國地方法院法官Denny Chin表示雖然將書籍數位化且建制完整的數位圖書館(universal digital library)將會造福很多人,但認為和解協議的內容不具公平、適當及合理性。因相較於其競爭對手,此和解協議將給予Google享有顯著的優勢,讓其進行大規模的複製未經授權的著作。   Google 律師表示此裁定令人失望,但將檢視法院之判決並思考後續之選擇,並說明不論結果如何,Google 將持續致力於將全世界的書籍藉由線上Google Books 及Google eBooks 的方式被發現。

TOP