美國聯邦航空總署針對特殊類型無人航空器提出新的適航性準則

  美國聯邦航空總署(Federal Aviation Administration, FAA)於2020年11月23日針對10種特殊類型(special class)無人航空器提出新的適航性準則(airworthiness criteria),以納入更多聯邦法規第107篇(14 CFR Part 107)所無法涵蓋之複雜無人航空器應用類型,包括包裹運送(package delivery)。

  FAA目前正針對其所提出之適航性準則蒐集公眾之意見,故將相關特殊類型之無人機應用申請案公告於聯邦公報(Federal Register)中,提供30天予公眾針對該申請案之適航性表示意見,後續正式公布該適航性準則時亦會將相關意見納入考量。

  該適航性準則將成為特殊類型無人航空器之安全標準,並能夠為相關特殊類型之無人航空器取得型式安全審驗合格證明(type certificate)建立之參考準則之一。

  該適航性準則主要適用於重量在5-89磅之電動定翼(fixed wing)與旋翼(rotorcraft)無人機。FAA說明,該特殊類型無人航空器若通過此準則,僅表示其符合該適航性準則所規範之類型,惟其是否能夠執行飛行任務,尚須檢視有否符合FAA相關操作規範,包括操作人員是否取得許可證、操作之空域是否為禁限航區等。

本文為「經濟部產業技術司科技專案成果」

相關連結
※ 美國聯邦航空總署針對特殊類型無人航空器提出新的適航性準則, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8591&no=55&tp=1 (最後瀏覽日:2026/02/25)
引註此篇文章
你可能還會想看
英國資訊委員辦公室(Information Commissioner’s Office,ICO)認定英國電子零售業者Carphone Warehouse違反《Data Protection Act 1998》資料保護法

  英國電子零售業者Carphone Warehouse在2015年遭到網路攻擊,造成逾300萬客戶及1000名員工的資料外洩,外洩的資料包括客戶的姓名、地址、電話號碼、出生日期、婚姻狀況及1.8萬名客戶的金融卡資訊。   英國資訊委員辦公室(Information Commissioner’s Office,ICO)認為涉及之個人資料嚴重影響個人隱私,使得個人資料有被誤用的風險。ICO進一步調查後並發現,駭客僅是透過有效的登入憑證,就能藉由WordPress軟體存取系統,此事件亦暴露該組織技術安全措施之不足,因受影響系統中使用的軟件的重要元素已過時,且公司未能執行例行的安全測試。ICO認為,像Carphone Warehouse此類規模龐大的公司,應積極評估其資料安全系統,確保系統穩健而避免類似的攻擊。   據此,ICO判定該公司缺乏妥善的安全措施保障使用者資訊,已嚴重違反《Data Protection Act 1998》資料保護法,判罰40萬英鎊。   從今年5月25日起,隨著GDPR的生效,法律將更加嚴格。對此,ICO亦發布了有用的指導,包括GDPR指南,現在採取的12個步驟和工具包。國家網絡安全中心(NCSC)也為組織為保護自己所採取的步驟提供了有用的指導。

美國歐盟貿易和技術委員會發布第四次聯合聲明,強化高科技技術及貿易安全合作

美國歐盟貿易和技術委員會(Trade and Technology Council,簡稱TTC)第四次部長級會議於2023年5月31日發布聯合聲明。TTC繼續作為美國和歐盟對俄羅斯在烏克蘭戰爭中協調及有效反應的平台,處理包括與制裁相關的出口限制、打擊外國資訊操縱和干擾,以及破壞人權並威脅到當事國及第三國民主制度的運作和社會福祉等議題。 本次TTC聯合聲明之五大議題重點介紹如下: (1)強化跨大西洋新興技術合作以實現美歐共同領導:包括監控與衡量現有和新出現的人工智慧風險;發展智慧電網下智慧移動標準及互通性(Interoperability);提升半導體供應鏈的合作,包括鼓勵研發、資訊共享;建立工作小組共同處理量子技術問題。 (2)促進貿易及投資的永續性與新機會:乾淨能源補助;避免關鍵礦物供應受地緣政治影響;藉由數位工具提升貿易便捷的合作;相互承認醫藥品製造實務作法等。 (3)貿易、安全和經濟繁榮:出口管制與制裁相關出口限制的合作;交換對於與國安風險有關的特定敏感技術及關鍵設施投資審查的看法;重視對外投資管制,以保護敏感技術不流於對國際和平與安全有疑慮的用途;討論非市場政策與實務、及經濟脅迫(Coercion)的威脅與挑戰。 (4)連結性(Connectivity)和數位基礎設施:加速合作發展6G無線通訊系統;國際連通性與海底電纜計畫。 (5)在不斷變化的地緣政治數位環境中捍衛人權和價值觀:建構具透明性與可問責之線上平台;處理在第三國進行外國資料操縱與干預議題。 TTC將透過各工作小組,持續關注、研究上述議題的發展,並預計於2023年底於美國再次召開會議,檢視合作的成果。

歐盟網路與資訊安全局暨網路安全認證規則要求進行「網路安全認證機制」

  歐盟執委會於2019年6月正式通過「歐盟網路與資訊安全局暨網路安全認證規則(EU Regulation on ENISA and Cyber Security Certification)(Regulation (EU) 2019/881)。規則新增歐盟網路與資訊安全局(European Union Agency for Network and Information Security,ENISA)之職責,負責推行「網路安全認證機制(European cybersecurity certification scheme)」。   網路安全認證機制旨在歐盟層面針對特定產品、服務及流程評估其網路安全。運作模式是將產品或服務進行分類,有不同的評估類型(如自行評估或第三方評估)、網路安全規範(如參考標準或技術規範)、預期的保證等級(如低、中、高),並給予相關之認證。為了呈現網路安全風險的程度,證明書上可以使用三個級別:低、中、高(basic,substantial,high)。若資訊安全事件發生時,對產品、服務及流程造成影響時,廠商應依據其產品或服務之級別採行相對應的因應對策。若被認證為高等級的產品,則表示已經通過最高等級的安全性測試。   廠商之產品或服務被認可後會得到一張認證書,使企業進行跨境交易時,能讓使用者更方便理解產品或服務的安全性,供應商間能在歐盟市場內進行良好的競爭,從而產生更好的產品及性價比。藉由該認證機制所產生的認證書,對於市場方將帶來以下之效益: 一、產品或服務的提供商(包括中小型企業和新創企業)和供應商:藉由該機制獲得歐盟證書,可以在成員國中提升競爭力。 二、公民和最終使用者(例如基礎設施的運營商):針對日常所需的產品和服務,能做出更明智的購買決策。例如消費者欲購買智慧家具,就可藉由ENISA的網路安全認證網站諮詢該產品網路安全資訊。 三、個人、商業買家、政府:在購買某產品或服務時,可以藉此機制讓產品或服務的資訊透明化,以做出更好的抉擇。

歐盟議會發布《可信賴人工智慧倫理準則》

  2019年4月9日,歐盟議會發布《可信賴人工智慧倫理準則》(Ethics Guidelines for Trustworthy AI)。此次內容大致延續歐盟人工智慧高階專家小組(High-level Expert Group on Artificial Intelligence)於2018年12月18日發布的《可信賴人工智慧倫理準則草案》(Draft Ethics Guidelines for Trustworthy Artificial Intelligence)之內容,要求人工智慧須遵守行善(do good)、不作惡(do no harm)、保護人類(preserve human Agency)、公平(be fair)與公開透明(operate transparency)等倫理原則;並在4月9日發布的正式內容中更加具體描述可信賴的人工智慧的具體要件,共計七面向概述如下: 人類自主性和監控(Human agency and oversight):AI係為強化人類能力而存在,使人類使用者能夠做出更明智的決策並培養自身的基礎能力。同時,AI應有相關監控機制以確保AI系統不會侵害人類自主性或是引發其他負面效果。本準則建議,監控機制應可透過人機混合(一種整合人工智慧與人類協作的系統,例如human-in-the-loop, human-on-the-loop, and human-in-command)的操作方法來實現。 技術穩健性和安全性(Technical Robustness and safety):為防止損害擴張與確保損害最小化,AI系統除需具備準確性、可靠性和可重複性等技術特質,同時也需在出現問題前訂定完善的備援計劃。 隱私和資料治理(Privacy and data governance):除了確保充分尊重隱私和資料保護之外,還必須確保適當的資料治理機制,同時考慮到資料的品質和完整性,並確保合法近用資料為可行。 透明度(Transparency):資料、系統和AI的商業模型應該是透明的。可追溯性機制(Traceability mechanisms)有助於實現這一目標。此外,應以利害關係人能夠理解的方式解釋AI系統的邏輯及運作模式。人類參與者和使用者需要意識到他們正在與AI系統進行互動,並且必須了解AI系統的功能和限制。 保持多樣性、不歧視和公平(Diversity, non-discrimination and fairness):AI不公平的偏見可能會加劇對弱勢群體的偏見和歧視,導致邊緣化現象更為嚴重。為避免此種情況,AI系統應該設計為所有人皆可以近用,達成使用者多樣性的目標。 社會和環境福祉(Societal and environmental well-being):AI應該使包含我們的後代在內的所有人類受益。因此AI必須兼顧永續發展、環境友善,並能提供正向的社會影響。  問責制(Accountability):應建立機制以妥當處理AI所導致的結果的責任歸屬,演算法的可審計性(Auditability)為關鍵。此外,應確保補救措施為無障礙設計。

TOP