美國聯邦民航局發布《先進空中移動執行計畫》,以利全面整合並促進產業安全擴展

美國聯邦民航局(Federal Aviation Administration, FAA)於2023年7月18日發布《先進空中移動執行計畫》(Advanced Air Mobility (AAM) Implementation Plan),詳述FAA與利害關係人於短期內實現AAM運作需採取之步驟。

AAM是一個新興航空生態系統,透過創新先進技術與新型航空器,包括電動航空器或電動垂直起降航空器(electric vertical takeoff and landing, eVTOL),提供交通運輸更具效率、永續與公平的選擇機會。不過,本執行計畫所稱之AAM僅適用於有人駕駛之客貨運輸類型。為促進日常相關服務,該計畫以現行飛航程序與基礎設施為利用基礎,並就航空器與飛行員認證、空域進出管理、飛行員培訓、基礎設施開發、安全維護、公眾參與等事項進行處理,以引領產業安全擴展。此外,本計畫還包含可應用於任何場域之計畫指南(planning guide),並臚列關鍵整合目標與順序。本次計畫著重之處簡述如下:

(1)運作:飛行員將能按預定飛行計畫駕駛新先進移動航空器往返多地;AAM航空器將盡可能使用機場周圍等級B與C空域範圍內之既有或修正的低空目視飛行規則(Visual Flight Rules, VFR)路線,飛行於城市與大都市地區上空4000英尺(約1219.2公尺)。
(2)基礎設施:營運商、製造商、州與地方政府,以及其他利害關係人將負責計劃、發展與利用直升機場(heliport)或垂直機場(vertiport)基礎設施;起初AAM將運作於既有的直升機場、商業服務機場與通用航空(general aviation, GA)機場,故需針對充電站、停機坪與滑行空間等進行改造與安裝。
(3)電網(Power Grid):電網可能需要升級以供AAM操作;FAA與美國國家再生能源實驗室(National Renewable Energy Laboratory, NREL)簽署機構間的協議,以確定航空器電氣化(electrification)對垂直機場、直升機場或機場電網的影響。
(4)安全:美國國土安全部(Department of Homeland Security, DHS)將確定必要的AAM安全類型;美國運輸安全管理局(Transportation Security Administration, TSA)與FAA亦評估基於先進技術的使用與操作協定(operational protocols)而提高資安要求之需求。
(5)環境:FAA將斟酌AAM運作的環境影響,包括噪音、空氣品質、視覺干擾及對野生生物的破壞等因素。
(6)公眾參與:為更了解公眾對AAM運作的擔憂(包括噪音與緩解措施),FAA將與機場、地方、州及社區進行合作;許多利害關係人(如AAM營運商、機場與垂直機場營運商)將於公眾參與中扮演重要角色。

本文為「經濟部產業技術司科技專案成果」

相關連結
※ 美國聯邦民航局發布《先進空中移動執行計畫》,以利全面整合並促進產業安全擴展, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=9048&no=55&tp=1 (最後瀏覽日:2026/01/23)
引註此篇文章
你可能還會想看
Google提供免費專利給新創公司

  Google於2015年7月24日發布專利創客專案(Patent Starter Program),提供參加專案的新創公司免費授權使用兩項專利。此計畫是奠基於License on Transfer (LOT) Network專利授權聯盟的運作,該聯盟是2014年由Google、Dropbox、SAP、Canon、Asana及NewEgg等六家公司共同成立,目的透過聯盟成員間專利交叉授權協議,以對抗專利流氓(patent troll)的濫訴行為。   專利創客專案計畫開放50家於2014年收入介於50萬至20億美元間的新創公司得免繳會費參與LOT聯盟兩年,並依據新創公司業務範圍,提供3至5項專利清單,新創公司可從中選出兩項予以免費使用。另外,這些新創公司有機會瀏覽GOOGLE非專屬授權資料庫,找尋所需專利並詢問GOOGLE出售意願。需要注意的是,在專案期間內,參與成員對於透過專案獲授權之專利,僅得為防禦使用,違反時Google有權終止並予以處罰。同時參與成員亦必須於專案期間遵守聯盟專利交叉授權協議之規範。   整體來說,由於Google提供給新創公司的免費專利清單項目有限,新創公司未必能得到真正有需求的專利,但考量加入專案後,得受到LOT成員間專利交叉授權協議的保護,對於新創公司而言,仍可一定程度避免受到專利流氓危害,而具有正面意義。

FDA對於食品製程中應用奈米科技者發布產業指引草案

  FDA於今年(2012年)4月12日分別發布了兩項有關於評估應用奈米科技於化妝品及食物影響之產業指引草案(draft guidance)。其中就奈米科技應用於食品(以下簡稱奈米食品)之影響,FDA於「產業指引草案:評估包括使用新興科技在內之重要製程,改變對食品原料、與食品接觸物質及食品色素安全性及法規狀態之影響」(Draft Guidance for Industry: Assessing the Effects of Significant Manufacturing Process Changes, Including Emerging Technologies, on the Safety and Regulatory Status of Food Ingredients and Food Contact Substances, Including Food Ingredients that are Color Additives,以下簡稱新興科技衍生食品產業指引草案)中,對於食品製造商應採取哪些步驟以證明使用奈米科技之食品及食品包裝之安全性,有較為具體之說明。   於新興科技衍生食品產業指引草案中,明確表示奈米科技為此文件之涵蓋範圍,惟其聲明將奈米科技納入文件並不代表FDA認定所有內含奈米物質之產品皆屬有害,僅說明FDA認為依據奈米食品之特性,應進行特別的安全性評估以確保安全。文件中也強調,FDA對於食品製程中應用奈米科技所作之考量,與應用其他科技於食品製程者無異,並認為應用奈米科技所產出之最終產品,在原定用途之使用下,其特性及安全性與傳統製程產出者相同。   針對奈米食品之安全性評估,新興科技產業指引草案中指出,應就該食品所使用物質於奈米尺寸下之特性為其判斷基礎,而有可能必須進一步檢驗此等特性之影響,例如該物質對於生物可利用率及其於器官間運輸之影響等。此外,文件中亦提及FDA於過去針對食品添加物、色素及與食物接觸物質之化學及技術數據所作成之產業指引,於此應同樣被遵守,而將奈米食品所涉及與安全性相關之文件提供給主管機關。而FDA也將持續地向產業提供諮詢服務,以確保產品之安全性。   由FDA所發布之相關產業指引觀察,縱使FDA仍秉持美國對於奈米科技不具危害性之基本立場,其仍透過強化安全評估之科學工具及方法,以審慎之態度來取得大眾對於此類產品安全之信任。

日本「通信‧放送政策懇談會」提出最終報告

  日本總務省召開的「通信‧放送政策懇談會」,於本月 6 日進行今年第 14 次集會,提出該會之最終報告。   其中,有關 NTT (日本電信電話公司)之改革,預計於 2010 年解散目前所採行的控股公司架構,將其所掌控的 NTT 東日本、 NTT 西日本(主要經營固接電話以及上網服務),以及 NTT DoCoMo (主要經營行動通訊業務)三者完全分割,成為三間各自獨立的公司;且分割以後以上三者之間的合作關係亦應受到嚴密規制。至於 NHK (日本放送協會)之改革,則計畫釋出一個衛星頻道,兩個廣播頻道,同時娛樂以及體育節目相關部門,以及網路傳輸、國際播送業務等,應與 NHK 之核心業務切割,成立子公司自行獨立經營。   上開內容雖然是因應通信與放送兩大體系日漸匯流之趨勢而生,惟論者以為勢將引發輿論以及各大政黨之議論甚至反彈;而最終能否納入政府以及執政黨目前正在研擬規劃的施政綱領,仍在未定之天,有待持續追蹤觀察。

用ChatGPT找法院判決?從Roberto Mata v. Avianca, Inc.案淺析生成式AI之侷限

用ChatGPT找法院判決?從Roberto Mata v. Avianca, Inc.案淺析生成式AI之侷限 資訊工業策進會科技法律研究所 2023年09月08日 生成式AI是透過研究過去資料,以創造新內容和想法的AI技術,其應用領域包括文字、圖像及影音。以ChatGPT為例,OpenAI自2022年11月30日發布ChatGPT後,短短二個月內,全球月均用戶數即達到1億人,無疑成為民眾日常生活中最容易近用的AI科技。 惟,生成式AI大量使用後,其中的問題也逐漸浮現。例如,ChatGPT提供的回答僅是從所學習的資料中統整歸納,無法保證資料的正確性。Roberto Mata v. Avianca, Inc.案即是因律師利用ChatGPT撰寫訴狀,卻未重新審視其所提供判決之正確性,以致後續引發訴狀中所描述的判決不存在爭議。 壹、事件摘要 Roberto Mata v. Avianca, Inc.案[1]中,原告Roberto Mata於2019年8月搭乘哥倫比亞航空從薩爾瓦多飛往紐約,飛行過程中膝蓋遭空服員的推車撞傷,並於2022年2月向法院提起訴訟,要求哥倫比亞航空為空服員的疏失作出賠償;哥倫比亞航空則主張已超過《蒙特婁公約》(Montreal Convention)第35條所訂之航空器抵達日起兩年內向法院提出損害賠償之請求時效。 R然而,法院審理過程中發現原告訴狀內引用之六個判決無法從判決系統中查詢,進而質疑判決之真實性。原告律師Steven A. Schwartz因而坦承訴狀中引用的六個判決是ChatGPT所提供,並宣稱針對ChatGPT所提供的判決,曾多次向ChatGPT確認該判決之正確性[2]。 貳、生成式AI應用之潛在風險 雖然運用生成式AI技術並結合自身專業知識執行特定任務,可能有助於提升效率,惟,從前述Roberto Mata v. Avianca, Inc.案亦可看出,依目前生成式AI技術之發展,仍可能產生資訊正確性疑慮。以下彙整生成式AI應用之8大潛在風險[3]: 一、能源使用及對環境危害 相較於傳統機器學習,生成式AI模型訓練將耗費更多運算資源與能源。根據波士頓大學電腦科學系Kate Saenko副教授表示,OpenAI的GPT-3模型擁有1,750億個參數,約會消耗1,287兆瓦/時的電力,並排放552噸二氧化碳。亦即,每當向生成式AI下一個指令,其所消耗的能源量相較於一般搜尋引擎將可能高出4至5倍[4]。 二、能力超出預期(Capability Overhang) 運算系統的黑盒子可能發展出超乎開發人員或使用者想像的隱藏功能,此發展將會對人類帶來新的助力還是成為危險的阻力,則會隨著使用者之間的相互作用而定。 三、輸出結果有偏見 生成式AI通常是利用公開資料進行訓練,若輸入資料在訓練時未受監督,而帶有真實世界既存的刻板印象(如語言、種族、性別、性取向、能力、文化等),據此建立之AI模型輸出結果可能帶有偏見。 四、智慧財產權疑慮 生成式AI進行模型訓練時,需仰賴大量網路資料或從其他大型資料庫蒐集訓練資料。然而,若原始資料來源不明確,可能引發取得資料未經同意或違反授權條款之疑慮,導致生成的內容存在侵權風險。 五、缺乏驗證事實功能 生成式AI時常提供看似正確卻與實際情形不符的回覆,若使用者誤信該答案即可能帶來風險。另外,生成式AI屬於持續動態發展的資訊生態系統,當產出結果有偏誤時,若沒有大規模的人為干預恐難以有效解決此問題。 六、數位犯罪增加與資安攻擊 過去由人工產製的釣魚郵件或網站可能受限於技術限制而容易被識破,然而,生成式AI能夠快速建立具高度說服力的各種擬真資料,降低詐騙的進入門檻。又,駭客亦有可能在不熟悉技術的情況下,利用AI進一步找出資安弱點或攻擊方法,增加防禦難度。 七、敏感資料外洩 使用雲端服務提供商所建立的生成式AI時,由於輸入的資料存儲於外部伺服器,若要追蹤或刪除有一定難度,若遭有心人士利用而導致濫用、攻擊或竄改,將可能產生資料外洩的風險。 八、影子AI(Shadow AI) 影子AI係指開發者未知或無法控制之AI使用情境。隨著AI模型複雜性增加,若開發人員與使用者未進行充分溝通,或使用者在未經充分指導下使用 AI 工具,將可能產生無法預期之風險。 參、事件評析 在Roberto Mata v. Avianca, Inc.案中,法院關注的焦點在於律師的行為,而非對AI技術使用的批判。法院認為,隨著技術的進步,利用可信賴的AI工具作為協助用途並無不當,惟,律師應踐行其專業素養,確保所提交文件之正確性[5]。 當AI科技發展逐漸朝向自主與獨立的方向前進,仍需注意生成式AI使用上之侷限。當個人在使用生成式AI時,需具備獨立思考判斷的能力,並驗證產出結果之正確性,不宜全盤接受生成式AI提供之回答。針對企業或具高度專業領域人士使用生成式AI時,除確認結果正確性外,更需注意資料保護及治理議題,例如建立AI工具合理使用情境及加強員工使用相關工具之教育訓練。在成本能負擔的情況下,可選擇透過企業內部的基礎設施訓練AI模型,或是在訓練模型前確保敏感資料已經加密或匿名。並應注意自身行業領域相關法規之更新或頒布,以適時調整資料使用之方式。 雖目前生成式AI仍有其使用之侷限,仍應抱持開放的態度,在技術使用與風險預防之間取得平衡,以能夠在技術發展的同時,更好地學習新興科技工具之使用。 [1]Mata v. Avianca, Inc., 1:22-cv-01461, (S.D.N.Y.). [2]Benjamin Weiser, Here’s What Happens When Your Lawyer Uses ChatGPT, The New York Times, May 27, 2023, https://www.nytimes.com/2023/05/27/nyregion/avianca-airline-lawsuit-chatgpt.html (last visited Aug. 4, 2023). [3]Boston Consulting Group [BCG], The CEO’s Roadmap on Generative AI (Mar. 2023), https://media-publications.bcg.com/BCG-Executive-Perspectives-CEOs-Roadmap-on-Generative-AI.pdf (last visited Aug. 29, 2023). [4]Kate Saenko, Is generative AI bad for the environment? A computer scientist explains the carbon footprint of ChatGPT and its cousins, The Conversation (May 23, 2023.), https://theconversation.com/is-generative-ai-bad-for-the-environment-a-computer-scientist-explains-the-carbon-footprint-of-chatgpt-and-its-cousins-204096 (last visited Sep. 7, 2023). [5]Robert Lufrano, ChatGPT and the Limits of AI in Legal Research, National Law Review, Volume XIII, Number 195 (Mar. 2023), https://www.natlawreview.com/article/chatgpt-and-limits-ai-legal-research (last visited Aug. 29, 2023).

TOP