美國聯邦民航局(Federal Aviation Administration, FAA)於2023年7月18日發布《先進空中移動執行計畫》(Advanced Air Mobility (AAM) Implementation Plan),詳述FAA與利害關係人於短期內實現AAM運作需採取之步驟。 AAM是一個新興航空生態系統,透過創新先進技術與新型航空器,包括電動航空器或電動垂直起降航空器(electric vertical takeoff and landing, eVTOL),提供交通運輸更具效率、永續與公平的選擇機會。不過,本執行計畫所稱之AAM僅適用於有人駕駛之客貨運輸類型。為促進日常相關服務,該計畫以現行飛航程序與基礎設施為利用基礎,並就航空器與飛行員認證、空域進出管理、飛行員培訓、基礎設施開發、安全維護、公眾參與等事項進行處理,以引領產業安全擴展。此外,本計畫還包含可應用於任何場域之計畫指南(planning guide),並臚列關鍵整合目標與順序。本次計畫著重之處簡述如下: (1)運作:飛行員將能按預定飛行計畫駕駛新先進移動航空器往返多地;AAM航空器將盡可能使用機場周圍等級B與C空域範圍內之既有或修正的低空目視飛行規則(Visual Flight Rules, VFR)路線,飛行於城市與大都市地區上空4000英尺(約1219.2公尺)。 (2)基礎設施:營運商、製造商、州與地方政府,以及其他利害關係人將負責計劃、發展與利用直升機場(heliport)或垂直機場(vertiport)基礎設施;起初AAM將運作於既有的直升機場、商業服務機場與通用航空(general aviation, GA)機場,故需針對充電站、停機坪與滑行空間等進行改造與安裝。 (3)電網(Power Grid):電網可能需要升級以供AAM操作;FAA與美國國家再生能源實驗室(National Renewable Energy Laboratory, NREL)簽署機構間的協議,以確定航空器電氣化(electrification)對垂直機場、直升機場或機場電網的影響。 (4)安全:美國國土安全部(Department of Homeland Security, DHS)將確定必要的AAM安全類型;美國運輸安全管理局(Transportation Security Administration, TSA)與FAA亦評估基於先進技術的使用與操作協定(operational protocols)而提高資安要求之需求。 (5)環境:FAA將斟酌AAM運作的環境影響,包括噪音、空氣品質、視覺干擾及對野生生物的破壞等因素。 (6)公眾參與:為更了解公眾對AAM運作的擔憂(包括噪音與緩解措施),FAA將與機場、地方、州及社區進行合作;許多利害關係人(如AAM營運商、機場與垂直機場營運商)將於公眾參與中扮演重要角色。
維吉尼亞州最高法院判定該州之垃圾郵件法規違憲維吉尼亞州最高法院以維吉尼亞州電腦犯罪法(Virginia Computer Crimes Act)中關於垃圾郵件之條文違反美國憲法第一修正案對言論自由之保護,於2008年9月12日判定該條文違憲。 2003年時,維吉尼亞州檢方為追查垃圾郵件發送人,而搜索居住於加州地區之Jeremy Jaynes,據信Jeremy Jaynes透過發送垃圾郵件每月可獲利達75萬美元。在該次搜索過程中,維吉尼亞州檢方發現Jeremy Jaynes持有大量電子郵件位址資訊以及上百萬美國線上公司(AOL)用戶之電子郵件帳號及其他個人資訊,檢方便以維吉尼亞州電腦犯罪法中關於垃圾郵件之規範起訴他。Jeremy Jaynes在一審及二審均被判有罪,然其抗辯維吉尼亞州電腦犯罪法中關於垃圾郵件規範之條文違反美國憲法第一修正案所保障之言論自由。 維吉尼亞州最高法院認為,電腦犯罪法中關於垃圾郵件之規範並不以商業性電子郵件為限,則包含政治性言論以及宗教性言論之非商業性電子郵件亦將受到此一條文之限制。有鑑於發表匿名言論乃是美國憲法第一修正案所保護之言論自由的一環,該法條即必須通過嚴格審查標準,亦即該管制規範必須係為達州之重大公共利益之侵害最輕微的手段,電腦犯罪法之該條文並無法通過此一審查標準之檢驗,故而判定違憲。
歐盟執委會提出「具可信度之人工智慧倫理指引」歐盟執委會人工智慧高級專家小組(High-Level Expert Group on Artificial Intelligence)於2019年4月8日公布「具可信度之人工智慧倫理指引」(Ethics Guidelines For Trustworthy AI)。該指引首先指出,具可信度之人工智慧需具備三個關鍵特徵:(1)合法(Lawful):應遵守所有適用於人工智慧之法規;(2)合乎倫理(Ethical):確保人工智慧符合倫理原則與價值;(3)健全(Robust):自技術與社會層面觀之,避免人工智慧於無意間造成傷害。 該指引並進一步指出人工智慧應遵守以下四項倫理原則: (1) 尊重人類之自主權(Respect for Human Autonomy):歐盟之核心價值在於尊重人類之自由與自主,與人工智慧系統互動之個人,仍應享有充分且有效之自我決定空間。因此,人工智慧之運用,不應脅迫、欺騙或操縱人類,人工智慧應被設計為輔助與增強人類之社會文化技能與認知。 (2) 避免傷害(Prevention of Harm):人工智慧不應對人類造成不利之影響,亦不應加劇既有的衝突或傷害。人工智慧之系統運行環境應具備安全性,技術上則應健全,且確保不會被惡意濫用。此外,弱勢族群應於人工智慧運用中受到更多關注,並被視為服務對象。 (3) 公平(Fairness):人工智慧系統之開發、布建與利用,必須具備公平性。除了透過實質承諾與規範,進行平等與公正之利益與成本分配外,亦須透過救濟程序確保個人或特定族群不受到歧視與偏見之侵害,並可對人工智慧之自動化決策結果提出質疑,且獲得有效之補救。 (4) 可解釋性(Explicability):人工智慧應盡量避免黑箱(Black Box)決策,其系統處理程序須公開透明,並盡可能使相關決策結果具備可解釋性,分析特定訊息可能導致之決策結果,此外亦需具備可溯性且可接受審核。
日本促進產學合作相關計畫簡介日本在促進產學合作,除了A-step計劃外,亦成立了創新中繼站構築援助事業(Support Program for Forming Innovation Hub)與創新中心(COI)等。 創新中繼站構築援助事業,由JST協助國立研發法人推動改革,以強化法人之效能,並做為大學與企業之中繼站,大學主司研究,企業則負責產業化階段,中間點則由JST與國立研發法人一同合作。JST負責召集人才、評定人才並進行創業援助、技術調查與分析。國立研發法人則提供人才培育及交流所需之資源(例如:機具設備的整修與提供,推動研究開發等等)。 創新中心(COI)則是政府預測未來10年之社會變遷及人口結構,再根據未來社會可能之需要,以建立理想社會為目標,通常進行具有高難度、高風險研發之創新中心。目前日本有18個創新中心分佈全國各地,由國家指定企業與大學共同進行,但是研究負責人只能是大學。