美國聯邦航空總署針對特殊類型無人航空器提出新的適航性準則

  美國聯邦航空總署(Federal Aviation Administration, FAA)於2020年11月23日針對10種特殊類型(special class)無人航空器提出新的適航性準則(airworthiness criteria),以納入更多聯邦法規第107篇(14 CFR Part 107)所無法涵蓋之複雜無人航空器應用類型,包括包裹運送(package delivery)。

  FAA目前正針對其所提出之適航性準則蒐集公眾之意見,故將相關特殊類型之無人機應用申請案公告於聯邦公報(Federal Register)中,提供30天予公眾針對該申請案之適航性表示意見,後續正式公布該適航性準則時亦會將相關意見納入考量。

  該適航性準則將成為特殊類型無人航空器之安全標準,並能夠為相關特殊類型之無人航空器取得型式安全審驗合格證明(type certificate)建立之參考準則之一。

  該適航性準則主要適用於重量在5-89磅之電動定翼(fixed wing)與旋翼(rotorcraft)無人機。FAA說明,該特殊類型無人航空器若通過此準則,僅表示其符合該適航性準則所規範之類型,惟其是否能夠執行飛行任務,尚須檢視有否符合FAA相關操作規範,包括操作人員是否取得許可證、操作之空域是否為禁限航區等。

本文為「經濟部產業技術司科技專案成果」

相關連結
※ 美國聯邦航空總署針對特殊類型無人航空器提出新的適航性準則, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8591&no=55&tp=1 (最後瀏覽日:2026/04/23)
引註此篇文章
你可能還會想看
新加坡通過「線上安全(救濟與問責)法案」強化對抗線上傷害

新加坡國會於 2025 年 11 月5日三讀通過「線上安全(救濟與問責)法案」(Online Safety (Relief and Accountability) Bill, OSRA),希望透過「賦權受害者」與「強化平臺問責」來對抗日益嚴重的線上傷害事件。OSRA旨在補充個人在面對有害的線上行為(Online Harmful Activity)傷害時的救濟途徑,並設置「線上安全專員(Commissioner of Online Safety)」為處理投訴與發布救濟指令的專責機關。 OSRA明確定義了多種有害的線上行為,包括針對deepfake的「不實內容濫用」(Inauthentic material abuse),以及惡意公開他人隱私的「人肉搜索」(doxxing),而為了讓損害即時受到控制,線上安全專員在接獲國民投訴並調查評估後,可直接發出具法律效力的指令(Directions),要求平臺移除、隱藏特定內容,或限制惡意帳號的互動;若平臺不遵守指令,線上安全專員亦得向電信業者發出阻斷特定服務,或向應用程式商店發出下架特定應用程式的命令(Orders),無正當理由違反指令或命令皆有可能構成刑事責任。 此外,OSRA亦擴張了平臺的民事責任,當受害者依指定方式向平臺發出「線上傷害通知」後,若平臺未能在合理期間內採取行動,受害者得逕向平臺經營者或網站管理者提起民事訴訟要求損害賠償,若平臺無故怠慢,法院得判決加重損害賠償,希望藉此敦促平臺建立更敏捷的線上傷害控制機制。 值得注意的是,OSRA宣告了廣泛的長臂管轄機制,為保障新加坡國民的權益,不僅法院對OSRA規範的民事、刑事事件有管轄權,線上安全專員發布指令與命令的對象亦不限於境內,表現對抗全球線上傷害的強烈企圖。

落實完善數位資料管理機制,有助於降低AI歧視及資料外洩風險

落實完善數位資料管理機制, 有助於降低AI歧視及資料外洩風險 資訊工業策進會科技法律研究所 2023年07月07日 近年來,科技快速發展,AI(人工智慧)等技術日新月異,在公私部門的應用日益廣泛,而且根據美國資訊科技研究與顧問公司Gartner在2023年5月發布的調查指出,隨著由OpenAI開發的ChatGPT取得成功,更促使各領域對於AI應用的高度重視與投入[1],與此同時,AI歧視及資料外洩等問題,亦成為社會各界的重大關切議題。 壹、事件摘要 目前AI科技發展已牽動全球經濟發展,根據麥肯錫公司近期發布的《生成式人工智慧的經濟潛力:下一個生產力前沿(The next productivity frontier)》研究報告指出,預測生成式AI(Generative AI)有望每年為全球經濟增加2.6兆至4.4兆的經濟價值[2]。同時在美國資訊科技研究與顧問公司Gartner對於超過2500名高階主管的調查中,45%受訪者認為ChatGPT問世,增加其對於AI的投資。而且68%受訪者認為AI的好處大於風險,僅有5%受訪者認為風險大於好處[3]。然而有社會輿論認為AI的判斷依賴訓練資料,將可能複製人類偏見,造成AI歧視問題,而且若程式碼有漏洞或帳戶被盜用時,亦會造成資料外洩問題。 貳、重點說明 首先,關於AI歧視問題,以金融領域為例,近期歐盟委員會副主席Margrethe Vestager強調若AI用於可能影響他人生計的關鍵決策時,如決定是否能取得貸款,應確保申請人不受性別或膚色等歧視[4],同時亦有論者認為若用於訓練AI的歷史資料,本身存有偏見問題,則可能導致系統自動拒絕向邊緣化族群貸款,在無形之中加劇,甚至永久化對於特定種族或性別的歧視[5]。 其次,關於資料外洩問題,資安公司Group-IB指出因目前在預設情況下,ChatGPT將保存使用者查詢及AI回應的訊息紀錄,若帳戶被盜,則可能洩露機敏資訊。據統計在2022年6月至2023年5月間,在亞太地區有近41000個帳戶被盜,而在中東和非洲地區有近25000個帳戶被盜,甚至在歐洲地區也有近17000個帳戶被盜[6]。另外在2023年3月時,ChatGPT除了發生部分用戶能夠檢視他人聊天紀錄標題的問題外,甚至發生個人資料外洩問題,即用戶可能知悉他人的姓名、電子郵件,付款地址,信用卡到期日及號碼末四碼等資料[7]。 參、事件評析 對於AI歧視及資料外洩等問題,應透過落實完善數位資料治理與管理機制,以降低問題發生的風險。首先,在收集訓練資料時,為篩選適合作為模型或演算法基礎的資料,應建立資料評估或審查機制,減少或避免使用有潛在歧視問題的資料,以確保分析結果之精確性。 其次,不論對於訓練資料、分析所得資料或用戶個人資料等,均應落實嚴謹的資料保密措施,避免資料外洩,如必須對於資料進行標示或分類,並依照不同標示或分類,評估及採取適當程度的保密措施。同時應對於資料進行格式轉換,以無法直接開啟的檔案格式進行留存,縱使未來可能不慎發生資料外洩,任意第三人仍難以直接開啟或解析資料內容。甚至在傳送帳戶登入訊息時,亦應採取適當加密傳送機制,避免遭他人竊取,盜取帳戶或個人資料。 財團法人資訊工業策進會科技法律研究所長期致力於促進國家科技法制環境完善,於2021年7月發布「重要數位資料治理暨管理制度規範(Essential Data Governance and Management System,簡稱EDGS)」,完整涵蓋數位資料的生成、保護與維護,以及存證資訊的取得、維護與驗證的流程化管理機制,故對於不同公私部門的AI相關資料,均可參考EDGS,建立系統性數位資料管理機制或強化既有機制。 本文同步刊登於TIPS網站(https://www.tips.org.tw) [1]Gartner, Gartner Poll Finds 45% of Executives Say ChatGPT Has Prompted an Increase in AI Investment (May 3, 2023), https://www.gartner.com/en/newsroom/press-releases/2023-05-03-gartner-poll-finds-45-percent-of-executives-say-chatgpt-has-prompted-an-increase-in-ai-investment (last visited June 30, 2023). [2]McKinsey, The economic potential of generative AI: The next productivity frontier (June 14, 2023), https://www.mckinsey.com/capabilities/mckinsey-digital/our-insights/the-economic-potential-of-generative-AI-the-next-productivity-frontier#introduction (last visited June 30, 2023). [3]Gartner, supra note 1. [4]Zoe Kleinman, Philippa Wain & Ashleigh Swan, Using AI for loans and mortgages is big risk, warns EU boss (June 14, 2023), https://www.bbc.com/news/technology-65881389 (last visited June 30, 2023). [5]Ryan Browne & MacKenzie Sigalos, A.I. has a discrimination problem. In banking, the consequences can be severe (June 23, 2023), https://www.cnbc.com/2023/06/23/ai-has-a-discrimination-problem-in-banking-that-can-be-devastating.html (last visited June 30, 2023). [6]Group-IB, Group-IB Discovers 100K+ Compromised ChatGPT Accounts on Dark Web Marketplaces; Asia-Pacific region tops the list (June 20, 2023), https://www.group-ib.com/media-center/press-releases/stealers-chatgpt-credentials/ (last visited June 30, 2023). [7]OpenAI, March 20 ChatGPT outage: Here’s what happened (Mar. 24, 2023),https://openai.com/blog/march-20-chatgpt-outage (last visited June 30, 2023).

加拿大參議院交通與通訊委員會提出自駕與聯網車輛政策發展報告與建議

  2018年1月加拿大參議院交通與通訊委員會(Standing Senate Committee on Transport and Communications)向加拿大交通部提出「駕駛改革:技術與自駕車的未來(Driving Change : Technology And The Future Of The Automated Vehicle)」報告。   報告指出加拿大面臨自駕車可能遭遇之挑戰,並列出提供交通部發展自駕車策略之政策建議。   其中包含:建議加拿大應成立跨部會單位以整合全國自駕車政策、並整合各地方政府與傳統領域政府透過發展地區模型策略;交通部並應與美國合作,來確保自駕車輛於兩國間運行無障礙;交通部應發展自駕聯網車輛設計的車輛安全指南,指南中應指明製造商於發展、測試與布建自駕車的車輛應有的設計需求,該指南並應持續隨科技發展而更新。   加拿大政府並應立法授權隱私委員會主動調查與促使製造者遵循「個人資訊保護與電子文件法(Personal Information Protection and Electronic Documents Act)」的權力,並應持續評估聯網車輛的隱私相關規範之需求。   並應整合利益關係人發展聯網車輛管制框架,特別應包括隱私保護;並應監督自駕與聯網車輛技術競爭之影響,以確保車輛出租公司與其他的延伸市場可持續取得相關營業所需資訊;並應注重加拿大自駕車之測試與發展等對於就業之影響等。

日本通過《不正競爭防止法》修正案規範元宇宙商品侵權情形

日本國會於2023年6月通過《不正競爭防止法》修正案,新增不正競爭行為態樣,未來在元宇宙中仿製他人商品之虛擬商品或展示、轉讓等行為,可能構成不正競爭行為,健全元宇宙中發生商品侵權的法律應對基礎,預計於2024年6月13日施行。 在元宇宙中仿製他人商品並在元宇宙中展示、轉讓,屬於透過電信線路導致與他人商品混淆、以及使用相似商品描述進行轉讓、交付等行為,但依據《不正競爭防止法》現行第2條第1項第1號及第2號規定,對於仿製商品的轉讓出租行為缺乏透過電信線路態樣的實質規範。商標法對於仿冒商標雖有一定的規範,但若只是仿冒商品設計未觸及商標侵權,受害人無法依商標法對其請求停止侵權或損害賠償。因此本次修法擬補充元宇宙商品侵權的法規範,使在元宇宙轉讓出租仿製商品直接構成不正競爭行為,提供仿製商品在元宇宙轉讓出租所產生損害的請求權基礎。 本次修法新增透過「電信線路」進行不正競爭行為的態樣,根據新修訂《不正競爭防止法》第2條第1項第3號規定,透過電信線路提供轉讓、出租、以轉讓或出租為目的的展示、出口、進口、模仿他人商品型態等行為列為不正競爭行為,受害人可依據《不正競爭防止法》第3條向侵權人請求終止或防止侵權,或依同法第4條向侵權人請求損害賠償。 元宇宙的發展使得現實空間的消費活動轉移到虛擬空間。在元宇宙中,企業和用戶都可以創造虛擬物品並銷售給他人,並在元宇宙中開設虛擬商店,同時在現實與元宇宙提供商品。隨著元宇宙的發展,仿製商品的問題也凸顯出來,元宇宙的智慧財產權維護,需要法律提供保護,使受害人能夠透過法律請求終止侵權或損害賠償。日本的修法提供受害人解決侵權的法律基礎,不僅是保護受害人的權利,也保護元宇宙中的競爭環境,減少仿製商品對競爭的侵蝕,健全競爭環境。

TOP