英國民航局發布航空AI監管策略三文件,以因應AI於航空領域之挑戰與機會

英國民用航空局(United Kingdom Civil Aviation Authority, CAA)於2024年12月3日發布「CAA對新興AI驅動自動化的回應」(The CAA's Response to Emerging AI-Enabled Automation)、「航空人工智慧與先進自動化監管策略」(Part A:Strategy for Regulating AI and Advanced Automation in Aerospace)以及「CAA 應用AI策略」(Part B: Strategy for Using AI in the CAA)等三份文件。首先,前者概述CAA對於AI應用於航空領域之總體立場,強調以確保安全、安保、消費者保護及環境永續等前提下,促進AI技術在相關航空領域之創新與應用;其次,「航空人工智慧與先進自動化監管策略」著重說明如何於航空領域監管AI技術之使用,以兼顧推動創新並維持安全性及穩健性;最後,「CAA 應用AI策略」則聚焦於CAA內部使用AI技術提升監管效率與決策能力的策略。

由於AI正迅速成為航空產業之重要技術,其應用範圍包含航空器、機場、地面基礎設施、空域、航太、消費者服務等,具有提高航空安全性、運作效率、環境永續性與消費者體驗之潛力。然而,相關技術風險與監管挑戰亦伴隨而至,仍需新的監管框架應對潛在風險。因此,總體而言CAA以推動AI創新技術、提升航空產業效率與永續性為目標,透過了解技術前景、建立AI通用語言,並以航空領域之五大原則為監管框架之制定核心,建立靈活的AI監管體系,維持最高水準的安全保障。五大原則及案例分述如下:

(1) 安全、安保與穩健性(Safety, Security and Robustness),例如:使用AI分析航空器感測器資料進行預測維護,以利提早發現問題。

(2) 透明與可解釋性(Transparency and Explainability),例如:清楚記錄AI系統如何提出空中交通路線建議。

(3) 可質疑性與矯正機制(Contestability and Redress),例如:制定一套明確的流程,以便航空公司查詢並了解AI生成的安全建議。

(4) 公平與偏見(Fairness and Bias),例如:確保自動化旅客篩查安檢系統公平對待所有旅客。

(5) 問責與治理(Accountability and Governance),例如:明確界定AI系統在機場運營中的監管角色與職責。

本文為「經濟部產業技術司科技專案成果」

相關連結
※ 英國民航局發布航空AI監管策略三文件,以因應AI於航空領域之挑戰與機會, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=9303&no=67&tp=1 (最後瀏覽日:2025/08/19)
引註此篇文章
你可能還會想看
日本「新產業構造部會」提出2030年「新產業構造願景」

  日本政府認為IoT、Big Data以及人工智慧等破壞式創新技術的出現,目前世界正處於「第四次工業革命」之重大變革,而究竟IoT、Big Data及人工智慧的發展會對經濟、社會產生什麼程度的影響,公私部門有必要共同對應及討論共同戰略願景。因此,經濟產業省於2015年9月17日在「產業構造審議會」下設置「新產業構造部會」,以公私協力的方式共同策定未來產業願景。 該會議的具體檢討事項包括: 1. 具體變革狀況檢視:IoT、Big Data、人工智慧等技術,究竟會對產業構造、就業結構,以及經濟社會系統具體產生如何的改變。 2. 變革之影響:上述的變化可能創造機會,亦會產生風險。因此,於經濟社會層面要怎麼解決迎面而來的挑戰,是否有可能克服相關限制,亦為應關注的焦點。 3. 把握國際上的動向:上述的機會及風險,各國政府及企業等應對的戰略究竟為何。 4. 日本政府具體之特定處方籤:於上述背景下,日本政府及民間企業,應提出個別之戰略及對應方法。   綜上所述,公私部門應協力做成包含時間進程的「指南針」,最後提出2030年「新產業構造願景(新産業構造ビジョン)」,對將來經濟社會系統進行預測。

人權組織向法國最高行政法院提交申訴,要求政府停止使用歧視性演算法

.Pindent{text-indent: 2em;} .Noindent{margin-left: 2em;} .NoPindent{text-indent: 2em; margin-left: 2em;} .No2indent{margin-left: 3em;} .No2Pindent{text-indent: 2em; margin-left: 3em} .No3indent{margin-left: 4em;} .No3Pindent{text-indent: 2em; margin-left: 4em} 國際特赦組織(Amnesty International)與法國數位隱私權倡議團體La Quadrature du Net(LQDN)等組織於2024年10月15日向法國最高行政法院提交申訴,要求停止法國國家家庭津貼基金機構(Caisse nationale des allocations familiales,CNAF)所使用的歧視性風險評分演算法系統。 CNAF自2010年起即慣於使用此系統識別可能進行福利金詐欺的對象,該系統演算法對獲取家庭與住房補助的對象進行0至1之間的風險評分,分數越接近1即越可能被列入清單並受調查,政府當局並宣稱此系統將有助於提升辨識詐欺與錯誤的效率。 LQDN取得該系統的原始碼,並揭露其帶有歧視性質。該等組織說明,CNAF所使用的評分演算法自始即對社會邊緣群體如身心障礙者、單親家長,與低收入、失業、居住於弱勢地區等貧困者表現出懷疑態度,且可能蒐集與系統原先目的不相稱的資訊量,這樣的方向直接違背了人權標準,侵犯平等、非歧視與隱私等權利。 依據歐盟《人工智慧法》(Artificial Intelligence Act,下稱AIA),有兩部分規定: 1. 用於公機關評估自然人是否有資格獲得基本社會福利或服務,以及是否授予、減少、撤銷或收回此類服務的人工智慧系統;以及用於評估自然人信用或建立信用評分的人工智慧系統,應被視為高風險系統。 2. 由公機關或私人對自然人進行社會評分之人工智慧系統可能導致歧視性結果並排除特定群體,從此類人工智慧總結的社會分數可能導致自然人或其群體遭受不當連結或程度不相稱的不利待遇。因此應禁止涉及此類不可接受的評分方式,並可能導致不當結果的人工智慧系統。 然而,AIA並未針對「社會評分系統」明確定義其內涵、組成,因此人權組織同時呼籲,歐盟立法者應針對相關禁令提供具體解釋,惟無論CNAF所使用的系統為何種類型,因其所具有的歧視性,公機關皆應立即停止使用並審視其具有偏見的實務做法。

不爽貓著作權與商標侵權及違約訴訟贏得71萬美元賠償

  不爽貓(Grumpy Cat)於2012年於社群網站曝光後爆紅後,不爽貓主人辭去工作成立「不爽貓公司(Grumpy Cat Limited)」,專心經營不爽貓事業並推出馬克杯、服飾等週邊產品,以及參與各類跨界合作等。   2013年「手榴彈飲料公司(Grenade Beverage)」以15萬美元合約取得不爽貓圖像之授權,得以販售以「Grumpy Cat Grumppuccino」為名且印有不爽貓圖像之冰咖啡品項。然而在2015年「不爽貓公司」發現該圖像進而印製在烘焙咖啡與T恤上,已超出原本約定之使用範圍,而對「手榴彈飲料公司」提出著作權及商標之侵權及違約訴訟。   「手榴彈飲料公司」負責人桑福德父子(Nick and Paul Sandford)反訴主張「不爽貓公司」未如當初規畫盡公司營運之協助,造成「手榴彈飲料公司」潛在之營收損失而求償1,200萬美元,包括:未讓不爽貓與喜劇演員威爾法洛(Will Ferrell)及傑克布萊克(Jack Black)參與電影演出、「不爽貓公司」僅在社群網站張貼17則冰咖啡之行銷貼文、「不爽貓公司」不重視冰咖啡事業因而在脫口秀節目中脫稿演出等。   然而,加州南區聯邦地方法院陪審團並未因以上指控而猶疑,認定「手榴彈飲料公司」負責人侵害「不爽貓公司」之著作權與商標,應支付71萬美元作為賠償,至於違反授權約定部分則以1元作為象徵性賠償。 「本文同步刊登於TIPS網站(https://www.tips.org.tw)」

香港CEPA第三次補充協議關於知識產權保護之內容與影響

TOP