本文為「經濟部產業技術司科技專案成果」
歐盟執委會(European Commission)在2014年5月28日提出源安全政策,此係歐洲針對各個會員國的能源依賴程度進行調查後所提出之政策。 歐洲多數國家對於能源需求有超過50%仰賴進口,且近來烏克蘭與俄羅斯政治紛爭引起許多的關注,尤其在天然氣使用部分,多半從俄羅斯透過管線運送方式進口,因此可能產生的能源短缺危機不容忽視。為此,歐盟再次針對能源使用的安全性問題提出政策方針。 政策訂定之目標可分為八項,分別為短期、中期及長期三個階段,每階段皆應採取具體執行措施,以因應能源安全問題: 強化能力,克服2014年及2015年冬天將面臨的能源短缺問題。 加強緊急應變措施,包括風險評估、偶發事件計畫以及維持既有的公共設施。 減緩能源的需求 建構具良好功能與全面整合的內部市場 增加歐盟地區的能源產出 進一步發展能源科技 使提供能源的來源國家以及相關公共設施多樣化 促進國家間能源政策的合作,並和外部交流。 其中,具體的措施包括執委會利用能源安全壓力測試(energy security stress test)模擬仿冬天天然氣供應短缺的問題,採用逆流(reverse flows)輸送、使用化石燃料替代能源、增加可提供出口能源的國家,不再侷限俄羅斯、阿爾及利亞、利比亞以及挪威國家等等。 此項政策後續的相關計畫內容已於6月26日及27日由歐盟由各國代表出席歐盟執委會會議討論,其是否能解決歐洲能源短缺問題,作為其他國家之參考借鏡,值得觀察。
國有研發設施開放近用之法制規範研析-以美日韓規定為核心 何謂「阿西洛馬人工智慧原則」?所謂「阿西洛馬人工智慧原則」(Asilomar AI Principles),是指在2017年1月5日至8日,於美國加州阿西洛馬(Asilomar)市所舉行的「Beneficial AI」會議中,由與會的2000餘位業界人士,包括844名學者專家所共同簽署的人工智慧發展原則,以幫助人類運用人工智慧為人類服務時,能確保人類的利益。 該原則之內容共分為「研究議題」( Research Issues)、「倫理與價值觀」( Ethics and Values),及「更長期問題」( Longer-term Issues)等三大類。 其條文共有23條,內容包括人工智慧的研究目標是創造有益的智慧、保證研究經費有益地用於研究人工智慧、在人工智慧研究者和政策制定者間應有具建設性並健康的交流、人工智慧系統在其整個運轉周期內應為安全可靠、進階人工智慧系統的設計者及建造者在道德層面上是其使用、誤用以及動作的利害關係人,並應有責任及機會去影響其結果、人工智慧系統應被設計和操作為和人類尊嚴、權利、自由和文化多樣性的理想具一致性、由控制高度進階人工智慧系統所取得的權力應尊重及增進健康社會所需有的社會及公民秩序,而非顛覆之,以及超級智慧應僅能被發展於服務廣泛認同的倫理理想,以及全人類,而非單一國家或組織的利益等等。
英國民航局發布航空AI監管策略三文件,以因應AI於航空領域之挑戰與機會英國民用航空局(United Kingdom Civil Aviation Authority, CAA)於2024年12月3日發布「CAA對新興AI驅動自動化的回應」(The CAA's Response to Emerging AI-Enabled Automation)、「航空人工智慧與先進自動化監管策略」(Part A:Strategy for Regulating AI and Advanced Automation in Aerospace)以及「CAA 應用AI策略」(Part B: Strategy for Using AI in the CAA)等三份文件。首先,前者概述CAA對於AI應用於航空領域之總體立場,強調以確保安全、安保、消費者保護及環境永續等前提下,促進AI技術在相關航空領域之創新與應用;其次,「航空人工智慧與先進自動化監管策略」著重說明如何於航空領域監管AI技術之使用,以兼顧推動創新並維持安全性及穩健性;最後,「CAA 應用AI策略」則聚焦於CAA內部使用AI技術提升監管效率與決策能力的策略。 由於AI正迅速成為航空產業之重要技術,其應用範圍包含航空器、機場、地面基礎設施、空域、航太、消費者服務等,具有提高航空安全性、運作效率、環境永續性與消費者體驗之潛力。然而,相關技術風險與監管挑戰亦伴隨而至,仍需新的監管框架應對潛在風險。因此,總體而言CAA以推動AI創新技術、提升航空產業效率與永續性為目標,透過了解技術前景、建立AI通用語言,並以航空領域之五大原則為監管框架之制定核心,建立靈活的AI監管體系,維持最高水準的安全保障。五大原則及案例分述如下: (1) 安全、安保與穩健性(Safety, Security and Robustness),例如:使用AI分析航空器感測器資料進行預測維護,以利提早發現問題。 (2) 透明與可解釋性(Transparency and Explainability),例如:清楚記錄AI系統如何提出空中交通路線建議。 (3) 可質疑性與矯正機制(Contestability and Redress),例如:制定一套明確的流程,以便航空公司查詢並了解AI生成的安全建議。 (4) 公平與偏見(Fairness and Bias),例如:確保自動化旅客篩查安檢系統公平對待所有旅客。 (5) 問責與治理(Accountability and Governance),例如:明確界定AI系統在機場運營中的監管角色與職責。 .Pindent{text-indent: 2em;} .Noindent{margin-left: 2em;} .NoPindent{text-indent: 2em; margin-left: 2em;} .No2indent{margin-left: 3em;} .No2Pindent{text-indent: 2em; margin-left: 3em} .No3indent{margin-left: 4em;} .No3Pindent{text-indent: 2em; margin-left: 4em}