歐盟執委會(European Commission)的移動與運輸專員(European Commissioner for Mobility and Transport )Violeta Bulc在2016年11月23日於華沙發表歐盟目前到2019年的無人機發展計畫───U-space管理系統,該計畫希望能使無人機融入歐盟公民日常生活中的一部分。
U-Space為都會區上的空間(Urban-Space),也代表「你的空間」(Your space),範圍為150公尺以下涉及日常生活的空域空間。其在經濟目標上,期望藉由具體的政策,包含全自動化的導航與空中交管系統的建立,可以使一般人可以公平且容易的使用無人機,讓無人機應用在未來的日常生活成為普遍的應用活動,藉以促進整個歐盟無人機產業的發展。因此,進一步在法規管理上,需要在歐盟地區確立有關無人機之註冊、辨識以及衛星輔助設備之要求的全面一體化(Harmonized)系統,以確保該系統下的無人機操作均符合安全和保安的標準且可以達到隱私與環境保護的訴求。
目前看來,U-Space是推動無人機應用的管理系統,法規方面需要歐洲航空安全總署(European Aviation Safety Agency, EASA)於2016年8月22日公布之的初步無人機法規草案(EASA ‘Prototype’ Commission Regulation on Unmanned Aircraft Operations)支持,像是全自動化的導航系統需要的衛星輔助系統(Geo-fencing)就在EASA草案中提及。
而根據歐盟同一天的新聞稿,為達成U-Space之建置有三個面向須努力:
1.新創技術專案之展示:根據U-Space制度涵蓋之項目為運作基礎的展示專案應該評估特定技術的可行性,以讓相關產品服務早日投入應用,具體專案計畫將在2017年上半年推出。
2.產業密切合作:必須在產業相信歐盟執委會的決心以及願意投資無人機科技的前提下,執委會發展相關基礎設施才有意義。
3.設立新的法規標準:即就前述提及之EASA初步無人機法規草案徵詢各界之意見,預計蒐集各界相關意見後,並經由歐盟執委會、歐盟理事會(Council of the European Union)以及歐洲議會(the European Parliament)的三方會議後,在近期內出現更為具體的草案,議題將包含安全、資安、環境以及隱私等。
.Pindent{text-indent: 2em;} .Noindent{margin-left: 2em;} .NoPindent{text-indent: 2em; margin-left: 2em;} .No2indent{margin-left: 3em;} .No2Pindent{text-indent: 2em; margin-left: 3em} .No3indent{margin-left: 4em;} .No3Pindent{text-indent: 2em; margin-left: 4em} 金融穩定委員會(Financial Stability Board, FSB)於2024年11月14日發布《人工智慧對金融穩定的影響》報告,探討人工智慧(Artificial Intelligence, AI)在金融領域的應用進展及對全球金融穩定的影響,分析相關風險並提出建議。 報告指出AI具有提升效率、加強法規遵循、提供個人化金融產品及進階資料分析等益處,但同時可能加劇某些金融部門的脆弱性(Vulnerability),進而構成金融穩定風險。報告特別提出之脆弱性包括:「第三方依賴及服務供應商集中化」、「市場相關性」、「資安風險」,以及「模型風險、資料品質和治理」。 在模型風險、資料品質與治理中,廣泛應用AI可能導致模型風險上升,因某些模型難以驗證、監控及修正,且模型的複雜性與透明性不足將增加尋找具獨立性和專業知識的驗證者的挑戰。此外,在大型語言模型(Large Language Model, LLM),大規模非結構化資料的使用及訓練資料來源的不透明性,使資料品質評估更加困難。特別是在預訓練模型(Pre-trained Model)中,金融機構對眾多資料來源的評估方式不熟悉,進一步增加管理難度。 若金融機構未建立健全的治理架構以審查AI的使用及其資料來源,模型風險與資料品質問題將難以控制。金融機構有責任應對與AI相關的模型風險和資料品質挑戰,包含對模型進行驗證、持續監控、執行結果分析和評估資料品質的預期要求。 報告呼籲各國金融主管機關加強對AI發展的監測,評估現行金融政策框架是否充分,並增強監管能力。建議可定期或不定期調查AI應用情形,並透過報告及公開揭露制度獲取相關資訊。此外,主管機關可考慮利用監督科技(SupTech)及監管科技(RegTech)等AI驅動工具強化監管效能,以應對AI在金融領域帶來的挑戰與風險。
法學新論:從產業全球化佈局觀點論我國研發成果管理之法制政策 日本經產省提出創新政策落實方向由於日本近年研發品質、數量停滯不前,加上企業研發效率亦落後於外國,經濟產業省(簡稱經產省)於2024年6月21日從三個面向提出政策建議,期能打造成功創新模式。重點如下: 1.發揮新創企業與大企業優勢,促進研發投資 由於研發投資具有回收期間長、獲利不確定等特徵,短時內難以看到成效,故為鼓勵企業持續投入研發,經產省擬制定研發投資效率評價指標,並將透過「新創培育五年計畫」(「スタートアップ育成5カ年計画)下之「新創推動框架」(スタートアップ推進枠),將科研預算優先分配予重點項目,以建立友善研發環境。 2.透過新創資源流動,促進商業化和創造附加價值 新創企業初期往往受限於人力、技術和設備等資源不足問題,難以快速成長及擴張。為解決上述問題,經產省擬制定「跨領域學習」指引及案例集,期能促進新創資源流動,打造創新生態系統。 3.以需求為導向之前瞻技術研發 部份具有高度發展潛力之前瞻技術,如量子和核融合等,因研發風險較高且市場需求不明,將由新能源‧產業技術綜合開發機構(新エネルギー・産業技術総合開発機構)、產業技術綜合研究所(產業技術綜合研究所)等法人進行研發。
IBM提出「人工智慧日常倫理」手冊作為研發人員指引隨著人工智慧快速發,各界開始意識到人工智慧系統應用、發展過程所涉及的倫理議題,應該建構出相應的規範。IBM於2018年9月02日提出了「人工智慧日常倫理」(Everyday Ethics for Artificial Intelligence)手冊,其以明確、具體的指引做為系統設計師以及開發人員間之共同範本。作為可明確操作的規範,該手冊提供了問責制度、價值協同、可理解性等關注點,以促進社會對人工智慧的信任。 一、問責制度(Accountability) 由於人工智慧的決策將作為人們判斷的重要依據,在看似客觀的演算系統中,編寫演算法、定義失敗或成功的程式設計人員,將影響到人工智慧的演算結果。因此,系統的設計和開發團隊,應詳細記錄系統之設計與決策流程,確保設計、開發階段的責任歸屬,以及程序的可檢驗性。 二、價值協同(Value Alignment) 人工智慧在協助人們做出判斷時,應充分考量到事件的背景因素,其中包括經驗、記憶、文化規範等廣泛知識的借鑑。因此系統設計和開發人員,應協同應用領域之價值體系與經驗,並確保演算時對於跨領域的文化規範與價值觀之敏感性。同時,設計師和開發人員應使人工智慧系統得以「了解並認知」用戶的價值觀,使演算系統與使用者之行為準則相符。 三、可理解性(Explainability) 人工智慧系統的設計,應盡可能地讓人們理解,甚至檢測、審視它決策的過程。隨著人工智慧應用範圍的擴大,其演算決策的過程必須以人們得以理解的方式解釋。此係讓用戶與人工智慧系統交互了解,並針對人工智慧結論或建議,進而有所反饋的重要關鍵;並使用戶面對高度敏感決策時,得以據之檢視系統之背景數據、演算邏輯、推理及建議等。 該手冊提醒,倫理考量應在人工智慧設計之初嵌入,以最小化演算的歧視,並使決策過程透明,使用戶始終能意識到他們正在與人工智慧進行互動。而作為人工智慧系統設計人員和開發團隊,應視為影響數百萬人甚至社會生態的核心角色,應負有義務設計以人為本,並與社會價值觀和道德觀一致的智慧系統。