金融穩定委員會報告指出金融領域採用AI之模型、資料品質與治理風險

金融穩定委員會(Financial Stability Board, FSB)於2024年11月14日發布《人工智慧對金融穩定的影響》報告,探討人工智慧(Artificial Intelligence, AI)在金融領域的應用進展及對全球金融穩定的影響,分析相關風險並提出建議。

報告指出AI具有提升效率、加強法規遵循、提供個人化金融產品及進階資料分析等益處,但同時可能加劇某些金融部門的脆弱性(Vulnerability),進而構成金融穩定風險。報告特別提出之脆弱性包括:「第三方依賴及服務供應商集中化」、「市場相關性」、「資安風險」,以及「模型風險、資料品質和治理」。

在模型風險、資料品質與治理中,廣泛應用AI可能導致模型風險上升,因某些模型難以驗證、監控及修正,且模型的複雜性與透明性不足將增加尋找具獨立性和專業知識的驗證者的挑戰。此外,在大型語言模型(Large Language Model, LLM),大規模非結構化資料的使用及訓練資料來源的不透明性,使資料品質評估更加困難。特別是在預訓練模型(Pre-trained Model)中,金融機構對眾多資料來源的評估方式不熟悉,進一步增加管理難度。

若金融機構未建立健全的治理架構以審查AI的使用及其資料來源,模型風險與資料品質問題將難以控制。金融機構有責任應對與AI相關的模型風險和資料品質挑戰,包含對模型進行驗證、持續監控、執行結果分析和評估資料品質的預期要求。

報告呼籲各國金融主管機關加強對AI發展的監測,評估現行金融政策框架是否充分,並增強監管能力。建議可定期或不定期調查AI應用情形,並透過報告及公開揭露制度獲取相關資訊。此外,主管機關可考慮利用監督科技(SupTech)及監管科技(RegTech)等AI驅動工具強化監管效能,以應對AI在金融領域帶來的挑戰與風險。

相關連結
你可能會想參加
※ 金融穩定委員會報告指出金融領域採用AI之模型、資料品質與治理風險, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=9286&no=55&tp=1 (最後瀏覽日:2026/05/06)
引註此篇文章
你可能還會想看
歐盟批准Google併購DoubleClick公司

  Google 在2007年4月買下DoubleClick之後,競標落敗的微軟連同其他Google對手,控告Google和DoubleClick的結合,恐怕有壟斷之嫌,因此引來FTC和歐盟執委會的調查。   Google此前已經於去年12月首先取得美國聯邦貿易委員會的併購核準。歐盟執行委員會(EUropean Commission;EC)則於日前宣布通過無條件批准Google以31億美元收購線上廣告業者DoubleClick的購併案。   另據CNN Money網站報導,歐盟執委會通過雙方合併,主要基於沒有重大證據顯示,雙方的結合將會削弱微軟(Microsoft)、雅虎(Yahoo!)、美國線上(AOL)等競爭對手的生存空間;其次,Google和DoubleClick彼此並不存在競爭關係,雙方合併對線上廣告市場的競爭,不至於帶來負面的衝擊。   不過,提倡保護個人隱私的組織反對該收購交易,他們認為Google與DoubleClick合併之後,使兩家公司更容易獲取消費者個人資訊。但是歐盟執委會表示個人隱私權問題並非是否同意兩家公司合併的考量事項。   在得到歐盟方面正式核準之後,Google將會正式採取行動併購DoubleClick,將其線上廣告的經營,從文字廣告拓展至顯示廣告(display advertisement)領域。但在這塊線上廣告市場的步步進逼,勢必會刺激微軟加速買下雅虎的決心。

因應知識經濟社會 日本推動司法改革

  鑑於社會態度轉變與經濟面的需求,特別是隨著稅法和智慧財產權問題日益複雜,日本企業領袖紛紛延攬龐大的律師團,以借助其專長規劃並解決相關問題,以至法律專業人才需求更甚於以往。為此,日本改變壓低律師人數以及不鼓勵興訟的政策,大刀闊斧推動二次世界大戰以來最大的司法制度改革。本次司法制度大改革廣開職業考試大門,以便有足夠的律師、檢察官與法官,能在日益好訟的日本社會處理龐大民、刑事案件。   為填補需求缺口,日本政府決定將包括律師、檢察官和法官在內的法律專業人士的人數提高一倍以上,在 2018 年以前增至五萬人。同時,重大刑案將在 2009 年引進陪審團制度,以減輕法官負擔。在政府鼓勵下,日本第一所美式法學院於 2004 年成立,現在全國已有七十二所類似的法學院。過去日本大學法律系通常著重法律的學術或理論面,而新式法學院的重心則以實務訓練為主。這些法學院的畢業生不必考舊律師考試,只考專為他們設計的筆試。   我國法學教育改革研議已有幾十年,總統府人權諮詢小組在討論人權問題時,亦有專題涉及法律人養成與司法制度改革,因而研議全盤改革相關制度;行政院經建會在重要人才培育與運用的政策中,亦研擬自去( 94 )年開始推動法律專業學院制度。

德國放寬胚胎幹細胞之研究限制,允許進口2007年5月以前所製造的胚胎幹細胞進行研究

  在德國,由於納粹的醫學實驗歷史,人類胚胎研究一向是極為敏感的議題,並且為了研究用途摧毀胚胎也有極大的倫理爭議。德國下議院於2001年立法禁止從胚胎中粹取幹細胞後,在現行法規下幹細胞研究者只可以進口2002年1月1日以前製造的胚胎幹細胞供使用。不過在科學家一再表達只有極少量的細胞株可有效提供研究的關切下,德國下議院日前以346票對228票通過幹細胞法之修正,將截止日期(cut-off date)之規定由2002年1月1日,修正為2007年5月1日,藉此放寬對人類胚胎幹細胞研究的限制。   不過此次國會的修法仍引起支持與反對胚胎幹細胞研究人士的激烈爭論,支持一方表示現行截止日期的規定強烈影響德國幹細胞的研究,德國研究基金會(German Research Foundation)即強調目前全球有超過500個細胞株,但德國研究人員卻只被允許使用21個老舊且部分遭到污染的細胞株。另一方面,在德國主教的集會上,佛萊堡(Freiburg)大主教鄒立區(Robert Zollitsch)則對放寬現行限制提出警告,他表示「研究的自由不該與對生命的基本保障等量齊觀」。   修法後,德國研究人員將可透過國際合作進口使用2007年5月1日以前所製造的胚胎幹細胞。這是正反雙方妥協下的結果,但是德國對於限制胚胎幹細胞研究的基本立場是否會由此開始鬆動,則仍待後續觀察。

美國科羅拉多州通過《人工智慧消費者保護法》

2024年5月17日,科羅拉多州州長簽署了《人工智慧消費者保護法》(Consumer Protections for Artificial Intelligence Act,Colorado AI Act,下簡稱本法),其內容將增訂於《科羅拉多州修訂法規》(Colorado Revised Statutes,簡稱CRS)第6篇第17部分,是美國第一部廣泛對AI規範的法律,將於2026年2月1日生效。 本法旨在解決「高風險人工智慧系統」的演算法歧視(Algorithmic Discrimination)的問題 ,避免消費者權益因為演算法之偏見而受到歧視。是以,本法將高風險AI系統(High-risk Artificial Intelligence System)定義為「部署後作出關鍵決策(Consequential Decision)或在關鍵決策中起到重要作用的任何AI系統」。 而後,本法藉由要求AI系統開發者(Developers)與部署者(Deployers)遵守「透明度原則」與「禁止歧視原則」,來保護消費者免受演算法歧視。規定如下: (一)系統透明度: 1.開發者應向部署者或其他開發者提供該系統訓練所使用的資料、系統限制、預期用途、測試演算法歧視之文件以及其他風險評估文件。 2.部署者應向消費者揭露高風險人工智慧系統的預期用途,也應在高風險人工智慧系統做出決策之前向消費者提供聲明,聲明內容應該包含部署者之聯絡方式、該系統的基本介紹、部署者如何管理該系統可預見之風險等資訊。 (二)禁止歧視: 1.開發者應實施降低演算法歧視之措施,並應協助部署者理解高風險人工智慧系統。此外,開發者也應該持續測試與分析高風險人工智慧系統可能產生之演算法歧視風險。若開發者有意修改該系統,應將更新後的系統資訊更新於開發者網站,並須同步提供給部署者。 2.部署者應該實施風險管理計畫,該風險管理計畫應包含部署者用於識別、紀錄降低演算法歧視風險之措施與負責人員,且風險管理計畫應定期更新。在制定風險管理計畫時,必須參考美國商務部國家標準暨技術研究院(National Institute of Standards and Technology, NIST)的《人工智慧風險管理框架》(AI Risk Management Framework, AI RMF 2.0)與ISO/IEC 42001等風險管理文件。 美國普遍認為科羅拉多州的《人工智慧消費者保護法》為目前針對人工智慧系統最全面之監管法規,可作為其他州有關人工智慧法規的立法參考,美國各州立法情況與作法值得持續關注。

TOP