英國文化、媒體暨體育部(Department for Culture, Media & Sport)於2016年12月21日發佈「網路安全規範與誘因評論」(Cyber Security Regulation and Incentives Review)(下稱本評論),本評論旨在評估新增規範或誘因對於強化整體經濟活動中之網路風險管理的必要性。 本評論的主要結論與建議為: 1.保護公民免於受到犯罪或其它形式的傷害具備明確的公益性,保護個人資料的相關規範亦具有強烈的正當性基礎。 2.有鑑於此,英國政府將藉由施行歐盟「一般資料保護規則」(General Data Protection Regulation,下稱GDPR)來增進整體經濟活動中的網路安全風險管理。英國政府藉由GDPR所課與企業在合理時間內向主管機關通報資料外洩事件之法律義務,以及GDPR在企業違反個資保護義務之罰鍰機制,要求產業界對網路安全的風險管理積極採取行動。 3.英國政府將採取若干措施來增加資料保護與網路安全之間的連結,以強化網路風險的管理。這些措施包括加強資訊委員辦公室(Information Commissioner’s Office),以及國家網路安全中心(National Cyber Security Center)之業務上合作關係、與投資人社群合作來制定網路安全規範,以及經由新的管理者論壇(Regulators’ Forum)與管理者合作,並且彼此分享良好的做法以及網路威脅的資訊等。 4.目前英國政府暫不在GDPR以外訂定其他的一般網路安全規範。
資通安全法律案例宣導彙編 第1輯 歐盟於YouTube架設影音分享頻道EU Tube繼YouTube對美國總統大選的影響力逐漸受到各界矚目後,大西洋彼岸的歐盟執行委員會(European Commission),也漸體認到影音分享網站在商業應用外,對言論傳播乃至於政治活動之潛在影響。 有鑑於此,歐盟執行委員會甫於上月二十九日,於YouTube網站上增置一個名為 “EU Tube” 的視聽頻道,以做為歐盟(European Union)官方和歐洲公民間的溝通渠道。 關於此種利用線上影音分享網站作為政府資訊傳播和政策公開宣傳的創舉,有幾點值得國內注意。 首先,此一歐盟執行委員會與YouTube簽訂的頻道協議,乃是非專屬的協定。換言之,歐盟執行委員會仍可同時與其他網站或媒體簽訂類似之服務協議。其次,EU Tube之內容亦不僅限於硬性的政策或行動討論,而包含了從氣候變遷、能源議題到移民等各種公民相關事項,甚至有內容大膽的 ”Film Lovers Will Love This!” 的前衛影片。更有甚之,使用者對於不同影音檔點擊觀看次數(有數百萬人次與僅一千人次的差異)的資訊,也可作為日後進一步分析利用的原始資料。不過,雖然歐盟極力推動其內部之語言多樣性,目前既有的影片仍以英文為主。 歐盟發言人強調,納入YouTube等網站為對外溝通管道的作法,是為了盡可能擴大與歐盟公民的聯繫,但主要仍以易受YouTube吸引的年輕人為主。由此可見,網路網路對不同年齡層、世代的影響仍有差異,而公領域與影音分享網站日漸深化的關係,也考驗傳統媒體和政治互動的準則。
金融穩定委員會報告指出金融領域採用AI之模型、資料品質與治理風險.Pindent{text-indent: 2em;} .Noindent{margin-left: 2em;} .NoPindent{text-indent: 2em; margin-left: 2em;} .No2indent{margin-left: 3em;} .No2Pindent{text-indent: 2em; margin-left: 3em} .No3indent{margin-left: 4em;} .No3Pindent{text-indent: 2em; margin-left: 4em} 金融穩定委員會(Financial Stability Board, FSB)於2024年11月14日發布《人工智慧對金融穩定的影響》報告,探討人工智慧(Artificial Intelligence, AI)在金融領域的應用進展及對全球金融穩定的影響,分析相關風險並提出建議。 報告指出AI具有提升效率、加強法規遵循、提供個人化金融產品及進階資料分析等益處,但同時可能加劇某些金融部門的脆弱性(Vulnerability),進而構成金融穩定風險。報告特別提出之脆弱性包括:「第三方依賴及服務供應商集中化」、「市場相關性」、「資安風險」,以及「模型風險、資料品質和治理」。 在模型風險、資料品質與治理中,廣泛應用AI可能導致模型風險上升,因某些模型難以驗證、監控及修正,且模型的複雜性與透明性不足將增加尋找具獨立性和專業知識的驗證者的挑戰。此外,在大型語言模型(Large Language Model, LLM),大規模非結構化資料的使用及訓練資料來源的不透明性,使資料品質評估更加困難。特別是在預訓練模型(Pre-trained Model)中,金融機構對眾多資料來源的評估方式不熟悉,進一步增加管理難度。 若金融機構未建立健全的治理架構以審查AI的使用及其資料來源,模型風險與資料品質問題將難以控制。金融機構有責任應對與AI相關的模型風險和資料品質挑戰,包含對模型進行驗證、持續監控、執行結果分析和評估資料品質的預期要求。 報告呼籲各國金融主管機關加強對AI發展的監測,評估現行金融政策框架是否充分,並增強監管能力。建議可定期或不定期調查AI應用情形,並透過報告及公開揭露制度獲取相關資訊。此外,主管機關可考慮利用監督科技(SupTech)及監管科技(RegTech)等AI驅動工具強化監管效能,以應對AI在金融領域帶來的挑戰與風險。