新加坡金融管理局發布《資料治理與管理實務》資訊文件

新加坡金融管理局(Monetary Authority of Singapore,下文簡稱MAS)於2024年5月29日發布《資料治理與管理實務》(Data Governance and Management Practices: Observations and Supervisory Expectations From Thematic Inspections)文件。此文件係根據MAS於2022年至2023年期間針對國內系統性重要銀行(Domestic Systemically Important Banks,下文簡稱D-SIBs)進行「資料治理與管理架構」的主題式檢查結果加以研究與分析而作成,其內容包含MAS對於資料治理的期望、受檢銀行的優良實踐範例及缺失,希望未參與檢查的銀行與金融機構也能根據這份文件進行適當的改善措施。

MAS在《資料治理與管理實務》文件中提出關於五大主題的監管期待,簡要說明如下:

1.董事會和高階管理層的監督:
董事會和高階管理層應加強監督資料治理。例如,定期向董事會報告資料管理領域的重要問題;高階管理層應即時獲得準確且完整的相關資訊,並對資料風險進行分析。

2.設置資料管理單位:
銀行應建立資料管理單位,並為資料管理辦公室提供明確的任務授權,以利其監測資料的品質。

3.資料品質之管理與控制:
銀行應建立資料品質管理架構與流程,以確保資料在整個生命週期中是有品質的。例如,建立有效控制資料流的機制;建立資料品質指標或計分卡;使用終端使用者運算工具(end-user computing tools)處理資料時,應納入風險評估和控制架構來管理。

4.資料品質控制資料之問題識別與升級:
銀行應制定升級標準和行動計畫,以改善資料品質。另外MAS也建議銀行應該要有強大且完整的資料譜系(data lineage)來辨識資料問題並將之改善。

5.BCBS 239原則之擴大適用:
BCBS 239原則係巴賽爾銀行監理委員會(the Basel Committee on Banking Supervision)第239號規範:《有效風險資料聚合及風險報告原則》(Principles for effective risk data aggregation and risk reporting),適用於全球的系統性重要銀行(Global Systemically Important Banks),巴賽爾銀行監理委員會同時建議D-SIBs宜遵循此原則,因此MAS亦要求新加坡境內7家D-SIBs須遵守BCBS 239原則的相關規範。此外,MAS仍期待各銀行與金融機構可以擴大BCBS 239原則的適用範圍,例如在範圍內報告(in-scope reports,或稱主要風險報告)中納入反洗錢、稅務管理等面向。
由於金融服務是一個由資料驅動的產業,資料已然是金融業重要的戰略資產。MAS期盼這份文件能夠讓所有銀行及金融機構提升其資料治理能力,並針對內部的問題進行改善。

相關連結
你可能會想參加
※ 新加坡金融管理局發布《資料治理與管理實務》資訊文件, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=9273&no=0&tp=1 (最後瀏覽日:2025/10/07)
引註此篇文章
你可能還會想看
新加坡「智慧財產中心藍圖」(IP Hub Master Plan)

  自2013年起,新加坡綜合考量其天然資源匱乏之劣勢與位處東南亞經貿核心之優勢,提出「智慧財產中心藍圖」(IP Hub Master Plan),目標在10年內讓新加坡成為亞洲的全球智慧財產營運中心(IP Hub),藉以打造新加坡作為亞洲金融與法律中心之重要地位;「智慧財產中心藍圖」的具體規劃包含在「交易與管理」、「高值智財申請」與「爭議解決」等三大面向,成為匯聚亞洲且面向全球的智財營運中心。   在考量全球經濟成長力趨緩,世界各國紛紛加大投資創新與數位轉型的趨勢下,新加坡智財局(IPOS)於2017年再次更新這份藍圖:盤點自本藍圖提出迄今的各項執行成果,並探討如何與世界趨勢接軌。在更新版藍圖中強調未來智慧財產在具創新力公司資產內的比重將遠高於實體財產,對智財體制的依賴將與日俱增,新加坡應及早因應以提供新創產業包含智財保護、管理與最大化智財價值等協助,以打造未來產業競爭力。   更新版藍圖引用OECD「創新就是將創意帶往市場」之定義,智財產業將成為創新型經濟(innovation-driven economy)中的關鍵。根據IPOS估計,智財交易與管理活動將為新加坡在未來5年創造至少15億新幣的產值,而未來的挑戰在於提高「智財創造」的便利、「智財保護」的普及,以及「智財商業化」的推進等三大面向;因此IPOS將加強智財檢索與政府機關間合作、協助中小企業導入智財管理制度提升企業效益,並打造無形資產評價、交易與融資平台,以達成更新版藍圖所提出之挑戰目標。

印度隱私權制度下兒童資料安全的保護現狀

印度電子資訊產業技術部(MeitY)2022年11月在網站上公布了個人資料資訊保護法草案(Digital Personal Data Protection Bill,以下簡稱該法案),並於2023年7月提交議會審查。目前印度民法不承認未成年人(未滿18歲者)具有自主簽訂契約的能力。因此,取得的兒童同意不具有法律效力,必須徵得父母或是監護人的同意才能合法蒐集兒童個人資料。 根據印度2022年個人資料資訊保護法案草案,任何未滿18歲的人都被歸類為「兒童」。該法案中同時限制專門向兒童發送的廣告,並且監管任何追蹤兒童行為的情況。目前國際隱私法(例如:歐盟通用資料保護條例 (GDPR)、加州消費者隱私法(CCPA)等)的兒童定義多在13至17歲之間。但考慮到兒童個人資訊的敏感性和潛在危害,印度政府採取了較保守嚴謹的路線。政府也已被授權制定有關處理兒童個人資訊的細則,特别是確保資料使用人不可使用可能對兒童造成傷害的個人資料。 根據社會發展狀況,兒童若每次在網路平台上進行活動時都需經過父母或是監護人同意不甚妥適,且根據前述說明,兒童界定年齡為18歲以下,若依照統一年齡範圍進行控管,實際執行上面臨窒礙難行之處。故修法者在對於該法案修改意見中,引用了其他國家隱私法中的不同年齡分類限制,以求降低年齡門檻限制,或是根據用戶的年齡制定差異化的授權要求。 另一個產生的爭議為,該如何驗證父母或是監護人的同意表示。法條中目前無明確規範何為「有效之同意表示」,現行各平台使用不同的方法獲得父母或是監護人的同意,目前有兩種方式,包括點選「同意」按鈕,或是在用戶條款中表示若使用服務等同於監護人同意。 關於兒童年齡之界定,是否將參考其他國家規範進行差異化設定,目前暫無明確定論(包括如何調整、年齡級距設定),根據資訊使用的普及,兒童年齡的界定可以預期的將會進行調整;關於如何有效驗證父母或是監護人的同意表示,目前在技術上大多服務商都偏好透過會員註冊時的同意按鈕或是用戶條款中列明若使用服務即代表同意這兩種方式認定,在這兩種方式之後,系統是否有設定驗證機制,以及需要何種驗證方式才可以認定父母或是監護人的同意表示是符合法律效力的,都需後續再進行研擬。

用ChatGPT找法院判決?從Roberto Mata v. Avianca, Inc.案淺析生成式AI之侷限

用ChatGPT找法院判決?從Roberto Mata v. Avianca, Inc.案淺析生成式AI之侷限 資訊工業策進會科技法律研究所 2023年09月08日 生成式AI是透過研究過去資料,以創造新內容和想法的AI技術,其應用領域包括文字、圖像及影音。以ChatGPT為例,OpenAI自2022年11月30日發布ChatGPT後,短短二個月內,全球月均用戶數即達到1億人,無疑成為民眾日常生活中最容易近用的AI科技。 惟,生成式AI大量使用後,其中的問題也逐漸浮現。例如,ChatGPT提供的回答僅是從所學習的資料中統整歸納,無法保證資料的正確性。Roberto Mata v. Avianca, Inc.案即是因律師利用ChatGPT撰寫訴狀,卻未重新審視其所提供判決之正確性,以致後續引發訴狀中所描述的判決不存在爭議。 壹、事件摘要 Roberto Mata v. Avianca, Inc.案[1]中,原告Roberto Mata於2019年8月搭乘哥倫比亞航空從薩爾瓦多飛往紐約,飛行過程中膝蓋遭空服員的推車撞傷,並於2022年2月向法院提起訴訟,要求哥倫比亞航空為空服員的疏失作出賠償;哥倫比亞航空則主張已超過《蒙特婁公約》(Montreal Convention)第35條所訂之航空器抵達日起兩年內向法院提出損害賠償之請求時效。 R然而,法院審理過程中發現原告訴狀內引用之六個判決無法從判決系統中查詢,進而質疑判決之真實性。原告律師Steven A. Schwartz因而坦承訴狀中引用的六個判決是ChatGPT所提供,並宣稱針對ChatGPT所提供的判決,曾多次向ChatGPT確認該判決之正確性[2]。 貳、生成式AI應用之潛在風險 雖然運用生成式AI技術並結合自身專業知識執行特定任務,可能有助於提升效率,惟,從前述Roberto Mata v. Avianca, Inc.案亦可看出,依目前生成式AI技術之發展,仍可能產生資訊正確性疑慮。以下彙整生成式AI應用之8大潛在風險[3]: 一、能源使用及對環境危害 相較於傳統機器學習,生成式AI模型訓練將耗費更多運算資源與能源。根據波士頓大學電腦科學系Kate Saenko副教授表示,OpenAI的GPT-3模型擁有1,750億個參數,約會消耗1,287兆瓦/時的電力,並排放552噸二氧化碳。亦即,每當向生成式AI下一個指令,其所消耗的能源量相較於一般搜尋引擎將可能高出4至5倍[4]。 二、能力超出預期(Capability Overhang) 運算系統的黑盒子可能發展出超乎開發人員或使用者想像的隱藏功能,此發展將會對人類帶來新的助力還是成為危險的阻力,則會隨著使用者之間的相互作用而定。 三、輸出結果有偏見 生成式AI通常是利用公開資料進行訓練,若輸入資料在訓練時未受監督,而帶有真實世界既存的刻板印象(如語言、種族、性別、性取向、能力、文化等),據此建立之AI模型輸出結果可能帶有偏見。 四、智慧財產權疑慮 生成式AI進行模型訓練時,需仰賴大量網路資料或從其他大型資料庫蒐集訓練資料。然而,若原始資料來源不明確,可能引發取得資料未經同意或違反授權條款之疑慮,導致生成的內容存在侵權風險。 五、缺乏驗證事實功能 生成式AI時常提供看似正確卻與實際情形不符的回覆,若使用者誤信該答案即可能帶來風險。另外,生成式AI屬於持續動態發展的資訊生態系統,當產出結果有偏誤時,若沒有大規模的人為干預恐難以有效解決此問題。 六、數位犯罪增加與資安攻擊 過去由人工產製的釣魚郵件或網站可能受限於技術限制而容易被識破,然而,生成式AI能夠快速建立具高度說服力的各種擬真資料,降低詐騙的進入門檻。又,駭客亦有可能在不熟悉技術的情況下,利用AI進一步找出資安弱點或攻擊方法,增加防禦難度。 七、敏感資料外洩 使用雲端服務提供商所建立的生成式AI時,由於輸入的資料存儲於外部伺服器,若要追蹤或刪除有一定難度,若遭有心人士利用而導致濫用、攻擊或竄改,將可能產生資料外洩的風險。 八、影子AI(Shadow AI) 影子AI係指開發者未知或無法控制之AI使用情境。隨著AI模型複雜性增加,若開發人員與使用者未進行充分溝通,或使用者在未經充分指導下使用 AI 工具,將可能產生無法預期之風險。 參、事件評析 在Roberto Mata v. Avianca, Inc.案中,法院關注的焦點在於律師的行為,而非對AI技術使用的批判。法院認為,隨著技術的進步,利用可信賴的AI工具作為協助用途並無不當,惟,律師應踐行其專業素養,確保所提交文件之正確性[5]。 當AI科技發展逐漸朝向自主與獨立的方向前進,仍需注意生成式AI使用上之侷限。當個人在使用生成式AI時,需具備獨立思考判斷的能力,並驗證產出結果之正確性,不宜全盤接受生成式AI提供之回答。針對企業或具高度專業領域人士使用生成式AI時,除確認結果正確性外,更需注意資料保護及治理議題,例如建立AI工具合理使用情境及加強員工使用相關工具之教育訓練。在成本能負擔的情況下,可選擇透過企業內部的基礎設施訓練AI模型,或是在訓練模型前確保敏感資料已經加密或匿名。並應注意自身行業領域相關法規之更新或頒布,以適時調整資料使用之方式。 雖目前生成式AI仍有其使用之侷限,仍應抱持開放的態度,在技術使用與風險預防之間取得平衡,以能夠在技術發展的同時,更好地學習新興科技工具之使用。 [1]Mata v. Avianca, Inc., 1:22-cv-01461, (S.D.N.Y.). [2]Benjamin Weiser, Here’s What Happens When Your Lawyer Uses ChatGPT, The New York Times, May 27, 2023, https://www.nytimes.com/2023/05/27/nyregion/avianca-airline-lawsuit-chatgpt.html (last visited Aug. 4, 2023). [3]Boston Consulting Group [BCG], The CEO’s Roadmap on Generative AI (Mar. 2023), https://media-publications.bcg.com/BCG-Executive-Perspectives-CEOs-Roadmap-on-Generative-AI.pdf (last visited Aug. 29, 2023). [4]Kate Saenko, Is generative AI bad for the environment? A computer scientist explains the carbon footprint of ChatGPT and its cousins, The Conversation (May 23, 2023.), https://theconversation.com/is-generative-ai-bad-for-the-environment-a-computer-scientist-explains-the-carbon-footprint-of-chatgpt-and-its-cousins-204096 (last visited Sep. 7, 2023). [5]Robert Lufrano, ChatGPT and the Limits of AI in Legal Research, National Law Review, Volume XIII, Number 195 (Mar. 2023), https://www.natlawreview.com/article/chatgpt-and-limits-ai-legal-research (last visited Aug. 29, 2023).

日本內閣通過2015年「世界最先進IT國家創造宣言」修訂版

  日本內閣設置之「IT總合戰略總部」於2015年6月30日通過「世界最先進IT國家創造宣言(世界最先端IT国家創造宣言,下稱該宣言)」之修訂版,此次為2014後的第二次修正。該宣言於2013年6月14日首次公布,作為安倍政府第3支箭成長戰略之一環,為國家層級的IT政策目標,宣言中並揭示,欲促使日本五年內成為世界最高水準的IT技術國家。   本次之重要修正內容摘要如下: (一) 基本理念 1. 以日本之再生為基礎活用IT技術   以成長戰略為根據,將IT技術做為日本再生之動能;組織構成方面,則以政府作為資訊總監(Chief Information Officer, CIO)為中心,打破省廳之間之縱向關係,以「橫向串聯」的方式來推動IT政策。 2. 以全球為範圍建構日本的IT利用及解決範本   因應IT技術之進展、資料流通量之增大、IoT、AI時代之進展為背景,並在確保資訊安全為前提下活用IT技術,建構全球獨一無二「問題解決導向之IT利用範本」,實現人民有感之目標。 3. 活用IT技術以解決問題為導向建構四大支柱   以活用IT技術為特色,並以誘發各個領域之創新性為觀點,以四大支柱為中心,建立一個活用IT技術的社會,建構必要的政策措施。 (二) 四大支柱 1. 朝未來成長之社會:深化IT活用技術   整備IT技術之活用環境,未來擬立新法加促進及加速IT技術之活用;現行則持續的修正個人資料保護法,排除影響IT活用技術的法規障礙;並繼續推動向民間開放公共資料(open data)之工作。 2. 充滿活力之社會:充分利用IT技術之居民、工作及街道   整備資料共有之基礎設施,並分析及活用RESAS(地域経済分析システム,Regional Economy Society Analyzing System)、SNS等巨量資料。 3. 安心安全的活用IT技術,實現人民有感之社會   ■適當地提供區域醫療、健康照護等服務,實現健康長壽之社會,於全國展開醫療資訊之聯合網路、活用醫療、健康資訊等資料,以預防重症、增進健康,目標於2020年之前人均壽命成長一歲以上。   ■用IT技術促進日本農業,以及周邊產業之升級等,並推動AI農業、以IT化方式保護鳥獸等技術。   ■實現世界最安全且經濟之道路交通社會,預計於2020年代後期,開始於日本全面性的適用無人駕駛系統。 4. 活用IT技術,創建集合式之公共服務社會持續推動個人號碼制度,擴大及檢討其利用之範圍,實現一卡化社會。

TOP