落實完善數位資料管理機制,有助於降低AI歧視及資料外洩風險

落實完善數位資料管理機制,
有助於降低AI歧視及資料外洩風險

資訊工業策進會科技法律研究所
2023年07月07日

近年來,科技快速發展,AI(人工智慧)等技術日新月異,在公私部門的應用日益廣泛,而且根據美國資訊科技研究與顧問公司Gartner在2023年5月發布的調查指出,隨著由OpenAI開發的ChatGPT取得成功,更促使各領域對於AI應用的高度重視與投入[1],與此同時,AI歧視及資料外洩等問題,亦成為社會各界的重大關切議題。

壹、事件摘要

目前AI科技發展已牽動全球經濟發展,根據麥肯錫公司近期發布的《生成式人工智慧的經濟潛力:下一個生產力前沿(The next productivity frontier)》研究報告指出,預測生成式AI(Generative AI)有望每年為全球經濟增加2.6兆至4.4兆的經濟價值[2]。同時在美國資訊科技研究與顧問公司Gartner對於超過2500名高階主管的調查中,45%受訪者認為ChatGPT問世,增加其對於AI的投資。而且68%受訪者認為AI的好處大於風險,僅有5%受訪者認為風險大於好處[3]。然而有社會輿論認為AI的判斷依賴訓練資料,將可能複製人類偏見,造成AI歧視問題,而且若程式碼有漏洞或帳戶被盜用時,亦會造成資料外洩問題。

貳、重點說明

首先,關於AI歧視問題,以金融領域為例,近期歐盟委員會副主席Margrethe Vestager強調若AI用於可能影響他人生計的關鍵決策時,如決定是否能取得貸款,應確保申請人不受性別或膚色等歧視[4],同時亦有論者認為若用於訓練AI的歷史資料,本身存有偏見問題,則可能導致系統自動拒絕向邊緣化族群貸款,在無形之中加劇,甚至永久化對於特定種族或性別的歧視[5]

其次,關於資料外洩問題,資安公司Group-IB指出因目前在預設情況下,ChatGPT將保存使用者查詢及AI回應的訊息紀錄,若帳戶被盜,則可能洩露機敏資訊。據統計在2022年6月至2023年5月間,在亞太地區有近41000個帳戶被盜,而在中東和非洲地區有近25000個帳戶被盜,甚至在歐洲地區也有近17000個帳戶被盜[6]。另外在2023年3月時,ChatGPT除了發生部分用戶能夠檢視他人聊天紀錄標題的問題外,甚至發生個人資料外洩問題,即用戶可能知悉他人的姓名、電子郵件,付款地址,信用卡到期日及號碼末四碼等資料[7]

參、事件評析

對於AI歧視及資料外洩等問題,應透過落實完善數位資料治理與管理機制,以降低問題發生的風險。首先,在收集訓練資料時,為篩選適合作為模型或演算法基礎的資料,應建立資料評估或審查機制,減少或避免使用有潛在歧視問題的資料,以確保分析結果之精確性。

其次,不論對於訓練資料、分析所得資料或用戶個人資料等,均應落實嚴謹的資料保密措施,避免資料外洩,如必須對於資料進行標示或分類,並依照不同標示或分類,評估及採取適當程度的保密措施。同時應對於資料進行格式轉換,以無法直接開啟的檔案格式進行留存,縱使未來可能不慎發生資料外洩,任意第三人仍難以直接開啟或解析資料內容。甚至在傳送帳戶登入訊息時,亦應採取適當加密傳送機制,避免遭他人竊取,盜取帳戶或個人資料。

財團法人資訊工業策進會科技法律研究所長期致力於促進國家科技法制環境完善,於2021年7月發布「重要數位資料治理暨管理制度規範(Essential Data Governance and Management System,簡稱EDGS)」,完整涵蓋數位資料的生成、保護與維護,以及存證資訊的取得、維護與驗證的流程化管理機制,故對於不同公私部門的AI相關資料,均可參考EDGS,建立系統性數位資料管理機制或強化既有機制。

本文同步刊登於TIPS網站(https://www.tips.org.tw

[1]Gartner, Gartner Poll Finds 45% of Executives Say ChatGPT Has Prompted an Increase in AI Investment (May 3, 2023), https://www.gartner.com/en/newsroom/press-releases/2023-05-03-gartner-poll-finds-45-percent-of-executives-say-chatgpt-has-prompted-an-increase-in-ai-investment (last visited June 30, 2023).

[2]McKinsey, The economic potential of generative AI: The next productivity frontier (June 14, 2023), https://www.mckinsey.com/capabilities/mckinsey-digital/our-insights/the-economic-potential-of-generative-AI-the-next-productivity-frontier#introduction (last visited June 30, 2023).

[3]Gartner, supra note 1.

[4]Zoe Kleinman, Philippa Wain & Ashleigh Swan, Using AI for loans and mortgages is big risk, warns EU boss (June 14, 2023), https://www.bbc.com/news/technology-65881389 (last visited June 30, 2023).

[5]Ryan Browne & MacKenzie Sigalos, A.I. has a discrimination problem. In banking, the consequences can be severe (June 23, 2023), https://www.cnbc.com/2023/06/23/ai-has-a-discrimination-problem-in-banking-that-can-be-devastating.html (last visited June 30, 2023).

[6]Group-IB, Group-IB Discovers 100K+ Compromised ChatGPT Accounts on Dark Web Marketplaces; Asia-Pacific region tops the list (June 20, 2023), https://www.group-ib.com/media-center/press-releases/stealers-chatgpt-credentials/ (last visited June 30, 2023).

[7]OpenAI, March 20 ChatGPT outage: Here’s what happened (Mar. 24, 2023),https://openai.com/blog/march-20-chatgpt-outage (last visited June 30, 2023).

你可能會想參加
※ 落實完善數位資料管理機制,有助於降低AI歧視及資料外洩風險, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=9013&no=66&tp=1 (最後瀏覽日:2026/01/07)
引註此篇文章
你可能還會想看
英國資訊專員辦公室對連鎖藥局違反GDPR存放敏感個資作成裁罰首例

  英國資訊專員辦公室(Information Commissioner's Office, ICO)於2019年12月20日發布首宗依據歐盟一般資料保護規則(General Data Protection Regulation, GDPR)之裁罰。   本案源於英國藥物及保健產品管理局(Medicines and Healthcare products Regulatory Agency, MHRA)接獲投訴前往倫敦當地一家名為Doorstep Dispensaree Ltd之連鎖藥局進行藥品違規調查,卻意外發現其後院存放大量敏感個資文件,約五十萬個文件檔案皆未做任何資料檔案保護措施,上面更記載名字、地址、出生日期、NHS號碼、醫療資料及處方籤等患者之個人資料,旋即通報英國資訊專員辦公室展開調查。最終英國資訊專員辦公室以該藥局違反歐盟一般資料保護規則(General Data Protection Regulation, GDPR)第5條1項第f款、第24條第1項及第32條,裁罰275,000英鎊。其裁罰理由如下: 一、隱私政策並不符合要求,如未述明蒐集個人資料之類別,未訂定個資保存期限,當事人告知聲明不完備,無當事人權利行使等。 二、無適當安全維護措施 三、涉及敏感性個資,違法情狀嚴重 四、未積極配合調查 五、影響層面甚深,導致該藥局配合之上百家療養院,近千名當事人個資受損害。   此為英國資訊專員辦公室首宗依據歐盟一般資料保護規則確定裁罰之案例且涉及敏感性個資,有其指標性。除此之外,英國航空與萬豪酒店之個資外洩案亦欲依GDPR進行裁罰,實值持續關注後續發展。

美國白宮呼籲採取行動,打擊利用AI生成影像進行之性虐待行為

美國白宮於2024年5月23日公開呼籲採取行動以打擊利用AI生成性影像,及未經當事人同意傳播真實影像的性虐待行為。此次呼籲源自白宮「解決線上騷擾與虐待問題工作小組」(Task Force to Address Online Harassment and Abuse)相關行動、總統第14110號行政命令-「安全、可靠且可信任之AI開發及利用」(Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence),以及尖端AI公司自願管理AI風險之承諾(Voluntary AI Commitments)。 白宮指出,迄今為止生成式AI已淪為性虐待的主要工具,同時,涉及未經同意散布或威脅散布私人性影像,亦將對受害者造成嚴重的心理傷害。白宮呼籲相關利害關係人透過自願性承諾,預防與減輕性虐待影像之影響,如: (1)阻止性虐待影像獲利: 對於從事性虐待影像業務的網站或應用程式,支付平臺與金融機構可限制或拒絕對其提供支付服務。 (2)停止創建深偽性虐待影像 : 對於可透過AI生成性影像之網路服務或應用程式,雲端服務供應商與應用程式商店得減少此類網路服務或應用程式運作。此外,應用程式商店可要求應用程式開發人員採取措施,防止使用者製作非經當事人同意的AI生成性影像。 (3)防止散播性虐待影像: 應用程式與作業系統開發人員可啟用技術保護措施,以保護數位裝置上儲存之內容,防止未經當事人同意分享其影像。 (4)支援並參與為受害者提供有效補救措施之服務: 平臺與利害關係人可選擇與相關組織合作,使性虐待影像受害者可輕鬆且安全地從線上平臺中刪除未經同意之內容。此外,白宮亦呼籲國會修訂於2022年重新授權之「婦女暴力防制法」(Violence Against Women Act Reauthorization),延續並加強原有法律保護效力,同時為AI生成之性虐待影像的受害者提供關鍵援助資源。

智慧聯網基礎設施與應用服務之法制建構-資訊安全與車聯網之例

歐盟修正重型車輛碳排放規定,擴大適用範圍並提高減排目標

歐盟於2024年4月26日通過重型車輛二氧化碳排放性能標準(Regulation (EU)2019/1242)修正案,加速交通運輸部門的脫碳進程,以實現2050年淨零排放目標。修法重點如下: (1)擴大適用範圍:除了現有的卡車外,亦納入市區公車、長途巴士(7.5噸以上)、拖車等車型,如垃圾車等特種車輛也將從2035年起納入管制。而歐盟執委會將於2027年評估是否將5噸以下小型貨車也納入規範。 (2)明確減排目標:要重型車輛的二氧化碳排放量在2030年、2035年和2040年分別較2019年減少45%、65%和90%。求2030年起,90%的新售市區公車必須為零排放車輛,並在2035年達到100%零排放。 (3)技術中立原則:允許製造商選擇電動化、氫燃料電池或氫內燃機等不同技術路線來達成減排目標。 (4)豁免及彈性條款:針對礦業、林業和農業用車,以及軍用、緊急救災和醫療用途車輛等特殊用途車輛,或年產量低於100輛的小型製造商,新法將不強制納管。且為確保產業公正轉型,歐盟也提供相關培訓和資金援助,協助產業轉型和勞工技能提升。 歐盟執委會將於2027年評估這項規範的實施成效,並考慮納入更多車型、制定全生命週期碳排放計算方法,以及評估可再生燃料在交通運輸部門脫碳進程中的作用。

TOP