落實完善數位資料管理機制,
有助於降低AI歧視及資料外洩風險
資訊工業策進會科技法律研究所
2023年07月07日
近年來,科技快速發展,AI(人工智慧)等技術日新月異,在公私部門的應用日益廣泛,而且根據美國資訊科技研究與顧問公司Gartner在2023年5月發布的調查指出,隨著由OpenAI開發的ChatGPT取得成功,更促使各領域對於AI應用的高度重視與投入[1],與此同時,AI歧視及資料外洩等問題,亦成為社會各界的重大關切議題。
壹、事件摘要
目前AI科技發展已牽動全球經濟發展,根據麥肯錫公司近期發布的《生成式人工智慧的經濟潛力:下一個生產力前沿(The next productivity frontier)》研究報告指出,預測生成式AI(Generative AI)有望每年為全球經濟增加2.6兆至4.4兆的經濟價值[2]。同時在美國資訊科技研究與顧問公司Gartner對於超過2500名高階主管的調查中,45%受訪者認為ChatGPT問世,增加其對於AI的投資。而且68%受訪者認為AI的好處大於風險,僅有5%受訪者認為風險大於好處[3]。然而有社會輿論認為AI的判斷依賴訓練資料,將可能複製人類偏見,造成AI歧視問題,而且若程式碼有漏洞或帳戶被盜用時,亦會造成資料外洩問題。
貳、重點說明
首先,關於AI歧視問題,以金融領域為例,近期歐盟委員會副主席Margrethe Vestager強調若AI用於可能影響他人生計的關鍵決策時,如決定是否能取得貸款,應確保申請人不受性別或膚色等歧視[4],同時亦有論者認為若用於訓練AI的歷史資料,本身存有偏見問題,則可能導致系統自動拒絕向邊緣化族群貸款,在無形之中加劇,甚至永久化對於特定種族或性別的歧視[5]。
其次,關於資料外洩問題,資安公司Group-IB指出因目前在預設情況下,ChatGPT將保存使用者查詢及AI回應的訊息紀錄,若帳戶被盜,則可能洩露機敏資訊。據統計在2022年6月至2023年5月間,在亞太地區有近41000個帳戶被盜,而在中東和非洲地區有近25000個帳戶被盜,甚至在歐洲地區也有近17000個帳戶被盜[6]。另外在2023年3月時,ChatGPT除了發生部分用戶能夠檢視他人聊天紀錄標題的問題外,甚至發生個人資料外洩問題,即用戶可能知悉他人的姓名、電子郵件,付款地址,信用卡到期日及號碼末四碼等資料[7]。
參、事件評析
對於AI歧視及資料外洩等問題,應透過落實完善數位資料治理與管理機制,以降低問題發生的風險。首先,在收集訓練資料時,為篩選適合作為模型或演算法基礎的資料,應建立資料評估或審查機制,減少或避免使用有潛在歧視問題的資料,以確保分析結果之精確性。
其次,不論對於訓練資料、分析所得資料或用戶個人資料等,均應落實嚴謹的資料保密措施,避免資料外洩,如必須對於資料進行標示或分類,並依照不同標示或分類,評估及採取適當程度的保密措施。同時應對於資料進行格式轉換,以無法直接開啟的檔案格式進行留存,縱使未來可能不慎發生資料外洩,任意第三人仍難以直接開啟或解析資料內容。甚至在傳送帳戶登入訊息時,亦應採取適當加密傳送機制,避免遭他人竊取,盜取帳戶或個人資料。
財團法人資訊工業策進會科技法律研究所長期致力於促進國家科技法制環境完善,於2021年7月發布「重要數位資料治理暨管理制度規範(Essential Data Governance and Management System,簡稱EDGS)」,完整涵蓋數位資料的生成、保護與維護,以及存證資訊的取得、維護與驗證的流程化管理機制,故對於不同公私部門的AI相關資料,均可參考EDGS,建立系統性數位資料管理機制或強化既有機制。
本文同步刊登於TIPS網站(https://www.tips.org.tw)
[1]Gartner, Gartner Poll Finds 45% of Executives Say ChatGPT Has Prompted an Increase in AI Investment (May 3, 2023), https://www.gartner.com/en/newsroom/press-releases/2023-05-03-gartner-poll-finds-45-percent-of-executives-say-chatgpt-has-prompted-an-increase-in-ai-investment (last visited June 30, 2023).
[2]McKinsey, The economic potential of generative AI: The next productivity frontier (June 14, 2023), https://www.mckinsey.com/capabilities/mckinsey-digital/our-insights/the-economic-potential-of-generative-AI-the-next-productivity-frontier#introduction (last visited June 30, 2023).
[3]Gartner, supra note 1.
[4]Zoe Kleinman, Philippa Wain & Ashleigh Swan, Using AI for loans and mortgages is big risk, warns EU boss (June 14, 2023), https://www.bbc.com/news/technology-65881389 (last visited June 30, 2023).
[5]Ryan Browne & MacKenzie Sigalos, A.I. has a discrimination problem. In banking, the consequences can be severe (June 23, 2023), https://www.cnbc.com/2023/06/23/ai-has-a-discrimination-problem-in-banking-that-can-be-devastating.html (last visited June 30, 2023).
[6]Group-IB, Group-IB Discovers 100K+ Compromised ChatGPT Accounts on Dark Web Marketplaces; Asia-Pacific region tops the list (June 20, 2023), https://www.group-ib.com/media-center/press-releases/stealers-chatgpt-credentials/ (last visited June 30, 2023).
[7]OpenAI, March 20 ChatGPT outage: Here’s what happened (Mar. 24, 2023),https://openai.com/blog/march-20-chatgpt-outage (last visited June 30, 2023).
.Pindent{text-indent: 2em;} .Noindent{margin-left: 2em;} .NoPindent{text-indent: 2em; margin-left: 2em;} .No2indent{margin-left: 3em;} .No2Pindent{text-indent: 2em; margin-left: 3em} .No3indent{margin-left: 4em;} .No3Pindent{text-indent: 2em; margin-left: 4em} 澳洲國會於2024年11月29日通過線上安全法(Online Safety Act)修正案,防止16歲以下人擁有社群媒體平臺帳號。澳洲早在2021年就制定線上安全法,將未成年人之線上安全列為規範重點,惟立法當時並未設有社群媒體平臺使用者之最低年齡限制。近年來因網路性剝削、假訊息與仇恨言論問題越發嚴重,促使澳洲國會兩院迅速通過本次修法。 新修線上安全法於第63C條增定「具年齡限制之社群媒體平臺」(Age-Restricted Social Media Platform, ARSMP)之定義,係指符合下列條件之電子服務:(1)服務之唯一或主要目的在促進2人以上終端使用者之線上社交互動,但不包商務互動(business interaction)、(2)允許終端使用者能與其他終端使用者連結或互動、(3)允許終端使用者能發布訊息及(4)其他法律規定之條件;或其他經本法授權通訊部長透過法規所明定之電子服務。目前符合此定義之ARSMP,如Snapchat、TikTok、Facebook、Instagram、X等。 ARSMP必須採取合理步驟(reasonable steps)避免16歲以下之人擁有前述社群媒體平臺帳號,違規者將被處以3萬個民事罰款單位(約美金990萬元)。新法授權電子安全專員(eSaftyCommissioner)後續訂定ARSMP合理步驟指引,或由通訊部長會商電子安全專員以法規方式訂定之。此外,新法也針對ARSMP為確認使用者年齡蒐集個人資料一事制定相關規範,包括符合目的特定原則、經當事人知情同意、目的消失後銷毀個人資料等。 為給予社群媒體平臺服務提供者調整系統之緩衝期間,新法預計於國會通過後1年內生效。
美國專利商標局就研發成果商業化議題徵集公眾意見美國專利商標局(United States Patent and Trademark Office, USPTO)於2024年3月15日至5月14日間,就促進研發成果商業化之方法徵集公眾意見;本次議題包括: (1)在研發成果商業化的過程(尤其是利用智慧財產制度以進行技術移轉時),所遇到的最大挑戰及機會各為何?以及希望USPTO提供何種協助? (2)在進行綠色和氣候技術、關鍵和新興技術移轉時,有無遇到任何智慧財產相關的挑戰及機會,以及希望USPTO提供何種協助? (3)請列出可促進研發成果運用、綠色和氣候技術及關鍵和新興技術移轉的政策與作法; (4)請列出各利害關係人在界定潛在被授權人及進行技術移轉時,所面臨的智慧財產相關挑戰,以及現行制度有無需要改變,以減少這些挑戰; (5)請就USPTO於新冠肺炎疫情期間所推動,一用於媒合新冠肺炎治療技術供需雙方之「Patent 4合作夥伴平台計畫」(The Patents 4 Partnerships platform)進行評論,包含促成合作關係之作法; (6)請就USPTO於2022年7月參與之「世界智慧財產權組織(WIPO)綠色計畫」(WIPO GREEN)進行評論,包含USPTO可如何促進計畫的成功與擴大影響力; (7)請列出USPTO可協助特定人士、技術、產業、公司,降低研發成果運用過程中面臨挑戰之可能作法; (8)請列出USPTO可協助「代表性不足群體」(underrepresented group)、個體發明者、中小企業提升研發成果運用認知,及克服現行挑戰的作法; (9)請列出USPTO可協助少數群體服務機構(Minority Serving Institutions, MSIs)、傳統黑人大學(Historically Black Colleges and Universities, HUCUs)擴大其研發成果商業化的機會; (10)USPTO在促進研發成果商業化上,可以發揮的其他作用; (11)其他國家可更促進研發成果商業化的作法。
南韓個資保護委員會發布人工智慧(AI)開發與服務處理公開個人資料指引南韓個資保護委員會(Personal Information Protection Commission, PIPC)於2024年7月18日發布《人工智慧(AI)開發與服務處理公開個人資料指引》(인공지능(AI) 개발·서비스를 위한 공개된 개인정보 처리 안내서)(以下簡稱指引)。該指引針對AI開發與服務處理的公開個人資料(下稱個資)制定了新的處理標準,以確保這些資料在法律上合規,且在使用過程中有效保護用戶隱私。 在AI開發及服務的過程中,會使用大量從網路上收集的公開資料,這些公開資料可能包含地址、唯一識別資訊(unique identifiable information, UII)、信用卡號等個資。這些公開的個資是指任意人可藉由網路抓取技術自公開來源合法存取的個資,內容不限於個資主體自行公開的資料,還包括法律規定公開的個資、出版物和廣播媒體中包含的個資等。由於公開資料眾多,在現實中很難在處理這些公開個資以進行AI訓練之前,取得每個個資主體的單獨同意及授權,同時,南韓對於處理這些公開個資的現行法律基礎並不明確。 為解決上述問題,PIPC制定了該指引,確認了蒐集及利用公開個資的法律基礎,並為AI開發者和服務提供者提供適用的安全措施,進而最小化隱私問題及消除法律不確定性。此外,在指引的制定過程中,PIPC更參考歐盟、美國和其他主要國家的做法,期以建立在全球趨勢下可國際互通的標準。 指引的核心內容主要可分為三大部分,第一部分:應用正當利益概念;第二部分:建議的安全措施及保障個資主體權利的方法;及第三部分:促進開發AI產品或服務的企業,在開發及使用AI技術時,注意可信任性。 針對第一部分,指引中指出,只有在符合個人資料保護法(Personal Information Protection Act, PIPA)的目的(第1條)、原則(第3條)及個資主體權利(第4條)規定範圍內,並滿足正當利益條款(第15條)的合法基礎下,才允許蒐集和使用公開個資,並且需滿足以下三個要求:1.目的正當性:確保資料處理者有正當的理由處理個資,例如開發AI模型以支持醫療診斷或進行信用評級等。2.資料處理的必要性:確保所蒐集和利用的公開資料是必要且適當的。3.相關利益評估:確保資料處理者的正當利益明顯超越個資主體的權利,並採取措施保障個資主體的權利不被侵犯。 而第二部分則可區分為技術防護措施、管理和組織防護措施及尊重個資主體權利規定,其中,技術防護措施包括:檢查訓練資料來源、預防個資洩露(例如刪除或去識別化)、安全存儲及管理個資等;管理和組織防護措施包括:制定蒐集和使用訓練資料的標準,進行隱私衝擊影響評估(PIA),運營AI隱私紅隊等;尊重個資主體權利規定包括:將公開資料蒐集情形及主要來源納入隱私政策,保障個資主體的權利。 最後,在第三部分中,指引建議AI企業組建專門的AI隱私團隊,並培養隱私長(Chief Privacy Officers, CPOs)來評估指引中的要求。此外,指引亦呼籲企業定期監控技術重大變化及資料外洩風險,並制定及實施補救措施。 該指引後續將根據PIPA法規修訂、AI技術發展及國際規範動向持續更新,並透過事前適當性審查制、監管沙盒等途徑與AI企業持續溝通,並密切關注技術進步及市場情況,進而推動PIPA的現代化。
歐盟執委會授權各國決定GMO的提案遭抨擊 10月環境部長會議將繼續協商歐盟執委會(European Commission)於今(2010)年7月授權歐盟各會員國自行決定禁止或准許基因改造(GM)農作物的提案,過去幾個月來即已不斷遭受外界質疑,在近日(9月27日)召開的農業部長會議上又受到主要歐盟會員國的強烈抨擊;歐盟消費者健康及安全政策部門代表John Dalli表示,這個問題將會在10月14日召開的環境部長會議繼續進行協商。 事實上,歐盟執委會的提案同時引來了GMO支持者與GMO反對者的譴責,他們認為這項議案會給農民與農產業者製造法律上的不確定空間,徒增困擾;此外,綠色和平組織歐盟農業政策執行長Marco Contiero也表示,各會員國都不應該接受執委會的這項提案,反而必須對執委會施加壓力,以確保農作物的安全並預防環境污染。農業會議上,許多會員國農業部長也擔心執委會的提案不但會分裂農產品國際市場,並也可能與WTO規則相衝突。 由於預期執委會7月份的提案可能將被撤回或大幅修改,參與農業會議的各國部長也都同意在這過渡時期成立專責的工作小組,以資因應該提案所引致的眾多批評。就現階段看起來,GMO爭議還會在歐盟繼續上演,後續的相關討論值得繼續觀察。