落實完善數位資料管理機制,
有助於降低AI歧視及資料外洩風險
資訊工業策進會科技法律研究所
2023年07月07日
近年來,科技快速發展,AI(人工智慧)等技術日新月異,在公私部門的應用日益廣泛,而且根據美國資訊科技研究與顧問公司Gartner在2023年5月發布的調查指出,隨著由OpenAI開發的ChatGPT取得成功,更促使各領域對於AI應用的高度重視與投入[1],與此同時,AI歧視及資料外洩等問題,亦成為社會各界的重大關切議題。
壹、事件摘要
目前AI科技發展已牽動全球經濟發展,根據麥肯錫公司近期發布的《生成式人工智慧的經濟潛力:下一個生產力前沿(The next productivity frontier)》研究報告指出,預測生成式AI(Generative AI)有望每年為全球經濟增加2.6兆至4.4兆的經濟價值[2]。同時在美國資訊科技研究與顧問公司Gartner對於超過2500名高階主管的調查中,45%受訪者認為ChatGPT問世,增加其對於AI的投資。而且68%受訪者認為AI的好處大於風險,僅有5%受訪者認為風險大於好處[3]。然而有社會輿論認為AI的判斷依賴訓練資料,將可能複製人類偏見,造成AI歧視問題,而且若程式碼有漏洞或帳戶被盜用時,亦會造成資料外洩問題。
貳、重點說明
首先,關於AI歧視問題,以金融領域為例,近期歐盟委員會副主席Margrethe Vestager強調若AI用於可能影響他人生計的關鍵決策時,如決定是否能取得貸款,應確保申請人不受性別或膚色等歧視[4],同時亦有論者認為若用於訓練AI的歷史資料,本身存有偏見問題,則可能導致系統自動拒絕向邊緣化族群貸款,在無形之中加劇,甚至永久化對於特定種族或性別的歧視[5]。
其次,關於資料外洩問題,資安公司Group-IB指出因目前在預設情況下,ChatGPT將保存使用者查詢及AI回應的訊息紀錄,若帳戶被盜,則可能洩露機敏資訊。據統計在2022年6月至2023年5月間,在亞太地區有近41000個帳戶被盜,而在中東和非洲地區有近25000個帳戶被盜,甚至在歐洲地區也有近17000個帳戶被盜[6]。另外在2023年3月時,ChatGPT除了發生部分用戶能夠檢視他人聊天紀錄標題的問題外,甚至發生個人資料外洩問題,即用戶可能知悉他人的姓名、電子郵件,付款地址,信用卡到期日及號碼末四碼等資料[7]。
參、事件評析
對於AI歧視及資料外洩等問題,應透過落實完善數位資料治理與管理機制,以降低問題發生的風險。首先,在收集訓練資料時,為篩選適合作為模型或演算法基礎的資料,應建立資料評估或審查機制,減少或避免使用有潛在歧視問題的資料,以確保分析結果之精確性。
其次,不論對於訓練資料、分析所得資料或用戶個人資料等,均應落實嚴謹的資料保密措施,避免資料外洩,如必須對於資料進行標示或分類,並依照不同標示或分類,評估及採取適當程度的保密措施。同時應對於資料進行格式轉換,以無法直接開啟的檔案格式進行留存,縱使未來可能不慎發生資料外洩,任意第三人仍難以直接開啟或解析資料內容。甚至在傳送帳戶登入訊息時,亦應採取適當加密傳送機制,避免遭他人竊取,盜取帳戶或個人資料。
財團法人資訊工業策進會科技法律研究所長期致力於促進國家科技法制環境完善,於2021年7月發布「重要數位資料治理暨管理制度規範(Essential Data Governance and Management System,簡稱EDGS)」,完整涵蓋數位資料的生成、保護與維護,以及存證資訊的取得、維護與驗證的流程化管理機制,故對於不同公私部門的AI相關資料,均可參考EDGS,建立系統性數位資料管理機制或強化既有機制。
本文同步刊登於TIPS網站(https://www.tips.org.tw)
[1]Gartner, Gartner Poll Finds 45% of Executives Say ChatGPT Has Prompted an Increase in AI Investment (May 3, 2023), https://www.gartner.com/en/newsroom/press-releases/2023-05-03-gartner-poll-finds-45-percent-of-executives-say-chatgpt-has-prompted-an-increase-in-ai-investment (last visited June 30, 2023).
[2]McKinsey, The economic potential of generative AI: The next productivity frontier (June 14, 2023), https://www.mckinsey.com/capabilities/mckinsey-digital/our-insights/the-economic-potential-of-generative-AI-the-next-productivity-frontier#introduction (last visited June 30, 2023).
[3]Gartner, supra note 1.
[4]Zoe Kleinman, Philippa Wain & Ashleigh Swan, Using AI for loans and mortgages is big risk, warns EU boss (June 14, 2023), https://www.bbc.com/news/technology-65881389 (last visited June 30, 2023).
[5]Ryan Browne & MacKenzie Sigalos, A.I. has a discrimination problem. In banking, the consequences can be severe (June 23, 2023), https://www.cnbc.com/2023/06/23/ai-has-a-discrimination-problem-in-banking-that-can-be-devastating.html (last visited June 30, 2023).
[6]Group-IB, Group-IB Discovers 100K+ Compromised ChatGPT Accounts on Dark Web Marketplaces; Asia-Pacific region tops the list (June 20, 2023), https://www.group-ib.com/media-center/press-releases/stealers-chatgpt-credentials/ (last visited June 30, 2023).
[7]OpenAI, March 20 ChatGPT outage: Here’s what happened (Mar. 24, 2023),https://openai.com/blog/march-20-chatgpt-outage (last visited June 30, 2023).
近年日本中小企業與大型企業合作研發、進行交易合作的商業型態日益增加,故日本中小企業廳自2017年1月至2020年3月為止(約三年間),針對日本的中小企業進行了訪談,調查了中小企業與大型企業間約12,000筆合作研發等商業行為,從中發現了許多問題,如大型企業常藉由合作研發,參觀中小企業工廠的名義,實際上是竊取中小企業技術、know how;其他還有以共同研發為名,擅自將研發成果使用在其他領域的案例等。 由於中小企業常在商業合作上處與弱勢,故日本政府為促使中小企業與大型企業的合作能符合公平交易原則、以及保護中小企業的智慧財產、技術,防止中小企業的智慧財產、技術、Know how等無形資產被商業合作夥伴(大型企業)不當使用或以非法的方式取得、使用,故日本政府計劃於今年秋天發布「中小企業智慧財產、技術保護指針」。 為改善中小企業與大型企業合作時,可能遭遇的智財、技術歸屬等問題,除透過「中小企業智慧財產、技術保護指針」提供具體的對策與措施,日本中小企業廳將於2021年編列相關預算,以智慧財產權的角度協助中小企業解決智財相關問題,並強化中小企業保護智慧財產權之意識,另外還會提供中小企業智財諮詢等相關支援。 「本文同步刊登於TIPS網站(https://www.tips.org.tw )」
歐盟執委會提出「具可信度之人工智慧倫理指引」歐盟執委會人工智慧高級專家小組(High-Level Expert Group on Artificial Intelligence)於2019年4月8日公布「具可信度之人工智慧倫理指引」(Ethics Guidelines For Trustworthy AI)。該指引首先指出,具可信度之人工智慧需具備三個關鍵特徵:(1)合法(Lawful):應遵守所有適用於人工智慧之法規;(2)合乎倫理(Ethical):確保人工智慧符合倫理原則與價值;(3)健全(Robust):自技術與社會層面觀之,避免人工智慧於無意間造成傷害。 該指引並進一步指出人工智慧應遵守以下四項倫理原則: (1) 尊重人類之自主權(Respect for Human Autonomy):歐盟之核心價值在於尊重人類之自由與自主,與人工智慧系統互動之個人,仍應享有充分且有效之自我決定空間。因此,人工智慧之運用,不應脅迫、欺騙或操縱人類,人工智慧應被設計為輔助與增強人類之社會文化技能與認知。 (2) 避免傷害(Prevention of Harm):人工智慧不應對人類造成不利之影響,亦不應加劇既有的衝突或傷害。人工智慧之系統運行環境應具備安全性,技術上則應健全,且確保不會被惡意濫用。此外,弱勢族群應於人工智慧運用中受到更多關注,並被視為服務對象。 (3) 公平(Fairness):人工智慧系統之開發、布建與利用,必須具備公平性。除了透過實質承諾與規範,進行平等與公正之利益與成本分配外,亦須透過救濟程序確保個人或特定族群不受到歧視與偏見之侵害,並可對人工智慧之自動化決策結果提出質疑,且獲得有效之補救。 (4) 可解釋性(Explicability):人工智慧應盡量避免黑箱(Black Box)決策,其系統處理程序須公開透明,並盡可能使相關決策結果具備可解釋性,分析特定訊息可能導致之決策結果,此外亦需具備可溯性且可接受審核。
歐盟通過化妝品上市與安全新規則,惟德國對內含奈米物質產品標示規範表達不同意見於去年(2009)年11月20日,歐盟會員國通過了一項關於化妝品上市與安全相關的新規則(REGULATION OF THE EUROPEAN PARLIAMENT AND OF THE COUNCIL on cosmetic products,以下簡稱化妝品規則),該項規則也將歐盟過往用以規範化妝品的55項指令化整為零,成為一項單一且更具法律拘束力之規範。 化妝品規則中前言中也特別肯認奈米物質於化妝品之應用為未來趨勢,而有必要於消費者保護、貨物自由流通以及對於製造商之法律確定性之間取得一衡平作法。針對此種內含奈米物質化妝品之管理,該規則也十分重視對產品內含奈米物質之事實提供資訊之義務。以標示為例,化妝品規則第19條針對此等化妝品,要求以「nano」字樣標明於包裝上之成分標示。值得注意的是,德國針對是項條款於去年(2009)年11月17日於歐盟理事會之官方文件中表達不同意見。認為此種標示可能被消費者誤解為一警告標示,且亦強調市售的化妝品皆屬通過嚴格的安全測試者,此也表示對內含奈米級物質之化妝品不應再給予額外的檢視。其也認為消費者對於奈米物質所關切之重點,應為此等奈米物質對產品之特性所生之改變,而非產品中是否含有奈米物質。 在歐盟綠黨成員和環保遊說團體針對奈米科技刻正鼓吹「沒有數據,就不得上市」原則之際,該項原則將加重業者證明自身產品安全無虞之舉證責任,業者也擔心該項原則將導致市面上有數百種產品自市場中下架,而德國上述聲明的意見,似乎較傾向於業者以奈米物質之功能而非以物質本身作為標示基礎之意見。
澎湖發展風力發電 催生大規模離岸風場「能源」將是本世紀最受注目的議題之一 。為了有效規劃能源配置,台電擬定風力發電十年計畫,規畫在十年內建造30萬瓩的風力發電容量,其中在風車的故鄉—澎湖,計畫催生231部風力發電風車,並將興建台澎海底電纜傳輸電力。未來,澎湖將成為台灣首座大規模的「離岸風場」。 目前我國政府正大力發展再生能源,其中台電計畫在西部沿海大量興建風力發電廠,另外,在離島的澎湖也將大量興建風力電廠。風是澎湖獨特的天然資產,目前台電在澎湖白沙鄉中屯已經建有8部風車,未來將繼續在澎湖設置231部風車。 在荒漠或海上興建風電場,是世界新趨勢,英國 2003年第一個離岸風場開始營運,下一世代新的離岸風電場總容量更將高達120萬瓩,德國兩個離岸風場容量高達30萬瓩,風場發出來的電將傳輸到歐洲中央電網。這些離岸風場不光是建在小島上,還包括以鋼或木頭架在淺海中的風車。