歐盟網路暨資訊安全局於2017年12月7日發布「重要基礎設施資訊安全培訓需求盤點報告」(Stocktaking of information security training needs in critical sectors)之文件,點出各重要基礎設施之「電腦安全事件反應小組」(Computer Security Incident Response Teams, CISRT)所必須接受之資安訓練種類。
歐盟之網路與資訊系統安全指令(The Directive on security of network and information systems, NIS Directive)規範各成員國之重要服務營運者(operator of essential service)必須確認出哪些服務於維繫社會與經濟活動上具備重要性。被認定具備重要性之部門如下:能源、運輸、銀行業、金融市場基礎設施、健康照護部門、飲用水供應與分配、數位基礎設施。
此份報告指出,該重要性部門之資安等級需求並不盡相同,因此導致各部門面對資安事件之準備無法相提並論。例如,能源產業會用到SCADA系統,而金融市場基礎設施則普遍沒有相關需求。而由於NIS指令將上述七種部門列為資訊安全維護最高層級,故此份報告目的係確認該部門當前的處境,並與現階段可取得之網路安全訓練對照,進一步具體檢視各重要部門是否有其他額外的網路安全訓練需求。
我國行政院於民國106年4月公布之資通安全管理法草案要求關鍵基礎設施提供者應訂定、修正、實施資通安全維護計畫,並向中央目的事業主管機關或直轄市、縣(市)政府提出該計畫之實施情形,在未來實際落實各重要性設施之資安維護以及資安小組訓練時,須意識到各重要性設施之資訊安全需求差異性,及相關人員必須針對不同單位而受不同之訓練。
美國司法部宣布日商普利司通(Bridgestone Corp.)股份有限公司,就其共謀操縱安裝於汽車中並銷售至美國及其他國家之汽車防震橡膠零組件價格乙案認罪,並同意支付4億2仟5佰萬美元之刑事罰金。 根據俄亥俄州(Ohio)地方法院所提起的一項重罪控訴,該公司於美國及其他國家共謀參與分配銷售、操縱報價及壟斷、提高並維持其出售予豐田(Toyota)、日產(Nissan)汽車公司、富士重工業(Fuji Heavy Industries)公司、鈴木(Suzuki Motor)公司、五十鈴(Isuzu Motors)汽車公司及其某些子公司、加盟和供應商之汽車防震橡膠零組件價格。除了刑事罰金外,普利司通公司並同意配合司法部進行後續之汽車零組件案調查。本認罪協議(plea agreement),業經法院批准。 在2011年10月,普利司通公司即因「海洋軟管」(marine hose)乙案涉嫌壟斷價格及違反「海外貪污防治法」(Foreign Corrupt Practices Act)而遭控訴,經認罪協議並支付2仟8佰萬美元罰金。但於是案答辯中,該公司並未就其同時涉及防震橡膠零組件共謀操縱價格乙情,主動為揭露。該公司未主動揭露上情,乃是本次罰金高達4億2仟5佰萬美元原因之一。 美國司法部副助理部長Brent Snyder表示:「美國司法部反托拉斯署將針對屢犯卻未主動揭露其他反競爭行為者,採取強硬態度。本案之鉅額罰金,即重申該署致力於令企業就其傷害美國消費者之行為,負起責任。」普利司通公司遭指控因價格壟斷違反謝爾曼法案,依法最重可處1億美元之刑事罰金。如企業因犯罪所獲利益之兩倍數額,或犯罪被害人所受損失之兩倍數額,其一逾前開法定最高罰金時,得加重至該數額。
落實完善數位資料管理機制,有助於降低AI歧視及資料外洩風險落實完善數位資料管理機制, 有助於降低AI歧視及資料外洩風險 資訊工業策進會科技法律研究所 2023年07月07日 近年來,科技快速發展,AI(人工智慧)等技術日新月異,在公私部門的應用日益廣泛,而且根據美國資訊科技研究與顧問公司Gartner在2023年5月發布的調查指出,隨著由OpenAI開發的ChatGPT取得成功,更促使各領域對於AI應用的高度重視與投入[1],與此同時,AI歧視及資料外洩等問題,亦成為社會各界的重大關切議題。 壹、事件摘要 目前AI科技發展已牽動全球經濟發展,根據麥肯錫公司近期發布的《生成式人工智慧的經濟潛力:下一個生產力前沿(The next productivity frontier)》研究報告指出,預測生成式AI(Generative AI)有望每年為全球經濟增加2.6兆至4.4兆的經濟價值[2]。同時在美國資訊科技研究與顧問公司Gartner對於超過2500名高階主管的調查中,45%受訪者認為ChatGPT問世,增加其對於AI的投資。而且68%受訪者認為AI的好處大於風險,僅有5%受訪者認為風險大於好處[3]。然而有社會輿論認為AI的判斷依賴訓練資料,將可能複製人類偏見,造成AI歧視問題,而且若程式碼有漏洞或帳戶被盜用時,亦會造成資料外洩問題。 貳、重點說明 首先,關於AI歧視問題,以金融領域為例,近期歐盟委員會副主席Margrethe Vestager強調若AI用於可能影響他人生計的關鍵決策時,如決定是否能取得貸款,應確保申請人不受性別或膚色等歧視[4],同時亦有論者認為若用於訓練AI的歷史資料,本身存有偏見問題,則可能導致系統自動拒絕向邊緣化族群貸款,在無形之中加劇,甚至永久化對於特定種族或性別的歧視[5]。 其次,關於資料外洩問題,資安公司Group-IB指出因目前在預設情況下,ChatGPT將保存使用者查詢及AI回應的訊息紀錄,若帳戶被盜,則可能洩露機敏資訊。據統計在2022年6月至2023年5月間,在亞太地區有近41000個帳戶被盜,而在中東和非洲地區有近25000個帳戶被盜,甚至在歐洲地區也有近17000個帳戶被盜[6]。另外在2023年3月時,ChatGPT除了發生部分用戶能夠檢視他人聊天紀錄標題的問題外,甚至發生個人資料外洩問題,即用戶可能知悉他人的姓名、電子郵件,付款地址,信用卡到期日及號碼末四碼等資料[7]。 參、事件評析 對於AI歧視及資料外洩等問題,應透過落實完善數位資料治理與管理機制,以降低問題發生的風險。首先,在收集訓練資料時,為篩選適合作為模型或演算法基礎的資料,應建立資料評估或審查機制,減少或避免使用有潛在歧視問題的資料,以確保分析結果之精確性。 其次,不論對於訓練資料、分析所得資料或用戶個人資料等,均應落實嚴謹的資料保密措施,避免資料外洩,如必須對於資料進行標示或分類,並依照不同標示或分類,評估及採取適當程度的保密措施。同時應對於資料進行格式轉換,以無法直接開啟的檔案格式進行留存,縱使未來可能不慎發生資料外洩,任意第三人仍難以直接開啟或解析資料內容。甚至在傳送帳戶登入訊息時,亦應採取適當加密傳送機制,避免遭他人竊取,盜取帳戶或個人資料。 財團法人資訊工業策進會科技法律研究所長期致力於促進國家科技法制環境完善,於2021年7月發布「重要數位資料治理暨管理制度規範(Essential Data Governance and Management System,簡稱EDGS)」,完整涵蓋數位資料的生成、保護與維護,以及存證資訊的取得、維護與驗證的流程化管理機制,故對於不同公私部門的AI相關資料,均可參考EDGS,建立系統性數位資料管理機制或強化既有機制。 本文同步刊登於TIPS網站(https://www.tips.org.tw) [1]Gartner, Gartner Poll Finds 45% of Executives Say ChatGPT Has Prompted an Increase in AI Investment (May 3, 2023), https://www.gartner.com/en/newsroom/press-releases/2023-05-03-gartner-poll-finds-45-percent-of-executives-say-chatgpt-has-prompted-an-increase-in-ai-investment (last visited June 30, 2023). [2]McKinsey, The economic potential of generative AI: The next productivity frontier (June 14, 2023), https://www.mckinsey.com/capabilities/mckinsey-digital/our-insights/the-economic-potential-of-generative-AI-the-next-productivity-frontier#introduction (last visited June 30, 2023). [3]Gartner, supra note 1. [4]Zoe Kleinman, Philippa Wain & Ashleigh Swan, Using AI for loans and mortgages is big risk, warns EU boss (June 14, 2023), https://www.bbc.com/news/technology-65881389 (last visited June 30, 2023). [5]Ryan Browne & MacKenzie Sigalos, A.I. has a discrimination problem. In banking, the consequences can be severe (June 23, 2023), https://www.cnbc.com/2023/06/23/ai-has-a-discrimination-problem-in-banking-that-can-be-devastating.html (last visited June 30, 2023). [6]Group-IB, Group-IB Discovers 100K+ Compromised ChatGPT Accounts on Dark Web Marketplaces; Asia-Pacific region tops the list (June 20, 2023), https://www.group-ib.com/media-center/press-releases/stealers-chatgpt-credentials/ (last visited June 30, 2023). [7]OpenAI, March 20 ChatGPT outage: Here’s what happened (Mar. 24, 2023),https://openai.com/blog/march-20-chatgpt-outage (last visited June 30, 2023).
美國FDA發布「醫療器材單一識別碼系統」規則草案美國推動醫療器材「單一識別」(Unique Device Identification, UDI)系統已行之有年,藉由建立UDI系統,強化醫療器材錯誤回報(Adverse Event Report)以及上市後產品監督(Post-Market Surveillance)等相關資訊的流通,以保障病人的安全。2007年由美國國會所通過的《食品藥物管理法修正案》(Food and Drug Administration Amendments Act of 2007, FDAAA)第226項,修正《食品、藥物及化妝品法》(Federal Food, Drug, and Cosmetic Act , FD&C Act)新增第519項f款,提供美國食品藥物管理局(U.S. Food and Drug Administration, FDA)訂定「醫療器材單一識別系統」法規之法源基礎。另一方面,在美國國會的要求之下,FDA於2012年7月3日正式發布「醫療器材單一識別碼系統」規則草案,進行公眾預告與評論(Notice and Comment)程序。 FDA長期收集醫療器材產業、醫療社群、病人與消費者,以及產業專家之建議,而將這些建議呈現在規則草案內容中,目的在於減少廠商成本,並順利建置UDI系統,是故草案內容實採取某些公司實際使用的標準與系統經驗。FDA所發布的規則草案重點如下: 1.「單一識別碼」將分為「器材識別碼」(Device Identifier),包含特定器材的單一識別;「生產識別碼」(Production Identifier),包含器材的生產資訊。 2.將採取區分醫療器材風險程度之高低作為標準,分階段置入高風險的醫療器材的「單一識別碼系統」;低風險的醫療器材將有條件在部分或全部的規則中例外免除。 3.免除零售的非處方(Over the Counter)醫療器材適用此規範,係因這些器材尚有統一商品條碼(Universal Product Code, UPC)作為識別。 FDA宣稱,隨著系統的建置與規範的制定,絕大多數的醫療器材將必須具有統一的日期標準,包含標籤上的到期日;亦必須使UDI能夠容易閱讀,且能為系統自動識別與應用資料擷取技術,進一步成為全球UDI資料庫建置的標準。我國目前雖尚無UDI系統的相關法規範,但產業與主管機關已就相關議題進行討論,而FDA所發佈的規則草案之發展歷程,即可作為相關單位在制定法規之參考,藉此瞭解先進國家在此議題之發展,提早與先進國家之標準做接軌。