雲端運算具有降低資訊營運成本、資料集中化管理等正面效益,因此,許多事業紛紛選擇將資料轉而儲存至雲端運算設備。
事業會評估多項因素做為選擇雲端運算廠商之依據,這些因素包含資料隱私防護程度、權限控管功能等。為提供事業更有效率及精準地選擇雲端運算廠商,紐西蘭個人資料隱私主管機關(Privacy Commissioner)特別諮詢及訪談了當地使用雲端運算的企業及政府單位,彙整其所提供之經驗與意見後,撰寫檢視雲端運算廠商之指導原則。該原則不僅著重於協助中小企業如何有效管理上傳及儲存於雲端運算或其他委外設備儀器資料之隱私及安全性,另還發展出10項檢視要點,提供企業做為選擇評估之自我檢視工具。
10項檢視要點分別為:(1)評估事業所能承受之風險等級與擁有之資源,選擇相對應的雲端運算供應商與類型;(2)確認所上傳至雲端運算之資料對於當事人隱私之重要程度;(3)確認事業所需承擔之所有責任;(4)資料傳輸過程與儲存位址之安全維護措施;(5)確認雲端運算供應商條件是否符合資格;(6)確認與雲端運算供應商所簽合約之涵蓋範圍及條件保障;(7)對資料提供者踐行告知義務並建立完善之回應機制;(8)了解資料儲存城市或地點,並確認該地區所提供之隱私保護制度與侵害申訴管道;(9)資料使用及接觸之人員權限管理;(10)雲端運算供應商服務契約終止後資料之處理及提供方式。
紐西蘭個人資料隱私主管機關相信,事業必須確保傳輸至雲端運算資料之隱私及安全能受到一定程度之保護,才能避免其商譽及信譽受到損害。
落實完善數位資料管理機制, 有助於降低AI歧視及資料外洩風險 資訊工業策進會科技法律研究所 2023年07月07日 近年來,科技快速發展,AI(人工智慧)等技術日新月異,在公私部門的應用日益廣泛,而且根據美國資訊科技研究與顧問公司Gartner在2023年5月發布的調查指出,隨著由OpenAI開發的ChatGPT取得成功,更促使各領域對於AI應用的高度重視與投入[1],與此同時,AI歧視及資料外洩等問題,亦成為社會各界的重大關切議題。 壹、事件摘要 目前AI科技發展已牽動全球經濟發展,根據麥肯錫公司近期發布的《生成式人工智慧的經濟潛力:下一個生產力前沿(The next productivity frontier)》研究報告指出,預測生成式AI(Generative AI)有望每年為全球經濟增加2.6兆至4.4兆的經濟價值[2]。同時在美國資訊科技研究與顧問公司Gartner對於超過2500名高階主管的調查中,45%受訪者認為ChatGPT問世,增加其對於AI的投資。而且68%受訪者認為AI的好處大於風險,僅有5%受訪者認為風險大於好處[3]。然而有社會輿論認為AI的判斷依賴訓練資料,將可能複製人類偏見,造成AI歧視問題,而且若程式碼有漏洞或帳戶被盜用時,亦會造成資料外洩問題。 貳、重點說明 首先,關於AI歧視問題,以金融領域為例,近期歐盟委員會副主席Margrethe Vestager強調若AI用於可能影響他人生計的關鍵決策時,如決定是否能取得貸款,應確保申請人不受性別或膚色等歧視[4],同時亦有論者認為若用於訓練AI的歷史資料,本身存有偏見問題,則可能導致系統自動拒絕向邊緣化族群貸款,在無形之中加劇,甚至永久化對於特定種族或性別的歧視[5]。 其次,關於資料外洩問題,資安公司Group-IB指出因目前在預設情況下,ChatGPT將保存使用者查詢及AI回應的訊息紀錄,若帳戶被盜,則可能洩露機敏資訊。據統計在2022年6月至2023年5月間,在亞太地區有近41000個帳戶被盜,而在中東和非洲地區有近25000個帳戶被盜,甚至在歐洲地區也有近17000個帳戶被盜[6]。另外在2023年3月時,ChatGPT除了發生部分用戶能夠檢視他人聊天紀錄標題的問題外,甚至發生個人資料外洩問題,即用戶可能知悉他人的姓名、電子郵件,付款地址,信用卡到期日及號碼末四碼等資料[7]。 參、事件評析 對於AI歧視及資料外洩等問題,應透過落實完善數位資料治理與管理機制,以降低問題發生的風險。首先,在收集訓練資料時,為篩選適合作為模型或演算法基礎的資料,應建立資料評估或審查機制,減少或避免使用有潛在歧視問題的資料,以確保分析結果之精確性。 其次,不論對於訓練資料、分析所得資料或用戶個人資料等,均應落實嚴謹的資料保密措施,避免資料外洩,如必須對於資料進行標示或分類,並依照不同標示或分類,評估及採取適當程度的保密措施。同時應對於資料進行格式轉換,以無法直接開啟的檔案格式進行留存,縱使未來可能不慎發生資料外洩,任意第三人仍難以直接開啟或解析資料內容。甚至在傳送帳戶登入訊息時,亦應採取適當加密傳送機制,避免遭他人竊取,盜取帳戶或個人資料。 財團法人資訊工業策進會科技法律研究所長期致力於促進國家科技法制環境完善,於2021年7月發布「重要數位資料治理暨管理制度規範(Essential Data Governance and Management System,簡稱EDGS)」,完整涵蓋數位資料的生成、保護與維護,以及存證資訊的取得、維護與驗證的流程化管理機制,故對於不同公私部門的AI相關資料,均可參考EDGS,建立系統性數位資料管理機制或強化既有機制。 本文同步刊登於TIPS網站(https://www.tips.org.tw) [1]Gartner, Gartner Poll Finds 45% of Executives Say ChatGPT Has Prompted an Increase in AI Investment (May 3, 2023), https://www.gartner.com/en/newsroom/press-releases/2023-05-03-gartner-poll-finds-45-percent-of-executives-say-chatgpt-has-prompted-an-increase-in-ai-investment (last visited June 30, 2023). [2]McKinsey, The economic potential of generative AI: The next productivity frontier (June 14, 2023), https://www.mckinsey.com/capabilities/mckinsey-digital/our-insights/the-economic-potential-of-generative-AI-the-next-productivity-frontier#introduction (last visited June 30, 2023). [3]Gartner, supra note 1. [4]Zoe Kleinman, Philippa Wain & Ashleigh Swan, Using AI for loans and mortgages is big risk, warns EU boss (June 14, 2023), https://www.bbc.com/news/technology-65881389 (last visited June 30, 2023). [5]Ryan Browne & MacKenzie Sigalos, A.I. has a discrimination problem. In banking, the consequences can be severe (June 23, 2023), https://www.cnbc.com/2023/06/23/ai-has-a-discrimination-problem-in-banking-that-can-be-devastating.html (last visited June 30, 2023). [6]Group-IB, Group-IB Discovers 100K+ Compromised ChatGPT Accounts on Dark Web Marketplaces; Asia-Pacific region tops the list (June 20, 2023), https://www.group-ib.com/media-center/press-releases/stealers-chatgpt-credentials/ (last visited June 30, 2023). [7]OpenAI, March 20 ChatGPT outage: Here’s what happened (Mar. 24, 2023),https://openai.com/blog/march-20-chatgpt-outage (last visited June 30, 2023).
NIH公布最新GWAS基因型與表現型數據資料庫分享近用方針經過了一整年向各界諮詢與彙整各方意見後,美國國家衛生研究院(NIH)於今年8月底,公布其所資助之GWAS基因型與表現型數據資料庫(genotype-phenotype datasets)之分享近用方針。此方針希望在保障研究參與者的個人隱私前提下,協助科學研究社群取得相關基因數據資料。GWAS數據資料對科學有顯著的幫助,並具有龐大的潛在公共利益,然而,提供個人的基因型與表現型資料進行科學研究,涉及個人隱私與秘密之保護,故具有高度的敏感性而受到大眾關切。 因此,NIH在訂定這項方針時,為了搜集各方意見,首先於去年5月,宣布計畫更新GWAS的數據資料分享政策,後於去年8月公開徵詢大眾對方針之意見,次又依據所蒐集之各方意見,於去年12月針對此分享政策舉辦會議進行討論,根據這些討論所形成之共識,併同NIH內部討論之結果,最後形成此項分享政策。 方針中指出,如何在促進科學研究之目的,與保護相關參與人的權利間取得平衡,是相當重要的議題,故本方針分別對研究人員近用之程序、基因數據資料的處理與參與者權利之保護進行詳細規範。舉例來說,本方針要求欲近用資料庫的研究人員,提供其研究必須使用此資料庫的書面說明資料;另外也會對所有存放在資料庫的數據資料進行去個人化處理,使該項資訊無法再以技術判別,並使用隨機方法加密,以確保參與者的隱私與保密資料不遭外洩。根據NIH表示,此方針雖然僅是對GWAS數據資料庫的近用作規範,但未來亦有意將其作為近用其他類似資料庫的規範參考架構。
日本經濟產業省公布「再生能源導入促進關聯制度改革小委員會報告書」日本經濟產業省「促進再生能源關連制度改革小委員會(再生可能エネルギー導入促進関連制度改革小委員会)」於2016年2月5日公布了報告書,該報告書集結了自2015年9月以來,共計13次的討論整理,未來FIT制度改革方向,將以此為根基。 提出該報告的目的在於,達成最加能源構成方案(エネルギーミックス)之目標,於2030年導入22-24%之再生能源,冀望在最大限度導入再生能源,並與抑制國民負擔之間調合並存。 該報告提出五大修正制度方針,分別簡述如下: (一)針對未運行案件對應修正認證制度 (1) 進一步加強撤銷認證制度之報告徵收及聽證程序。 (2) 創設新認證制度,應確認該發電事業的實施可能性後,才得認定為FIT。 (二)促進長期安定發電的配套措施 (1) 事業者應做適當的檢查及維修、發電量定期報告,制定廢棄及回收等應遵守事項。若有違反情事,主管機關得發出改善命令或是取消認定資格。 (2) 確認並遵守所涉及之土地使用條例、公告認定資訊、提供地方政府建構計畫內容。 (三)導入成本效率 (1) 設定中長期之「收購價格」目標。 (2) 以Top Runner等方式決定具備「成本效率」之收購價格,亦即以最佳方式選擇。 (3) 賦課金減免制度為一個可持續的機制,同時透過活用賦課金以確保基金,並確認對象事業的節能方案及對國際競爭力的影響等(檢討減免率)。 (四)擴大導入開發週期長(リードタイムの長い)之電力 (1) 開發週期較長之電力,預先於數年前決定認證案件之收購價格。 (2) 進行環評期間減半(通常為3~4年)等必要規制改革。 (3) 於FIT認證前,得申請接續系統。 (4) 針對不同電力的挑戰檢討對應的支援方法 (五)擴大導入電力系統改革之優勢 (1) 基於「廣域系統整備計畫」,計畫性地推動整備廣域系統。 (2) 對應區域系統之限制,公告系統資訊以及建設費用之單價。此外,繼續活用投標邀請規則(入札募集ルール),共同負擔系統升級費用。 (3) FIT收購義務人由零售事業者轉換為輸配電事業者,並促進全國區域間電力調配(広域融通)之順暢性。收購後之電力,得經由交易市場外直接輸送予零售事業者。 (4) 整備再生能源事業者間公平之輸出控制規則(公平な出力制御ルール)。
奧克蘭市(Oakland)成為美國第三個禁止公部門使用人臉辨識技術的城市近年來,人臉辨識(Face recognition)技術迅速發展,增加便利性的同時,也伴隨了種種隱憂,如:對隱私權的侵害、公部門權力濫用等,是以加州舊金山市(San Francisco)和麻薩諸塞州薩默維爾市(Somerville)分別在今年(2019)5月和6月發布公部門使用人臉辨識技術的相關禁令,加州奧克蘭市(Oakland)並於7月16日跟進,成為美國第三個禁止公部門使用人臉辨識技術的城市。 2018年麻省理工學院曾針對人臉辨識技術的正確率做過研究,其研究結果報告顯示黑人女性辨識錯誤率超過30%,遠不如白人男性;美國公民自由聯盟(American Civil Liberties Union, ACLU)也針對Amazon人臉辨識軟體Rekognition做過測驗,結果該系統竟誤將28名美國國會議員顯示為嫌疑犯,這兩項研究顯示,人臉辨識技術存有極高錯誤率且對種族間存有很大的偏見與歧視。對此奧克蘭市議會主席卡普蘭(Rebecca Kaplan)一項聲明中表示:「當多項研究都指出一項新興技術具有缺陷,且造成寒蟬效應的時候,我們必須站出來」。 卡普蘭並表示:「建立社區和警察間信任與良好關係以及導正種族偏見是很重要的,人臉辨識技術卻反而加深此問題」、「對於隱私權和平等權的保護是最基本的」,故奧克蘭市通過禁止公部門使用人臉辨識技術的法令,原因如下: 人臉辨識系統所依賴的資料集,具高度不準確性。 對於人臉辨識技術的使用與共享,尚缺乏標準。 這項技術本身具有侵犯性,如:侵犯個人隱私權。 政府如果濫用該技術所得之資訊,可導致對弱勢族群的迫害。 雖然目前美國僅有三個城市通過政府機關禁止使用人臉辨識技術的法令,但依照目前的發展狀態,其他的城市甚至州在未來也可能會跟進頒布禁令。