近年來,巨量資料(Big Data)狂潮來襲,各產業競相採用此種新型態模式,將充斥各領域之資料量,加以深度分析及集合、比對,篩選具價值性之各項資料。以美國為例,於2011年2月份正式啟動SunShot計畫,期透過聯邦政府的資源,加強推動不同領域之巨量資料分析,有利各領域之政府資源重整運用,以期使推動計畫更經濟效率且具競爭力。並且,美國政府更於2013年1月30日,宣布將挹資900萬元資助7項科專計畫,補助對象分別為: (1) SRI International; (2) 麻省理工學院(MIT); (3)北卡羅萊納大學 (Charlotte校區); (4) Sandia 國家實驗室;(5) 國家再生能源實驗室;(6) 耶魯大學;(7) 德州大學奧斯汀分校,加強各領域推動及整合。
此項「巨量資料」參與計畫之研究團隊將與公私營金融機構(financial institutions)、事業單位(utilities)及州層級之行政機關(agencies)展開合作(partnership),運用統計和電腦工具(statistical and computational tools),解決產業面之難題(challenges);同時,其將運用發展出之模型(Models),測試分散全美不同地區領航計畫(pilot projects)創新研發之影響和規模。計畫中,美國政府亦將以200萬元的預算,分析數十年來的科學報告、專利、成本、生產等資料,期能拼湊出相關產業之全貌,加速發掘科技突破之方法並有效降低成本。以德州(Texas)為例,奧斯汀分校(UT Austin)研究團隊乃與六個不同事業單位(utilities)進行合作,研析經營所蒐集之資料(datasets),以有效了解消費者的需求,提升太陽能未來安裝和聯結(installation and interconnection)之效率。
時值全球鼓勵產業轉型及資源整合,作為世界先進國家的美國,善用聯邦政府和高等學術研究機構之資源,進行整體產業之資料分析,殊值我國借鏡參考。
繼新加坡2010年版本電子交易法(Electronic Transactions Act, ETA)於2010年7月1日式施行後,該國資通訊發展局(Info-communications Development Authority, IDA)因應修正電子交易法施行細則,該細則並於2010年11月1日起正式實施。其目的在使憑證機構管理制度得以配合新興資訊安全技術齊驅發展,進而使其與國際趨勢相符,修正要點如下: 1. 修正許可制為志願許可制:此次修正最大變革即在使該國憑證機構管理制度由原本的許可制,改為志願許可制。前者係使所有憑證機構均應向主管機關申請許可後,始能對外簽發憑證;而志願許可制則是原則上憑證機構對外簽發憑證無需主管機關許可,但憑證機構如果希望所簽發之憑證具備特定法律效果,則仍須經過許可。 2. 證據法上的推定效果:經過自願申請許可通過的憑證機構,經其所簽發之憑證而製作的數位簽章將有證據法上推定為真之效力,無待憑證用戶舉證即有其真實性,惟該真實性仍可由他方另舉反證推翻。換句話說,若數位簽章製作人使用的憑證為一般未經申請許可之憑證機構所簽發者,憑證用戶需先向法院提出其他輔助證據證明該簽章真實性。 3. 許可申請之要求:憑證機構自願申請許可時,應繳交申請費1千元新加坡幣(下同)及2年有效之許可執照費1千元。此外,新版施行細則統一整合舊有之「安全指導手冊」(Security Guideline)及其他各項稽核規定於「稽核需求要項表」(Compliance Audit Checklist),以供憑證機構得以更便利之方式了解並遵循共通之稽核程序。
電信業者提供視訊服務之外國法制研析 合成資料(synthetic data)「合成資料」(synthetic data)的出現,是為了保護原始資料所可能帶有的隱私資料或機敏資料,或是因法規或現實之限制而無法取得或利用研究所需資料的情況下,透過統計學方法、深度學習、或自然語言處理等方式,讓電腦以「模擬」方式生成研究所需之「合成資料」並進行後續研究跟利用,透過這個方法,資料科學家可以在無侵犯隱私的疑慮下,使合成資料所訓練出來的分類模型(classifiers)不會比原始資料所訓練出來的分類模型差。 在合成資料的生成技術當中,最熱門的研究為運用「生成對抗網路」(Generative Adversarial Network, GAN)形成合成資料(亦有其他生成合成資料之方法),生成對抗網路透過兩組類神經網路「生成網路」(generator)與辨識網路(discriminator)對於不同真偽目標值之反覆交錯訓練之結果,使其中一組類神經網路可生成與原始資料極度近似但又不完全一樣之資料,也就是具高度複雜性與擬真性而可供研究運用之「合成資料」。 英國國防科技實驗室(Defense Science and Technology Laboratory, DSTL)於2020年8月12日發布「合成資料」技術報告,此技術報告為DSTL委託英國航太系統公司(BAE Systems)的應用智慧實驗室(Applied Intelligence Labs, AI Labs)執行「後勤科技調查」(Logistics Technology Investigations, LTI)計畫下「資料科學與分析」主題的工作項目之一,探討在隱私考量下(privacy-preserving)「合成資料」當今技術發展情形,並提供評估技術之標準與方法。 技術報告中指出,資料的種類多元且面向廣泛,包含數字、分類資訊、文字與地理空間資訊等,針對不同資料種類所適用之生成技術均有所不同,也因此對於以監督式學習、非監督式學習或是統計學方法生成之「合成資料」需要採取不同的質化或量化方式進行技術評估;報告指出,目前尚未有一種可通用不同種類資料的合成資料生成技術或技術評估方法,建議應配合研究資料種類選取合適的生成技術與評估方法。
德國資料保護會議通過「哈姆巴爾宣言」,針對人工智慧之運用提出七大個資保護要求德國聯邦及各邦獨立資料保護監督機關(unabhängige Datenschutzaufsichtsbehörden)共同於2019年4月3日,召開第97屆資料保護會議通過哈姆巴爾宣言(Hambacher Erklärung,以下簡稱「Hambacher宣言」)。該宣言指出人工智慧雖然為人類帶來福祉,但同時對法律秩序內自由及民主體制造成巨大的威脅,特別是人工智慧系統可以透過自主學習不斷蒐集、處理與利用大量個人資料,並且透過自動化的演算系統,干預個人的權利與自由。 諸如人工智慧系統被運用於判讀應徵者履歷,其篩選結果給予女性較不利的評價時,則暴露出人工智慧處理大量資料時所產生的性別歧視,且該歧視結果無法藉由修正資料予以去除,否則將無法呈現原始資料之真實性。由於保護人民基本權利屬於國家之重要任務,國家有義務使人工智慧的發展與應用,符合民主法治國之制度框架。Hambacher宣言認為透過人工智慧系統運用個人資料時,應符合歐盟一般資料保護規則(The General Data Protection Regulation,以下簡稱GDPR)第5條個人資料蒐集、處理與利用之原則,並基於該原則針對人工智慧提出以下七點個資保護之要求: (1)人工智慧不應使個人成為客體:依據德國基本法第1條第1項人性尊嚴之保障,資料主體得不受自動化利用後所做成,具有法律效果或類似重大不利影響之決策拘束。 (2)人工智慧應符合目的限制原則:透過人工智慧系統蒐集、處理與利用個人資料時,即使後續擴張利用亦應與原始目的具有一致性。 (3)人工智慧運用處理須透明、易於理解及具有可解釋性:人工智慧在蒐集、處理與利用個人資料時,其過程應保持透明且決策結果易於理解及可解釋,以利於追溯及識別決策流程與結果。 (4)人工智慧應避免產生歧視結果:人工智慧應避免蒐集資料不足或錯誤資料等原因,而產生具有歧視性之決策結果,控管者或處理者使用人工智慧前,應評估對人的權利或自由之風險並控管之。 (5)應遵循資料最少蒐集原則:人工智慧系統通常會蒐集大量資料,蒐集或處理個人資料應於必要範圍內為之,且不得逾越特定目的之必要範圍,並應檢查個人資料是否完全匿名化。 (6)人工智慧須設置問責機關進行監督:依據GDPR第12條、第32條及第35條規定,人工智慧系統內的控管者或處理者應識別風險、溝通責任及採取必要防範措施,以確保蒐集、處理與利用個人資料之安全性。 (7)人工智慧應採取適當技術與組織上的措施管理之:為了符合GDPR第24條及第25條規定,聯邦資料保護監督機關應確認,控管者或處理者採用適當的現有技術及組織措施予以保障個人資料。 綜上所述,Hambacher宣言內容旨在要求,人工智慧在蒐集、處理及利用個人資料時,除遵守歐盟一般資料保護規則之規範外,亦應遵守上述提出之七點原則,以避免其運用結果干預資料主體之基本權利。