近年韓國國內發生多起重大資訊安全疏失,例如:2014年韓國三大信用卡公司客戶資料外洩,成為韓國史上最嚴重的個人資料洩漏事件。為加強控管,韓國政府於2015年7月通過最新個人資料保護法修正案(Personal Information Protection Act, PIPA)。修正案新增懲罰性損害賠償及法定損害賠償規定。未來該國違反個人資料保護法的機關,將會面臨鉅額罰金及損害賠償。韓國政府期望藉此來促使企業加強資料安全管理。
根據最新修正案條文,若某機關因故意或重大過失,造成個人資料被遺失、竊取、洩漏、偽造、竄改或損毀,經法院判決後,最高將會被處以實質損害金額三倍的懲罰性損害賠償。此外,除非該機關能舉證當事人的損害與機關之行為沒有因果關係,否則當事人可請求最高3百萬韓元(約台幣8萬元)的法定損害賠償。
此次,韓國個人資料保護法修正案另一個重點在擴大韓國個人資料保護委員會(The Personal Information Protection Committee)的職權。該委員會將成為資訊安全爭議的最終裁決機關,且擁有相關資訊安全管理相關政策制定及修正的提議權。
由於此修正案將於2016年7月正式實行。韓國政府建議各大機關應儘快依照新修正案內容檢討並更新其隱私權政策及資料安全防護機制,避免在新法上路後遭罰。
隨著去年( 93 )「臺灣地區人民法人團體或其他機構擔任大陸地區法人團體或其他機構職務或為其成員許可管理辦法」的公佈,加上行政院十月已將「敏感科學技術保護法」列為立法院第 6 屆第 2 會期優先審議法案,若是完成立法程序後,將同步對敏感科學技術以及人才登陸進行嚴密管制。 這項管理措施雖在於避免大陸不正當的挖角行為、國家核心技術及人才外流等,但是截至目前為止,限制進出的高科技人才清單至今尚未公告;即便清單公告後,相信透過第三地進出等投機方式,政府在管理上應當會疲於奔命,增加執行困難。政府發展高科技經濟理應建立「吸引留下」的環境,而非以防堵心態限制人才登陸工作,如此只會加速人才的流失、國外人才或廠商來台工作或投資之意願降低,更遑論台灣永續發展的可能。
世界衛生組織發布人工智慧於健康領域之監管考量因素文件,期能協助各國有效監管健康領域之人工智慧世界衛生組織(World Health Organization, WHO)於2023年10月19日發布「人工智慧於健康領域之監管考量因素」(Regulatory considerations on artificial intelligence for health)文件,旨在協助各國有效監管健康領域之人工智慧,發揮其潛力同時最大限度地降低風險。本文件以下列六個領域概述健康人工智慧之監管考量因素: (1)文件化與透明度(Documentation and transparency) 開發者應預先規範(pre-specifying)以及明確記錄人工智慧系統(以下簡稱AI系統)之預期醫療目的與開發過程,如AI系統所欲解決之問題,以及資料集之選擇與利用、參考標準、參數、指標、於各開發階段與原始計畫之偏離及更新等事項,並建議以基於風險之方法(Risk-based approach),根據重要性之比例決定文件化之程度、以及AI系統之開發與確效紀錄之保持。 (2)風險管理與AI系統開發生命週期方法(Risk management and AI systems development lifecycle approaches) 開發者應在AI系統生命之所有階段,考慮整體產品生命週期方法(total product lifecycle approach),包括上市前開發管理、上市後監督與變更管理。此外,須考慮採用風險管理方法(risk management approach)來解決與AI系統相關之風險,如網路安全威脅與漏洞(vulnerabilities)、擬合不足(underfitting)、演算法偏差等。 (3)預期用途、分析及臨床確效(Intended use, and analytical and clinical validation) 開發者應考慮提供AI系統預期用途之透明化紀錄,將用於建構AI系統之訓練資料集組成(training dataset composition)之詳細資訊(包括大小、設定與族群、輸入與輸出資料及人口組成等)提供給使用者。此外,可考慮透過一獨立資料集(independent dataset)之外部分析確效(external analytical validation),展示訓練與測試資料以外之效能,並考慮將風險作為臨床確效之分級要求。最後,於AI系統之上市後監督與市場監督階段,可考慮進行一段期間密集之部署後監督(post-deployment monitoring)。 (4)資料品質(Data quality) 開發者應確認可用資料(available data)之品質,是否已足以支援AI系統之開發,且開發者應對AI系統進行嚴格之預發布評估(pre-release evaluations),以確保其不會放大訓練資料、演算法或系統設計其他元素中之偏差與錯誤等問題,且利害關係人還應考慮減輕與健康照護資料有關之品質問題與風險,並繼續努力創建資料生態系統,以促進優質資料來源之共享。 (5)隱私與資料保護(Privacy and data protection) 開發者於AI系統之設計與部署過程中,應考慮隱私與資料保護問題,並留意不同法規之適用範圍及差異,且於開發過程之早期,開發者即應充分瞭解適用之資料保護法規與隱私法規,並應確保開發過程符合或超過相關法規要求。 (6)參與及協作(Engagement and collaboration) 開發者於制定人工智慧創新與部署路線圖之期間,需考慮開發可近用且具有充足資訊之平台,以於適合與適當情況下促進利害關係人間之參與及協作;為加速人工智慧領域實務作法之進化,透過參與及協作來簡化人工智慧監管之監督流程即有必要。
日本提出未來車聯網社會之三大威脅及促進實現車聯網社會策略日本總務省之實現車聯網社會研究會(Connected Car 社会の実現に向けた研究会,下稱車聯網研究會),於2017年8月4日公布研究成果。車聯網研究會指出未來車聯網將面對①遠距離操作、網絡攻擊之威脅;②資料(Data)真實性之威脅;③隱私權之保護等三大威脅。針對遠距離操作、網絡攻擊之威脅,在汽車端及網路端皆應提出防止威脅之策略;在確保資料真實性方面,需建立機制,以防止資料中途被篡改;未來在車輛雲端資料之應用,應以隱私權保護為前提,始促進車輛資料之利用及活用,以保護相關人之隱私權。 車聯網研究會在促進實現車聯網社會策略中,希望透過①聯網計畫(Connected Network プロジェクト)、②互聯資料計畫(Connected Data プロジェクト)、③互聯平台計畫(Connected Platform プロジェクト)等三個計畫,共同建立推廣實證平台,以確立及實證必要之技術,建立資料利用及活用之模式及環境,架構開放性合作模式,並確保隱私及安全性。進而建設高度可靠性之無線通信網路、透過創新產業和商業模式促進資料之利用、創新環境的發展,達到解決日本之社會問題、實踐便利與舒適之生活、國家競爭力之強化與確保等車聯網社會三大目標,最終落實安全、安心、舒適的車聯網社會。
美國於5月通過愛國者法案修正案美國參議院於今年(2020年)5月,通過了由共和黨領袖 Mitch McConnell 所提議主張,恢復《愛國者法案》(Patriot Act)中,原本應於今年3月失效的215條監控條款,該條款允許執法機構在沒有搜索令的情況下,取得人民的網路歷史瀏覽和搜尋紀錄。 此修正案授予聯邦調查局(FBI)及中央情報局(CIA)等執法機構權力,只要其認為該紀錄與犯罪調查有關並且在檢察總長的監督下,即可無須經過法官批准,獲取人民的網路歷史瀏覽和搜尋紀錄。此法案雖限制執法機構不得取得人民瀏覽和搜尋網頁的「內容」,但卻可以取得該歷史紀錄,而歷史紀錄中詳細記載了人民所瀏覽的網站及所輸入的關鍵字。 倡導隱私保護而反對此一法案的團體,認為政府在此法案的支持下,能夠藉由打擊恐怖主義、避免社會動亂、保護國家安全以及保護兒童等理由,對人民進行監視、侵害其隱私。反對者認為網路瀏覽和搜尋紀錄是美國人最敏感、最個人和最私密的部分,人們會把所想到的每一個想法都透過網路去搜尋,並且瀏覽相關網站,因此,獲取人民的網路瀏覽和搜尋紀錄即等同於了解其內心想法。此法案的反對者包含了兩黨的部分參議員、自由派公民團體「美國公民自由聯盟(American Civil Liberties Union)」以及保守派公民團體「繁榮美國(Americans for Prosperity)」,其認為並無任何證據能夠證明政府依《愛國者法案》所進行的大規模監管,得以拯救任何人的生命。 民主國家中,如何在犯罪追訴以及民主自由之間找到平衡,會是一個值得深究的問題。