人工智慧(Artificial Intelligence, AI)的應用,已逐漸滲透到日常生活各領域中。為提升AI運用之效益,減少AI對個人與社會帶來之負面衝擊,英國資訊委員辦公室(Information Commissioner’s Office, ICO)於2019年3月提出「AI稽核框架」(Auditing Framework for Artificial Intelligence),作為確保AI應用合乎規範要求的方法論,並藉機引導公務機關和企業組織,評估與管理AI應用對資料保護之風險,進而建構一個可信賴的AI應用環境。
AI稽核框架主要由二大面向所構成—「治理與可歸責性」(governance and accountability)以及「AI特定風險領域」(AI-specific risk areas)。「治理與可歸責性」面向,係就公務機關和企業組織,應採取措施以遵循資料保護規範要求的角度切入,提出八項稽核重點,包括:風險偏好(risk appetite)、設計階段納入資料保護及透過預設保護資料(data protection by design and by default)、領導管理與監督(leadership management and oversight)、政策與程序(policies and procedures)、管理與通報架構(management and reporting structures)、文書作業與稽核紀錄(documentation and audit trails)、遵循與確保能力(compliance and assurance capabilities)、教育訓練與意識(training and awareness)。
「AI特定風險領域」面向,則是ICO特別針對AI,盤點下列八項潛在的資料保護風險,作為風險管理之關注重點:
一、 資料側寫之公平性與透明性(fairness and transparency in profiling);
二、 準確性(accuracy):包含AI開發過程中資料使用之準確性,以及應用AI所衍生資料之準確性;
三、 完全自動化決策模型(fully automated decision making models):涉及人類介入AI決策之程度,歐盟一般資料保護規則(General Data Protection Regulation, GDPR)原則上禁止無人為介入的單純自動化決策;
四、 安全性與網路(security and cyber):包括AI測試、委外處理資料、資料重新識別等風險;
五、 權衡(trade-offs):不同規範原則之間的取捨,如隱私保護與資料準確性;
六、 資料最少化與目的限制(data minimization and purpose limitation);
七、 資料當事人之權利行使(exercise of rights);
八、 對廣泛公共利益和權利之衝擊(impact on broader public interests and rights)。
ICO將持續就前述AI特定風險領域,進行更深入的分析,並開放公眾討論,未來亦將提供相關技術和組織上之控制措施,供公務機關及企業組織進行稽核實務時之參考。
日本經濟產業省(下稱經產省)於2023年6月6日發布中小企業開發IoT機器之產品資安對策指引(IoT機器を開発する中小企業向け製品セキュリティ対策ガイド),本指引彙整企業應該優先推動IoT機器資安對策,經產省提出具體資安對策如下: 1.制定產品資安政策(セキュリティポリシー)並廣為宣導:由企業經營者率先制定資安政策,進行教育宣導,並依實際需求修正調整。 2.建立適當的資安政策體制:確立實施資安政策必要之人員及組織,明確其職務及責任。 3.指定IoT機器應遵守之資安事項,並預測風險:決定IoT機器的預設使用者及使用案例,並於釐清使用者需求後,指定IoT機器應遵守之資安事項,預測衍生風險。 4.考量IoT機器應遵守之資安事項及預測風險,進行設計與開發:以預設IoT機器應遵守之資安事項衍生風險為基礎,從設計與開發階段開始採取風險對策。 5.檢測是否符合資安相關要件:從設計與開發階段開始制定檢測計畫,檢測是否符合資安要件,並依據檢測結果進行改善。 6.於產品出貨後蒐集風險資訊,與相關人員溝通並適時提供支援:蒐集全球資安事故與漏洞資訊,並設置可適時與委外廠商以及用戶溝通之窗口。
何謂日本「尖端大型研究設施」?所謂「尖端大型研究設施」,系指日本《特定尖端大型研究設施共用促進法》(特定先端大型研究施設の共用の促進に関する法律)中,由國立研究法人所設置,並受該法規範之研究設施。 該法之目的係在設置被認為不適合於國立實驗研究機關,或進行研究之獨立行政法人中重複設置之以高額經費購置的該研究領域中最尖端技術之研究設施設備,並於該研究領域中進行多樣化研究之活用,以發揮其最大之價值。 目前受到該法規定的研究設施包括特定同步輻射研究設施,其包含了「SPring-8」及「SACLA」等兩座大型同步輻射研究設施,與特定超級電腦設施,亦即超級電腦「京」,以及包括了高強度質子加速器「J-PARC」之一部的特定中子輻射研究設施;以SPring-8為例,該設施之網站上登載有使用情報、使用申請及參考資料等,供欲使用該設施之研究人員參考。
日本對未來2020年至2030年間網路基礎設施之預測日本總務省未來網路基礎設施研究會(将来のネットワークインフラに関する研究会)4月份針對日本人工智慧(Artificial Intelligence 簡稱AI)、物聯網(Internet of Things 簡稱IoT)、資訊及通訊技術(Information and Communication Technologies 簡稱ICT)等技術相對應之網路基礎設施做作出預測。 在2020年以後第五代通信技術(5G)、物聯網系統、高畫質通訊等技術相繼成熟及普及化,相關業者勢必發展出多樣化、高度專業化使用者需求之網路結構,而手機聯網系統從單純的資訊傳遞網路,逐漸變成社會系統之神經網絡(社会システムの神経網)。 物聯網服務目前係由專用終端設備,並根據特定的應用目的建構,但在未來的網絡基礎設施,可能出現如橫向合作應用的通用平台,到2030年左右物聯網服務中M2M(Machine to Machine,機器和機器之間的通訊)的佔有率估計將達到10%。 人工智慧網路技術不僅僅是虛擬化層網路(仮想化レイヤのネットワーク)之維護和操作,更是物理層面的網路(物理レイヤのネットワーク)資源的管理,AI仍然只擔任協助之工具。其中,物理網絡(物理ネットワーク)和邏輯網絡(論理ネットワーク)應分別處理,邏輯網絡將型成多層次化,將變得難以檢測故障和調查原因,但在安全和可靠的網絡基礎設施下,經營者使用AI技術仍然是沒有問題的。 由於雲端技術、通訊技術之提昇,非電信營運者進入網路經營之商業型態逐漸產生,型成網路使用者、資料提供者之多樣性及複雜性。網路流量方面,在2030年左右將超出100Tbps核心網絡所需的傳輸容量,達到以往的光纖的容量限制,將透過無線電接入技術進一步發展,補足不足的光學寬頻。然而,人們對於網路更快的通信速度、安全性及可靠性的功能需求是沒有改變的。
歐盟法院做成先決裁判,臉書粉絲專頁管理員也有責任保護用戶資料隱私歐盟法院於2018年6月5日對德國行政法院依歐盟運作條約第267條(267 AEUV),就歐盟個人資料保護指令(95/46/EC)第2、4條之解釋適用,提起的先訴裁判申請做出先訴判決。判決提及利用臉書(Face Book)平台經營粉絲專頁,並獲取臉書相關服務的管理者,同樣負有保護用戶資料隱私的責任。此將影響眾多的粉絲專頁,判決指出不僅臉書,連粉絲專頁的管理員都有保護訪客資料安全的責任。 由於臉書粉絲專業的經營者,並未保存其粉絲的相關資料,既不經手資料處理,更無力影響資料如何呈現,因此主張資料處理的責任應該在於臉書身上,處罰對象也應該是臉書。判決理由指出,臉書作為粉絲專頁相關個人資料的控制者(data controller)應負相關責任並無疑問,但歐盟地區粉絲專業的管理者,應該和臉書一樣,作為資料處理的共同責任者。蓋管理者係運用臉書提供的設定參數,將粉絲專頁的近用者資料蒐集處理,應該負共同責任。因此歐盟法院判決,利用臉書平台經營粉絲專頁,並獲取臉書相關服務的管理者(administrator),並不能免於個資保護法律的法遵義務。 另外依據德國聯邦資料保護與資訊安全委員會(BFDI)意見,認為雖然判決是基於一般資料保護規則(GDPR)生效之前就已經存在的法律,但法院所確定的共同責任原則也適用於新的法律。BFDI特別建議公共機構以歐盟判決為契機,審查公共機構粉絲頁面的合法性與是否遵守法律規定,並在必要時說服Facebook調整資料保護。