英國資訊委員辦公室(Information Commissioner’s Office, ICO)於今(2019)年4月15日發布「合適年齡設計:網路服務行為準則」(Age appropriate design: a code of practice for online services)諮詢報告,針對18歲以下孩童使用網路服務所涉及個人資料之相關議題提出遵循標準,要求網路服務提供商應受遵循以保障孩童隱私資訊。
本次諮詢報告主要針對網路服務如何適當確保孩童個人資料,同時符合歐盟《一般資料保護規則》(General Data Protection Regulation, GDPR)以及《隱私及電子通訊規則》(Privacy and Electronic Communications Regulations, PECR),若網路服務提供商未依循該行為準則,將很難證明符合GDPR、PECR規定,ICO亦採取監管措施(regulatory action),包含警告、譴責、執行通知、罰款等。於諮詢報告中,臚列涉及個人資料事項,包括資料共享、地理定位(geolocation)、家長監控(parental controls)、輕推技術(nudge techniques)、默認裝置(default settings)、側寫(profiling)等多達16項遵循標準,其中輕推技術引發抑制網路科技發展、過度監管爭議。
所謂「輕推技術」是指專為引導用戶或鼓勵用戶決策時可以點選之程式以表示用戶想法,簡而言之Facebook、Instagram按「讚」功能、社群軟體Snapchat「Streaks」互動功能,或是新聞網頁常見「是」或「不是」選擇性問題視窗等即是輕推技術應用。由於輕推技術之設計會蒐集用戶瀏覽網頁習慣,甚至透露其個人性格、生活狀態給廣告商或社群媒體等。
諮詢報告指出,依據GDPR前言第38點規定,因孩童對於其個人資料處理之可能風險、結果及相關保護措施及其權利認知較低,同時依GDPR第5條規定個人資料之蒐集處理與利用,對資料主體者應為合法、公正及透明(lawfulness, fairness and transparency)。但輕推技術的運用將會促使資料主體者更容易地提供其個人資料,同時,尤其會誘導兒童去選擇隱私保護較低的選項設定或花費更多時間在這些服務上,而此一技術之運用正是利用資料主體者之心理偏差(psychological bias),而違反了公平與透明原則。因此諮詢報告書要求網路服務提供商應主動限制孩童使用輕推功能。ICO於諮詢文件更詳細依0-5歲、6-9歲、10-12歲、13-15歲、16-17歲不同年齡層限制輕推技術應用之程度,或在何種情況須有家長陪同,以保障孩童隱私。
此項標準引來正反兩派意見,主張自由市場(free market)人士批評,認為有過度監管之嫌並阻礙科技發展,輕推技術本身不是問題,而是在於蒐集個人資料後要做那些運用,同時要如何執行限制技術之應用亦將是問題所在。而贊成者認為廠商如提供網路服務給所有年齡層時,應有特別措施以保護不同年齡層之人,因此對於孩童與成人間之監管程度應有區別。該諮詢報告於今(2019)年5月31日截止公眾諮詢階段,並預計2020年初施行該行為準則。
美國聯邦貿易委員會(Federal Trade Commission,以下簡稱FTC)在2016年2月針對一款宣稱能矯正視力之Ultimeyes App處罰。此款App由Carrot Neurotechnology公司研發,以美金9.99元於平台上販售供民眾下載。App宣稱具有提升及改善視力功能,透過App使用即可在日常生活中的各種活動中,感受視力恢復而不需使用眼鏡。然而,FTC起訴認為,App所稱之使用療效,缺乏充分的文獻資料佐證說明。其必須具備完整及可信賴的科學證據來證明,包含臨床試驗或盲測等方式,且該科學證明必須符合相同領域專家所認定之標準,否則,該款App內容所標榜之效果即屬不實陳述,將造成民眾誤認。為此,Carrot Neurotechnology公司最終以美金15萬達成和解,並且經FTC要求,若將App說明當中未經科學證明的療效部份予以刪除,即可繼續再繼續販售此款App。此案並非美國FTC首度針對mHealth App處罰之案例,然而,可能造成mHealth App發展業者對FTC與FDA角色之間之混淆,後續兩者主管機關之間之角色如何調和將是未來關注之重點。反觀我國,目前雖無相關案例發生,然在鼓勵發展之際,亦應考量是否有違反消費者保護之情形。
英國成立英國衛生與社會照護資訊中心整合政府醫療資訊隨著英國國家健康服務(National Health Service, NHS)的改革,衛生和社會照護法(The Health and Social Care Act 2012)第九部分第二章,規範成立英國衛生與社會照護資訊中心(The Health and Social Care Information Centre, HSCIC)作為政府醫療資訊公開、整合與管理單位,此項規定於今(2013)年4月1日生效。 HSCIC並非正式的政府部會,而屬於執行行政法人(Executive Non Departmental Public Bodies),向衛生部長(Secretary of State for Health)負責,其職責除了蒐集、分析和傳播國家資料暨統計資訊以外,同時亦進行國家各層級的醫療資訊基礎設施的整合,作為醫療資訊數據公開的門戶;此外,HSCIC利用其行政法人的特性,將醫療組織視為客戶,提供不同的服務和產品,以協助其達到所需的資訊管理需求。透過HSCIS對於資訊的整合再公開,有助於在增進政府資訊透明性的同時,亦保障了資訊流動的效率和安全性。 其中HSCIC對於敏感性資料之應用,特別設立資料近用諮詢小組(Data Access Advisory Group, DAAG)予以處理。資料諮詢小組是每月定期由HSCIC所主持的獨立運作團體,須向HSCIC委員會負責。當HSCIC面臨敏感性資料或可識別個人資料之應用(包括是為了研究目的,和為了促進病人的醫療照護所需之應用)時,即交由資料近用諮詢小組會議來討論,以確保揭露該項資訊的風險降到最低。 從HSCIC的組織任務能輕易地發現其具有強大整合醫療資訊之功能,其未來發展勢必與過往飽受爭議的醫療資訊應用息息相關,因此相當值得我們持續觀察HSCIC的後續動態。
英國新聞申訴委員會首度網路影片違反隱私權爭議作成裁定英國新聞申訴委員會(The Press Complaints Commission,簡稱PCC)日前針對某報業網路上發布之影片寄出違反隱私權之處罰裁定,該影片為一位16歲之高中學生利用行動電話所拍攝,內容紀錄該學生就讀之班級學生於教室內脫序的上課狀況,該學生錄下脫序現象之目的在向自己父母解釋其數學成績不佳之原因,此一事件被英國報紙The Sun, The Daily Mirror and The Hamilton Advertiser報導出來並將該影片公布於網路。 該校「家長、老師會」(Parent Teacher Association)為此向英國新聞申訴委員會提出申訴,主張報社報導並於網路上公布該影片之行為,構成對於影片中學生之隱私權侵害,因為包括校方、學生以及學生家長皆未對影片播放表示同意。 PCC表示,學校的風紀問題已被認定與公共利益相關,而本案影片學校對於學生鬆散管理導致之脫序行為已經影響學生學習之表現,明顯屬於重要之公共利益事項。然而,該報社於報導此事件時,無論於報紙上之圖片以及網路上之影片皆未加以處理,尤其,網路上之影片有部分學生之身分可被明顯辨識,而新聞媒體具有確保學生隱私權不致於因出現鏡頭前而受到侵害之責,雖然依據該報社表示若將學生影像模糊處理將降低事件可能造成之影響,但學生隱私之保護將比新聞媒體呈現事件之利益更為重要,故裁定該報社違反新聞媒體工作規範中之隱私權保護規定。 PCC從今年(2007年)2月已開始對於報社所擁有之多媒體網路內容規範管理,而該規範並未排除大眾提出之資料,只要該資料為該報社可編輯掌控之範圍內,皆受到規範。
金融穩定委員會報告指出金融領域採用AI之模型、資料品質與治理風險.Pindent{text-indent: 2em;} .Noindent{margin-left: 2em;} .NoPindent{text-indent: 2em; margin-left: 2em;} .No2indent{margin-left: 3em;} .No2Pindent{text-indent: 2em; margin-left: 3em} .No3indent{margin-left: 4em;} .No3Pindent{text-indent: 2em; margin-left: 4em} 金融穩定委員會(Financial Stability Board, FSB)於2024年11月14日發布《人工智慧對金融穩定的影響》報告,探討人工智慧(Artificial Intelligence, AI)在金融領域的應用進展及對全球金融穩定的影響,分析相關風險並提出建議。 報告指出AI具有提升效率、加強法規遵循、提供個人化金融產品及進階資料分析等益處,但同時可能加劇某些金融部門的脆弱性(Vulnerability),進而構成金融穩定風險。報告特別提出之脆弱性包括:「第三方依賴及服務供應商集中化」、「市場相關性」、「資安風險」,以及「模型風險、資料品質和治理」。 在模型風險、資料品質與治理中,廣泛應用AI可能導致模型風險上升,因某些模型難以驗證、監控及修正,且模型的複雜性與透明性不足將增加尋找具獨立性和專業知識的驗證者的挑戰。此外,在大型語言模型(Large Language Model, LLM),大規模非結構化資料的使用及訓練資料來源的不透明性,使資料品質評估更加困難。特別是在預訓練模型(Pre-trained Model)中,金融機構對眾多資料來源的評估方式不熟悉,進一步增加管理難度。 若金融機構未建立健全的治理架構以審查AI的使用及其資料來源,模型風險與資料品質問題將難以控制。金融機構有責任應對與AI相關的模型風險和資料品質挑戰,包含對模型進行驗證、持續監控、執行結果分析和評估資料品質的預期要求。 報告呼籲各國金融主管機關加強對AI發展的監測,評估現行金融政策框架是否充分,並增強監管能力。建議可定期或不定期調查AI應用情形,並透過報告及公開揭露制度獲取相關資訊。此外,主管機關可考慮利用監督科技(SupTech)及監管科技(RegTech)等AI驅動工具強化監管效能,以應對AI在金融領域帶來的挑戰與風險。