Ofcom在今(2013)年3月公佈「2012年第四季電信與付費電視申訴報告書」(Telecoms and Pay TV Complaints Q4 2012),以履行2003年通信法(Communications Act 2003)第26條規定:Ofcom應公布通訊資訊與建議於消費者。是故,為維護消費者之權益,並促進市場競爭,Ofcom從2011年4月起每季公佈「電信申訴報告書」 (Telecoms Complaints);同年10月修訂為「電信與付費電視申訴報告書」(Telecoms and Pay Tv Complaints)。這份報告書不僅協助消費者選擇較好供應商,更意在促進業者服務品質,而從幾次報告書中顯示,業者們被投訴量確實持續下降,可見效果斐然。 Ofcom選擇市占率超過4%、且每月被投訴超過30次的市話、固網寬頻、行動通信服務(月租),與付費電視為調查對象,以維護統計信度。當消費者申訴具有綑綁式服務(bundled services)業者,則視其申訴是否涵蓋多種服務,以Sky同時具有電話、網路服務為例,當民眾申訴廣告不實後,則此申訴僅被記錄於網路服務。由於,民眾申訴範圍相當廣泛而難以統整,Ofcom僅向外界公布業者被投訴的次數,且有下述研究限制: 1.Ofcom僅蒐集本身受理的申訴數據,而其他組織、供應商所受理的,一概不納入報告書。 2.Ofcom雖力求數據的合理性,但不會檢驗消費者投訴的真實性。 3.當Ofcom倡導某些政策時(例如打及廣告不實),可能會導致某些業者申訴量提高。 在這次報告中,各領域被投訴最多的業者如下:Talk Talk於市話服務被投訴最多,被投訴的理由多數為服務缺失與相關服務爭議。Orange則在固網寬頻、行動通信服務(月租)受到最多申訴,其原因是Orange採取民眾購買寬頻服務後,方得再取得免費網路,以取代原本免費網路的提供。在付費電視上,則是BT Vision受到最多申訴,而內容多為提供服務與處理申訴之缺失。Ofcom期以公佈這些資訊,讓消費者得於每個領域選擇最好的供應商。
談業界控管奈米風險之自主管理機制-以杜邦公司奈米風險架構為中心 歐盟個資保護委員會大致認定南韓個資保護法具適足性認定,但須進一步評估歐盟個資保護委員會(EDPB)今(2021)年9月27日,就與南韓個人資料保護法(Personal Information Protection Act, PIPA)之適足性認定草案發表意見,認為南韓的個資保護框架與歐盟大致相同。但EDPB 同時也指出,在歐盟執委會做出決定之前,某些部分仍需要釐清。釐清的部分包含: 今年6月歐盟執委會公布並通過的適足性認定草案中,該草案之可執行性與有效性不應僅拘束南韓個資保護機構,也應對司法機構具有效力。除此之外,EDPB 也針對南韓PIPA 免除多項匿名化資訊之義務提出質疑;又南韓相關法令對「同意」之撤銷(或撤回)事由有所限定,應確保其對資料主體「同意」之保障持續符合適足性認定的要求。 至於在資料進一步移轉(onward transfers)方面,EDPB 認為即便資料主體知悉並同意其個資傳輸,仍應告知其資料是否會移轉到第三國之相關風險;以及若個資主體的同意無法符合GDPR 對有效同意之定義時(例如雙方地位不對等時,該同意即非有效),該個資不會從南韓之資料控管者傳輸至第三國;在對此議題南韓未具體修訂相關法令時,與國安相關的個資若進一步移轉,是否會受到憲法框架(如比例原則)和PIPA 中個資保護原則的充分保障? 而在行政部門存取傳輸到南韓的個資方面,許多議題也需要釐清並引起關注。如與國安方面相關的個資處理,係受PIPA 抑或其他更為限縮的法令限制?又電信業者自願向國安部門揭露使用者個資時,必須同時通知相關的個資主體;EDPB 並希望歐盟執委會釐清,若歐洲經濟區(EEA)內的個人向南韓個資保護機構或司法機構提出救濟時,相關的救濟程序是否實質有效(例如舉證責任的規定為何)? 於新聞稿中,EDPB 主席 Andrea Jelinek 表示:「歐盟對此適足性認定相當重視,因其將涵蓋公部門與私部門資料的傳輸。而適足的個資保護對支持歐盟與南韓的長期關係與個人權利、自由方面至關重要。雖然EDPB 認為南韓的個資保護框架與歐盟大致相同,然仍建議歐盟執委會密切關注適足性認定的各方發展。」
法國國家資訊自由委員會將推出符合GDPR的人工智慧操作指引(AI how-to sheets)法國國家資訊自由委員會(CNIL)於2023年10月16日至11月16日進行「人工智慧操作指引」(AI how-to sheets)(下稱本指引)公眾諮詢,並宣布將於2024年初提出正式版本。本指引主要說明AI系統資料集建立與利用符合歐盟一般資料保護規則(GDPR)之作法,以期在支持人工智慧專業人士創新之外,同時能兼顧民眾權利。 人工智慧操作指引主要內容整理如下: 1.指引涵蓋範圍:本指引限於AI開發階段(development phase),不包含應用階段(deployment phase)。開發階段進一步可分為三階段,包括AI系統設計、資料蒐集與資料庫建立,以及AI系統學習與訓練。 2.法律適用:當資料處理過程中包含個人資料時,人工智慧系統的開發與設計都必須確定其適用的法律規範為何。 3.定義利用目的:CNIL強調蒐集及處理個資時應該遵守「明確」、「合法」、「易懂」之原則,由於資料應該是基於特定且合法的目的而蒐集的,因此不得以與最初目的不相符的方式進一步處理資料。故明確界定人工智慧系統之目的為何,方能決定GDPR與其他原則之適用。 4.系統提供者的身分:可能會是GDPR中的為資料控管者(data controller)、共同控管者(joint controller)以及資料處理者(data processor)。 5.確保資料處理之合法性:建立AI系統的組織使用的資料集若包含個人資料,必須確保資料分析與處理操作符合GDPR規定。 6.必要時進行資料保護影響評估(DIPA)。 7.在系統設計時將資料保護納入考慮:包含建立系統主要目標、技術架構、識別資料來源與嚴格篩選使用…等等。 8.資料蒐集與管理時皆須考慮資料保護:具體作法包含資料蒐集須符合GDPR、糾正錯誤、解決缺失值、整合個資保護措施、監控所蒐集之資料、蒐集之目的,以及設定明確的資料保留期限,實施適當的技術和組織措施以確保資料安全等。 對於AI相關產業從事人員來說,更新AI相關規範知識非常重要,CNIL的人工智慧操作指引將可協助增強AI產業對於個資處理複雜法律問題的理解。