AT&T 控告資料掮客非法竊取客戶通話紀錄

  AT&T 8 24 控告 25 個販賣資料的掮客( data broker ),在其訴狀中指出大約有 2500 個客戶的個人紀錄被非法竊取, AT T 已通知相關客戶已被通知並凍結其帳戶。


  
AT&T 並未於訴狀中明確地列出被告的名字,表示目前必須利用電腦郵件以及電腦 IP 位址來確認被告為哪些人, AT&T 宣稱一旦這些資料掮客經鑑定被確認後,除了賠償 AT&T 的損害之外,還須償還其販賣資料所獲得的不法利益。


  
PrivacyToday.com 網站的總裁表示,「買資料的人無處不在,但只有少數的人會非法竊取客戶資料,而這少部分的人大多都可以被追蹤的到。」


  這並非唯一的案例,未來將會有越來越多相似的問題產生。被竊取的資料不僅僅只有電話紀錄,還有銀行、醫療或其他個人敏感資料,每分每秒都有人在想著如何取到私密資料並從中獲得不法利益。目前州及聯邦已經考慮立法,將有關電話紀錄的欺騙行為判定為不法行為。

相關連結
※ AT&T 控告資料掮客非法竊取客戶通話紀錄, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=404&no=67&tp=1 (最後瀏覽日:2026/01/27)
引註此篇文章
你可能還會想看
歐盟執委會推遲個人資料保護指令修正計畫

  歐盟執委會主席Barroso在今年年初設立了負責「正義、基本權與公民」(Justice Fundamental Right and Citizenship)事務的新任務單位。而負責此單位的執委會委員Reding自年初以來已多次宣示對個人資料保護以及隱私權的重視。在今年三月份的演講中,Reding更宣布將在年底前提出修正歐盟個人資料保護指令的內容。惟此承諾在歐盟會員國的壓力下恐怕無法踐履了。歐盟執委會於日前已表示將提出一份新的行動宣示來取代原先的修法計畫。   歐盟目前的個人資料保護指令乃在1995年制定,迄今已有15年之久,雖然其許多原則在今日仍然適用,但面對新科技、新應用,如社交網站、雲端應用等的發展,該指令仍不免顯出不足之處。此外,在原先的架構下,執委會也無法介入所謂歐盟「第三支柱」下的事務(亦即與犯罪相關的警政、司法合作事務),但此狀況在里斯本條約通過後理應有所改變。以上兩點也正是Reding提議修正個人資料保護指令的理由。但由於部分歐盟會員國政府認為Reding所提有窒礙難行之處,例如法國即直言Reding的修法時程不切實際,執委會及Reding也因此放棄原先規劃。至於新的行動宣示到底會不會真的納入歐盟個人資料保護指令的修正計畫,其時程與內容如何,值得持續注意。

何謂「Sitra」?

  芬蘭創新研究發展基金(Finnish Innovation Fund, Sitra) 成立於1967年,是由芬蘭國會直接監督及管理的獨立性公共部門,為芬蘭第一個以科技為主旨的創業投資基金。Sitra設立主要目的是提供對創新企業或風險性專案提供無償資助或貸款,專門研究如何在芬蘭全方位各領域以創新帶動社會發展,使其在國際市場更具競爭力。Sitra為初創公司提供所需資金的15%到40%,待支持的項目成功後,獲取的回報即可再用於擴大投資,創造正向循環的投資環境。與芬蘭國家技術創新局(Tekes)相比,Sitra主要投資於公司和創業公司以創造有利可圖的新興業務;而Tekes為芬蘭經濟及就業部之一部分,主要資助大學、研究單位或私人公司進行科技研發,是芬蘭科技產業創新研發重要支柱。

澳洲發布《人工智慧臨床應用指引》提供臨床照護之人工智慧使用合規框架

澳洲醫療安全與品質委員會(Australian Commission on Safety and Quality in Health Care, ACSQHC)與衛生、身心障礙及高齡照護部(Department of Health, Disability and Ageing)聯合於2025年8月發布《人工智慧臨床應用指引》(AI Clinical Use Guide),旨在協助醫療人員於臨床情境中安全、負責任使用人工智慧(Artificial Intelligence, AI)。該文件回應近年生成式AI與機器學習快速導入醫療現場,卻伴隨證據不足、風險升高的治理挑戰,試圖在促進創新與確保病人安全之間建立清楚的合規框架。 該指引以臨床流程為核心,將AI使用區分為「使用前、使用中、使用後」三個階段,強調醫療人員須理解AI工具的預期用途、證據基礎與風險限制,並對所有AI產出負最終專業責任。文件特別指出,當AI工具用於診斷、治療、預測或臨床決策支持時,可能構成醫療器材,須符合澳洲醫療用品管理管理局(Therapeutic Goods Administration, TGA)的相關法規要求。 在風險治理方面,該指引明確區分規則式AI、機器學習與生成式AI,指出後兩者因輸出不確定性、資料偏誤與自動化偏誤風險較高,臨床人員不得過度依賴系統建議,仍須以專業判斷為核心。同時,文件要求醫療機構建立AI治理與監督機制,持續監測效能、偏誤與病安事件,並於必要時通報TGA或隱私主管機關。 在病人權益與隱私保護方面,指引強調知情同意與透明揭露,醫療人員須向病人說明AI使用目的、潛在風險及替代方案,並遵循《1998年隱私法》(Privacy Act 1988)對個人健康資料儲存與跨境處理的限制。澳洲此次發布之臨床AI指引,展現以臨床責任為核心、結合法規遵循與風險管理的治理取向,為各國醫療體系導入AI提供具體且可操作的合規參考。 表1 人工智慧臨床應用指引合規流程 使用前 使用中 使用後 1.界定用途與風險。 2.檢視證據與合規。 3.完備治理與告知。 1.AI輔助決策。 2.即時審查修正。 3.維持溝通透明。 1.持續監測效能。 2.標示可追溯性。 3.通報與再評估。 資料來源:AUSTRALIAN COMMISSION ON SAFETY AND QUALITY IN HEALTH CARE [ACSQHC], AI Clinical Use Guide (2025).

美國聯邦貿易委員會推動「不留痕」機制,使消費者可選擇不在網路上留下個人資訊

  美國聯邦貿易委員會(Federal Trade Commission ,FTC)最近開始推動一套「不留痕」(do-not-track)機制,旨在防止網站蒐集未經使用者授權之個人資料。 FTC所出具的報告,旨在幫助政策制訂者和立法者形塑隱私規則,同時要求網站揭露更多其所蒐集之資料的相關事項,諸如蒐集的資料種類、如何使用該資料、以及保存期間。該報告並建議企業提供使用者更多拒絕被蒐集資料的退出選擇方案。     FTC主席Jon Leibowitz在最近的記者會中指出,目前有許多尚未受到網路隱私規範之行銷方式,普遍受到廣告商、社群網站或是搜尋引擎運用。FTC當局的建議由五人所組成的委員會無異議通過,由於網路廣告商、媒體經營者以及零售商所建立的新的行銷模式均建基於個人資料的使用上,因此此建議亦同時考量到該等業者之利益平衡,至2011年1月31日前持續蒐集業者之意見。Leibowitz表示,FTC希望確保新興成長的資訊市場是建立在促進隱私、透明、商業革新和消費者選擇的框架上,而這也是多數美國民眾所希望的。」     此一「不留痕」機制是參照FTC另外一套受歡迎的「勿來電」機制,也就是將電話號碼註冊在一特定的名單上,以防止電話推銷員來電,不過實際上的運作模式仍略有差異。相較於將姓名註冊在一份中央管控的名單,此一機制則是透過網頁瀏覽器的工具,傳送不願被追蹤或接受特定廣告的訊息,Google、Microsoft和 Mozilla都已測試過此套技術。     在此一報告提出後不久,麻州參議員John F. Kerry表明他將會推動一部隱私權相關法律,使FTC有更多規則制訂權以實現其報告所提建議。因為作為相關主管機關,FTC制訂規則的權利其實很有限。

TOP