美國FCC將檢視是否有必要加強隱私規定

  美國FCC於二月份表示其將檢視採取額外的安全措施,是否能夠有效防止電信公司所持有之個人敏感性資訊外洩之問題,並就與此所涉之問題與建議採取之法律措施諮詢公眾之意見。此次諮詢的議題包括目前電信公司所採取的安全措施為何、此等措施存有何種缺失、以及採取何種措施將能夠更有效地保護消費者的隱私,並就以下五種特定的安全措施,諮詢公眾之意見,包括:


(1)
由消費者設定密碼。


(2)
建立一套查驗機制,此一機制必須能夠記錄消費者個人資料之接近使用情況,包括時間、接近使用的資料內容、接近使用人等之資訊。


(3)
電信公司必須就客戶專有之網路資訊 (customer proprietary network informationCPNI)進行加密。


(4)
限制資料之保存,要求電信公司必須刪除所有不必要的資料。


(5)
當個人資料遭他非法接近使用時,電信公司應通知消費者。


  除此之外,
FCC亦就其是否應修改現行法規,要求電信公司應就其實施消費者保護措施之狀況,提交年度稽核報告以及全年之客訴資料進行公眾意見諮詢,並且就電信公司是否應於提供CPNI前,致電予消費者,以確保CPNI資料之索取係由消費者本人親為一事諮詢公眾之意見。

相關連結
※ 美國FCC將檢視是否有必要加強隱私規定, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=393&no=67&tp=1 (最後瀏覽日:2026/01/05)
引註此篇文章
你可能還會想看
日本自動駕駛損害賠償責任研究會報告

  為釐清自駕車事故發生時,該如何適用日本《汽車賠償法》相關規定,國土交通省於2016年11月設置「自動駕駛損害賠償責任研究會」,檢討︰(1)自動駕駛是否適用《汽車賠償法》上運用供用者概念?(2)汽車製造商在自動駕駛事故損害中應負何種責任?(3)因資料謬誤、通訊不良、被駭等原因導致事故發生時應如何處理?(4)利用自動駕駛系統時發生之自損事故,是否屬於《汽車賠償法》保護範圍等議題,並於2018年3月公布研究報告。針對上述各點,研究會認為目前仍宜維持現行法上「運行供用者」責任,由具有支配行駛地位及行駛利益者負損害賠償責任,故自駕車製造商或因系統被駭導致失去以及支配行駛之地位及行駛利益者,不負運行供用者責任。此外,研究報告亦指出,從《汽車賠償法》立法意旨在於保護和汽車行駛無關之被害者,以及迅速使被害者得到救濟觀之,自動駕駛系統下之自損事故,應仍為《汽車賠償法》保護範圍所及。

歐盟在考量營業秘密對企業重要性下,通過兼顧重要資料保護的資料法法案,以推動資料經濟發展

歐盟理事會於2023年11月27日批准通過資料法法案(Data Act),該法案雖預計於2025年才會生效,該草案自2022年公告以來,各界對該法案都紛紛從不同角度表示意見,如企業對於資料共享是否對營業秘密外流的風險表達擔憂,歐盟在發揮資料經濟價值(資料交易與資料使用)的方向下,將業界考量納入進行修改,以下就經理事會通過之資料法法案關鍵影響概要如下: 1、資料共享 有鑑於因網路裝置/服務所產出的數位資料往往掌握於產品製造商或服務提供商身上,資料法建立了資料共享的基本規則,確保數位資料由製造商/服務商流動至第三人(包含產品/服務使用者),另資料法所保護之資料包含使用AI所產生之資料。 2、營業秘密保護 為避免資料持有人的營業秘密因此外流,資料持有人可以與請求提供資料的第三人(資料請求者)協議應採取之保密措施,在保密措施未達成一致或使用者未實施保密措施,資料持有人可暫停資料共享,在有重大經濟損失之虞時甚可拒絕資料共享。 3、對資料持有者的限制 資料持有者僅能在與使用者約定之範圍內使用資料,在無使用者許可下,不得用使用者所產出之資料去回推使用者的經濟、資產或生產等資訊,以避免損及使用者的商業地位。 資料法法案的主要目標在於塑造具競爭性的資料市場生態,確保資料的價值可公平分配到不同參與者身上,其聚焦在非個人資料的數位資料上,除適用於對歐盟提供產品/服務之廠商外,亦包含可於歐盟境內取得資料之情況。國內廠商宜先檢視自身商業行為與歐盟之關聯性,盤點現有產品或服務所產出的資料屬性,如可能需特別約定保密措施之營業秘密,預先規劃資料管理機制與對應管制措施,就重要資料或營業秘密管理機制可參資策會科法所公布之《重要數位資料治理暨管理制度規範(EDGS)》、《營業秘密保護管理規範》。 本文同步刊登於TIPS網站(https://www.tips.org.tw)

德國聯邦資訊技術,電信和新媒體協會針對AI及自動決策技術利用提出建議指南

  德國聯邦資訊技術,電信和新媒體協會於2018年2月6日在更安全的網路研討會中針對利用人工智慧及自動決策技術利用提出建議指南,旨在提升企業數位化與社會責任,並提升消費者權益保護。   德國司法及消費者保護部次長Gerd Billen於會議中指出,無論技術細節和具體應用如何發展,法律和消費者保護政策應確保人工智慧安全性,且不因此受歧視,以及盡可能確保技術利用透明度。而隨著人工智慧的發展,應設法解決使用人工智慧產生的法律問題。   例如,如何在製造商,供應商和消費者之間公平分配責任歸屬問題?在家庭,物流和手術室等領域已有越來越多具備自我學習的機器人被應用,相關權利是否會有所不同?如果機器出現不明原因故障,會發生什麼情況及如何處置?當機器透過在製造時尚未完全預定的環境感官認知做出具體決定時,該自動行為所生效力為何? 本份指南則提出六項建議: 促進企業內部及外部訂定相關準則 提升產品及服務透明度 使用相關技術應為全體利益著想 決策系統的可靠性仍取決資料的準確性。 重視並解決解決機器偏差問題 在特別需要負責的決策過程,應設計成由責任主體保留最終的決策權力,直到AI的控制品質已達到或高於所有參與者水平。

日本發布以人為本AI社會原則

  日本內閣於2018年6月15日決議組成跨部會之統合創新戰略推進會議,並於2019年3月29日發布AI戰略,其中的倫理面向為以人為本之AI社會原則(下稱AI社會原則),希冀藉有效安全的活用AI,推動「AI-Ready 社會」,以實現兼顧經濟發展與解決社會課題的「Society5.0」為最終目標。   為構築妥善應用人工智慧的社會,AI社會原則主張應尊重之價值理念如下: (一) 尊重人類尊嚴的社會:AI應作為能激發人類發揮多樣能力和創造力的工具。 (二) 多元性和包容性的社會(Diversity & Inclusion):開發運用AI以共創多元幸福社會。 (三) 永續性的社會(Sustainability):透過AI強化科技,以創造能持續解決社會差距與環境問題的社會。   而AI社會原則核心內容為: (一) 以人為本:AI使用不得違反憲法或國際保障之基本人權。 (二) AI知識(literacy)教育:提供必要的教育機會。 (三) 保護隱私:個人資料的流通及應用應妥適處理。 (四) 安全確保:把握風險與利益間之平衡,從整體提高社會安全性。 (五) 公平競爭確保:防止AI資源過度集中。 (六) 公平性、說明責任及透明性任。 (七) 創新:人才與研究皆須國際多樣化,並且建構產官學研AI合作平台。

TOP