聯合國人權高級專員辦公室發布《數位時代隱私權》調查報告

  聯合國人權高級專員辦公室(Office of the United Nations High Commissioner for Human Rights, OHCHR)於2021年9月15日發布《數位時代隱私權》(The Right to Privacy in The Digital Age)調查報告,分析各種人工智慧技術,例如側寫(profiling)、自動化決策及機器學習,將如何影響人民之隱私或其他權利,包括健康權、教育權、行動自由、言論自由或集會結社自由等,並提出對國家與企業應如何因應之具體建議。

一、針對國家與企業使用人工智慧之共同建議:在整個人工智慧系統生命週期中,包括設計、開發、部署、銷售、取得(obtain)或運營,應定期進行全面的人權影響評估(comprehensive human rights impact assessments),提高系統使用透明度與可解釋性,並應充分通知公眾與受影響之個人其正在使用人工智慧進行決策。

二、針對國家使用人工智慧之建議:應確保所有人工智慧的使用符合人權,明確禁止並停止販售不符合國際人權法運作之人工智慧應用程序。在證明使用該人工智慧系統能遵守隱私及資料保護標準,且不存在重大準確性問題及產生歧視影響之前,應暫停在公共場所使用遠端生物識別技術。並盡速立法及建立監管框架,以充分預防和減輕使用人工智慧可能造成不利人權的影響,以及確保在侵犯人權時能夠有相關之補救措施。

三、針對企業使用人工智慧之建議:應盡力履行維護人權之責任,建議實施商業與人權指導原則(Guiding Principles on Business and Human Rights),並打擊(combat)人工智慧系統開發、銷售或運營相關的歧視,進行系統評估與監測,以及設計有效的申訴機制。

相關連結
※ 聯合國人權高級專員辦公室發布《數位時代隱私權》調查報告, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8737&no=0&tp=1 (最後瀏覽日:2025/11/22)
引註此篇文章
你可能還會想看
日本下議會通過綠色法案

  為加強促進日本相關產業與政府政策對於太陽能和其他再生能源之投資比重,日本下議院(lower house of parliament)日前於8月23日通過綠色法案(目前未有正式名稱,外媒多以Green Bill稱之),該法案近日將由日本上議院(upper house of parliament)進行進一步的確認與審議。目前預計綠色法案和其他相關的配套法律措施將於2012年7月生效實施。   目前日本境內的總電力生產來源中,經由核能發電廠所生產之電力占日本總生產電量之30%,而日本政府預計於2030年將該種核能發電廠所生之電力提升至總生產電量比例之50%。然而,在日本福島於今年(2011)3月遭受地震和海嘯波及之後,其所衍生之核能發電廠輻射外漏事件,促使日本政府對於其現有之核能電廠興建計畫開始進行反思,且日本大眾對於此種原子能量之安全性,及相關的國家能源政策亦產生了質疑聲浪。日前,日本政府在思考其現有的能源政策走向,以及相關現況之檢視後,乃於2011年8月23日由其下議院通過綠色法案。   日本綠色法案的主要目的乃為減少當前日本主要電力生產來源為核能發電之現況,並且達成國際共同協議所訂定之減少溫室氣體排放目標。即便該綠色法案具有促進相關綠色能源電力發電設施的建置率升高,並且加速相關投資市場活絡的連帶效應,然而由於該法案目前針對各項綠色能源的使用收費價格細節尚未加以規範,因此對於未來消費者權益與鼓勵投資者投資各項新興綠色能源設施間之支出費用該如何加以平衡,仍為一個不確定的問題,而有待日後各相關部會加以討論規範。

美國聯邦地方法院就Sanford Wallace散佈間諜軟體案作成判決

  美國聯邦交易委員會指控 Sanford Wallace 氏及其所經營的 Smartbot.Net 公司,利用 IE 瀏覽器的安全漏洞散佈間諜軟體一案,日前新罕布夏州聯邦地方法院作成判決。   被告散佈之軟體會將受害者的光碟機托盤彈出,同時在螢幕顯示「最後警告」等字樣,附帶一則訊息告訴受害者,「如果您面臨光碟機托盤彈出的狀況,代表間諜軟體已經入侵您的電腦系統,安全已經出現漏洞,敬請立刻下載本公司出品,以資因應!」趁機推銷該公司出品,定價 30 美元之 Spy Wiper 跟 Spy Deleter 軟體,號稱足以因應間諜軟體相關問題。實際上,被告未經用戶同意逕予散佈植入的,性質上即係間諜軟體,不僅會偷偷更改用戶電腦的設定,持續不斷跳出廣告視窗,造成用戶之電腦運作不順或者當機,還可能洩漏電腦裡頭所儲存的資料。   日前新罕布夏州聯邦地方法院就本件作成判決,命被告必須償還不法取得的利益,共計 408 萬餘美元;不得繼續傳輸散佈間諜軟體至用戶之個人電腦;不得未經同意逕行傳輸任何軟體予用戶;不得將用戶之電腦導向彼等並未打算瀏覽或連結的網站或伺服器;不得更動用戶瀏覽器所預設的首頁;不得更動或調整搜尋引擎的功能或成果。

世界衛生組織公布「人工智慧於健康領域之倫理與治理」指引

  世界衛生組織(World Health Organization, WHO)於2021年6月底公布「人工智慧於健康領域之倫理與治理」(Ethics and governance of artificial intelligence for health)指引。目前人工智慧於在改善診斷、治療、健康研究、藥物開發及公共衛生等健康領域皆有廣泛之應用與前景,而該指引首先指出人工智慧應用於健康領域中最相關之法律與政策外,並強調相關應用皆須以「倫理」及「人權」作為相關技術設計、部署與使用之核心,最後則提出人工智慧應用於健康領域之六大關鍵原則: 一、保護人類自主性(autonomy):本指引認為人類仍應該掌有關於醫療保健系統之所有決定權,而人工智慧只是輔助功能,無論是醫療服務提供者或患者皆應在知情之狀態下作決定或同意。 二、促進人類福祉、安全與公共利益:人工智慧不應該傷害人類,因此須滿足相關之事前監管要求,同時確保其安全性、準確性及有效性,且其不會對患者或特定群體造成不利影響。 三、確保透明度、可解釋性與可理解性(intelligibility):開發人員、用戶及監管機構應可理解人工智慧所作出之決定,故須透過記錄與資訊揭露提高其透明度。 四、確立責任歸屬(responsibility)與問責制(accountability):人工智慧在醫學中所涉及之內部責任歸屬相當複雜,關於製造商、臨床醫師及病患間相關之問責機制之設計將會成為各國之挑戰,故須存在有效之機制來確保問責,也應避免責任分散之問題產生。 五、確保包容性(inclusiveness)與衡平性(equity):應鼓勵應用於健康領域之人工智慧能被廣泛且適當地使用,無論年齡、性別、收入及其他特徵而有差別待遇,且應避免偏見之產生。 六、促進具適應性(responsive)及可持續性之人工智慧:人工智慧應符合設計者、開發者及用戶之需求與期待,且能充分具適應性之回應且符合使用環境中之要求。

歐洲個人資料保護委員會發布數位服務法與一般資料保護規則相互影響指引

「歐洲資料保護委員會」(European Data Protection Board, EDPB)於2025年9月12日發布《數位服務法》(Digital Services Act, DSA)與《一般資料保護規則》(General Data Protection Regulation, GDPR)交互影響指引(Guidelines 3/2025 on the interplay between the DSA and the GDPR)。這份指引闡明中介服務提供者(intermediary service providers)於履行DSA義務時,應如何解釋與適用GDPR。 DSA與GDPR如何交互影響? 處理個人資料的中介服務提供者,依據處理個資的目的和方式或僅代表他人處理個資,會被歸屬於GDPR框架下的控制者或處理者。此時,DSA與GDPR產生法規適用的交互重疊,服務提供者需同時符合DSA與GDPR的要求。具體而言,DSA與GDPR產生交互影響的關鍵領域為以下: 1.非法內容檢測(Illegal content detection):DSA第7條鼓勵中介服務提供者主動進行自發性調查,或採取其他旨在偵測、識別及移除非法內容或使其無法存取的措施。指引提醒,中介服務提供者為此採取的自發性行動仍須遵守GDPR要求的處理合法性,而此時最可能援引的合法性依據為GDPR第6條第1項第f款「合法利益」(legitimate interests)。 2.通知與申訴等程序:DSA所規定設通報與處置機制及內部申訴系統,於運作過程中如涉及個資之蒐集與處理,應符GDPR之規範。服務提供者僅得蒐集履行該義務所必須之個人資料,並應確保通報機制不以通報人識別為強制要件。若為確認非法內容之性質或依法須揭露通報人身分者,應事前告知通報人。同時,DSA第20條與第23條所規範之申訴及帳號停權程序,均不得損及資料主體所享有之權利與救濟可能。 3.禁止誤導性設計模式(Deceptive design patterns):DSA第25條第1項規範,線上平台服務提供者不得以欺騙或操縱其服務接收者之方式,或以其他實質扭曲或損害其服務接收者作出自由且知情決定之能力之方式,設計、組織或營運其線上介面,但DSA第25條第2項則宣示,線上平台提供者之欺瞞性設計行為若已受GDPR規範時,不在第25條第1項之禁止範圍內。指引指出,於判斷該行為是否屬 GDPR 適用範圍時,應評估其是否涉及個人資料之處理,及該設計對資料主體行為之影響是否與資料處理相關。指引並以具體案例補充,區分屬於及不屬於 GDPR 適用之欺瞞性設計模式,以利實務適用。 4.廣告透明度要求:DSA第26條為線上平台提供者制定有關廣告透明度的規範,並禁止基於GDPR第9條之特別類別資料投放廣告,導引出平台必須揭露分析之參數要求,且平台服務提供者應提供處理個資的法律依據。 5.推薦系統:線上平台提供者得於其推薦系統(recommender systems)中使用使用者之個人資料,以個人化顯示內容之順序或顯著程度。然而,推薦系統涉及對個人資料之推論及組合,其準確性與透明度均引發指引的關切,同時亦伴隨大規模及/或敏感性個人資料處理所帶來之潛在風險。指引提醒,不能排除推薦系統透過向使用者呈現特定內容之行為,構成GDPR第22條第1項的「自動化決策」(automated decision-making),提供者於提供不同推薦選項時,應平等呈現各項選擇,不得以設計或行為誘導使用者選擇基於剖析之系統。使用者選擇非剖析選項期間,提供者不得繼續蒐集或處理個人資料以進行剖析。 6.未成年人保護:指引指出,為了符合DSA第28條第1項及第2項所要求於線上平台服務中實施適當且相稱的措施,確保未成年人享有高度的隱私、安全與保障,相關的資料處理得以GDPR第6條第1項第c款「履行法定義務」作為合法依據。 7.系統性風險管理:DSA第34與35條要求超大型在線平台和在線搜索引擎的提供商管理其服務的系統性風險,包括非法內容的傳播以及隱私和個人數據保護等基本權利的風險。而指引進一步提醒,GDPR第25條所設計及預設之資料保護,可能有助於解決這些服務中發現的系統性風險,並且如果確定系統性風險,根據GDPR,應執行資料保護影響評估。 EDPB與其他監管機關的後續? EDPB的新聞稿進一步指出,EDPB正在持續與其監管關機關合作,以釐清跨法規監理體系並確保個資保護保障之一致性。後續進一步的跨法域的指引,包含《數位市場法》(Digital Markets Act, DMA)、《人工智慧法》(Artificial Intelligence Act, AIA)與GDPR的相互影響指引,正在持續制定中,值得後續持續留意。

TOP