聯合國人權高級專員辦公室發布《數位時代隱私權》調查報告

  聯合國人權高級專員辦公室(Office of the United Nations High Commissioner for Human Rights, OHCHR)於2021年9月15日發布《數位時代隱私權》(The Right to Privacy in The Digital Age)調查報告,分析各種人工智慧技術,例如側寫(profiling)、自動化決策及機器學習,將如何影響人民之隱私或其他權利,包括健康權、教育權、行動自由、言論自由或集會結社自由等,並提出對國家與企業應如何因應之具體建議。

一、針對國家與企業使用人工智慧之共同建議:在整個人工智慧系統生命週期中,包括設計、開發、部署、銷售、取得(obtain)或運營,應定期進行全面的人權影響評估(comprehensive human rights impact assessments),提高系統使用透明度與可解釋性,並應充分通知公眾與受影響之個人其正在使用人工智慧進行決策。

二、針對國家使用人工智慧之建議:應確保所有人工智慧的使用符合人權,明確禁止並停止販售不符合國際人權法運作之人工智慧應用程序。在證明使用該人工智慧系統能遵守隱私及資料保護標準,且不存在重大準確性問題及產生歧視影響之前,應暫停在公共場所使用遠端生物識別技術。並盡速立法及建立監管框架,以充分預防和減輕使用人工智慧可能造成不利人權的影響,以及確保在侵犯人權時能夠有相關之補救措施。

三、針對企業使用人工智慧之建議:應盡力履行維護人權之責任,建議實施商業與人權指導原則(Guiding Principles on Business and Human Rights),並打擊(combat)人工智慧系統開發、銷售或運營相關的歧視,進行系統評估與監測,以及設計有效的申訴機制。

相關連結
※ 聯合國人權高級專員辦公室發布《數位時代隱私權》調查報告, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8737&no=57&tp=1 (最後瀏覽日:2026/05/06)
引註此篇文章
你可能還會想看
歐盟出資贊助開放原始碼研究

  歐盟決定斥資 66 萬歐元的經費研究全球的開放原始碼軟體與標準。   歐盟在為期兩年的 FLOSSWorld 專案中,首度贊助的國際性開放原始碼軟體研發與政策發展計畫,先前的 FLOSS 專案主要只著重在歐洲的開放原始碼部分。 FLOSS 即為自由 / 開放原始碼軟體的縮寫 (free/libre/open source) ,藉由本專案,歐盟希望能夠強化歐洲在自由軟體領域的領導力,與增加國際合作夥伴。   FLOSSWorld 召集人 Rishab Aiyer Ghosh 向對外表示,歐盟通常是不贊助國際性專案的。而此次計劃共區分五大區域,而合作的國家包括中國 ( 東亞 ) 、印度與馬來西亞 ( 南亞 ) 、非洲 ( 南非 ) 、東南歐 ( 保加利亞與克羅埃西亞 ) 、中南美洲 ( 阿根廷與巴西 ) 。   研究將專注在三大領域:開放原始碼對於技能發展的影響,以及對經濟與新增職缺的影響;軟體開發的區域差異性;政府與公家單位對使用開放原始碼的態度。 Ghosh 指出 FLOSSWorld 的目標在增加國際層次的合作,增加對其他國家對於開放原始碼的使用與影響的了解程度。

日本經產省公布產業版資料契約指引和資安手冊

  日本經濟產業省於2017年起提倡「Connected Industries」,其中一項重點任務為「平台、基礎設施安全」。為達成上述任務,經產省召開「平台資料活用促進會議」(プラントデータ活用促進会議),於2018年4月26日制定公布「資料契約指引產業保安版」(データの利用に関する契約ガイドライン産業保安版)及「物聯網安全對應手冊產業保安版」(IoTセキュリティ対応マニュアル産業保安版),以因應資料經濟時代資訊外洩及網路攻擊等風險。   日本經產省為促進業界資料流通與利用,已陸續於2015年、2017年和2018年制定「推動現有資料交易為目的之契約指引」(既存のデータに関する取引の推進を目的とした契約ガイドライン)、「資料利用權限契約指引」(データ利用権限に関するガイドラインVer.1.0)。本次「資料契約指引產業保安版」則進一步整理資料權利歸屬判斷方式,提供模範條款及說明各條款內容,並羅列作為資料提供者可能具備之優點。此外,隨著物聯網等資訊科技發展,資安風險逐漸受到重視,為提升物聯網產品安全防護,經產省亦以平台管理者為對象,制定「物聯網安全對應手冊產業保安版」,提供適當安全對策及案例。

德國數位經濟2017監測報告及建議

  德國經濟與能源部於2017年12月公布數位經濟2017監測報告,就ICT及網路經濟的表現和競爭力統計各產業數位經濟程度,並針對德國數位轉型現況及挑戰進行分析並提出相關建議。   報告資料指出, 在六大創新應用潛力的部分,14%的企業已投入工業4.0改造,集中於機械製造業,數量有逐步上升趨勢;物聯網應用則以服務業居多,特別是知識密集型服務提供者;33%的企業有提供智慧服務,以客戶為導向的企業,例如資通訊業、金融保險業,使用比例更為明顯;19%企業開始利用巨量資料,多集中於大企業或先進產業;11%企業有利用機器人及感測器;人工智慧則尚處於起步階段,而使用者多集中於資通訊產業。就上述資料顯示,推動數位轉型尚待加強。另外,今年監測報告聚焦「數位聯網及合作」議題,結果顯示,約六成的企業與其商業客戶有進行數位聯網,而只有約四成的公司與新創公司有合作,因此尚有許多創新潛力尚未得到充分利用。   國際數位經濟排名第六,落後美國、南韓、英國、日本、芬蘭。在獲得風險資本可能性的表現最佳,整體創新能力也處於相對領先地位,惟電子化政務服務較為落後,有待加強。在關鍵政策需求部分,以寬頻建設促進政策、創建數位化友善法律框架,以及獲取創新基礎的公共知識最受矚目。

美國科羅拉多州通過《人工智慧消費者保護法》

2024年5月17日,科羅拉多州州長簽署了《人工智慧消費者保護法》(Consumer Protections for Artificial Intelligence Act,Colorado AI Act,下簡稱本法),其內容將增訂於《科羅拉多州修訂法規》(Colorado Revised Statutes,簡稱CRS)第6篇第17部分,是美國第一部廣泛對AI規範的法律,將於2026年2月1日生效。 本法旨在解決「高風險人工智慧系統」的演算法歧視(Algorithmic Discrimination)的問題 ,避免消費者權益因為演算法之偏見而受到歧視。是以,本法將高風險AI系統(High-risk Artificial Intelligence System)定義為「部署後作出關鍵決策(Consequential Decision)或在關鍵決策中起到重要作用的任何AI系統」。 而後,本法藉由要求AI系統開發者(Developers)與部署者(Deployers)遵守「透明度原則」與「禁止歧視原則」,來保護消費者免受演算法歧視。規定如下: (一)系統透明度: 1.開發者應向部署者或其他開發者提供該系統訓練所使用的資料、系統限制、預期用途、測試演算法歧視之文件以及其他風險評估文件。 2.部署者應向消費者揭露高風險人工智慧系統的預期用途,也應在高風險人工智慧系統做出決策之前向消費者提供聲明,聲明內容應該包含部署者之聯絡方式、該系統的基本介紹、部署者如何管理該系統可預見之風險等資訊。 (二)禁止歧視: 1.開發者應實施降低演算法歧視之措施,並應協助部署者理解高風險人工智慧系統。此外,開發者也應該持續測試與分析高風險人工智慧系統可能產生之演算法歧視風險。若開發者有意修改該系統,應將更新後的系統資訊更新於開發者網站,並須同步提供給部署者。 2.部署者應該實施風險管理計畫,該風險管理計畫應包含部署者用於識別、紀錄降低演算法歧視風險之措施與負責人員,且風險管理計畫應定期更新。在制定風險管理計畫時,必須參考美國商務部國家標準暨技術研究院(National Institute of Standards and Technology, NIST)的《人工智慧風險管理框架》(AI Risk Management Framework, AI RMF 2.0)與ISO/IEC 42001等風險管理文件。 美國普遍認為科羅拉多州的《人工智慧消費者保護法》為目前針對人工智慧系統最全面之監管法規,可作為其他州有關人工智慧法規的立法參考,美國各州立法情況與作法值得持續關注。

TOP