聯合國人權高級專員辦公室(Office of the United Nations High Commissioner for Human Rights, OHCHR)於2021年9月15日發布《數位時代隱私權》(The Right to Privacy in The Digital Age)調查報告,分析各種人工智慧技術,例如側寫(profiling)、自動化決策及機器學習,將如何影響人民之隱私或其他權利,包括健康權、教育權、行動自由、言論自由或集會結社自由等,並提出對國家與企業應如何因應之具體建議。
一、針對國家與企業使用人工智慧之共同建議:在整個人工智慧系統生命週期中,包括設計、開發、部署、銷售、取得(obtain)或運營,應定期進行全面的人權影響評估(comprehensive human rights impact assessments),提高系統使用透明度與可解釋性,並應充分通知公眾與受影響之個人其正在使用人工智慧進行決策。
二、針對國家使用人工智慧之建議:應確保所有人工智慧的使用符合人權,明確禁止並停止販售不符合國際人權法運作之人工智慧應用程序。在證明使用該人工智慧系統能遵守隱私及資料保護標準,且不存在重大準確性問題及產生歧視影響之前,應暫停在公共場所使用遠端生物識別技術。並盡速立法及建立監管框架,以充分預防和減輕使用人工智慧可能造成不利人權的影響,以及確保在侵犯人權時能夠有相關之補救措施。
三、針對企業使用人工智慧之建議:應盡力履行維護人權之責任,建議實施商業與人權指導原則(Guiding Principles on Business and Human Rights),並打擊(combat)人工智慧系統開發、銷售或運營相關的歧視,進行系統評估與監測,以及設計有效的申訴機制。
世界智慧財產權組織( WIPO )大會第三十三屆會議於 2006 年 9 月 25 日 (星期一)在瑞士日內瓦正式開幕,有來自全球 183 個會員國共襄盛舉,此次會議將於 9 月 25 日 至 10 月 3 日 間舉行。本次世界智慧財產權組織大會將審查該組織的工作進展,還有討論未來的政策方向,包括今年 3 月間在新加坡外交會議中所協商通過的「商標法條約( the Singapore Treaty on the Law of Trademarks ,故本條約又被簡稱為新加坡條約 Singapore Treaty )」、網域名稱、保護廣播組織與視聽表演之規定等議題。 其中今年協商通過的新加坡條約規範中,納入雷射圖樣( 3D )商標、動作商標、顏色、氣味及聲音等不同類型的商標,突破傳統商標只強調視覺觀感的象徵,增加許多非視覺的商標類型,以求符合商業的新興趨勢,勢必將使未來商標的應用更加多樣化。此外在新加坡條約中也增加相關救濟規定,如:商標申請人若非故意而導致逾期未完成註冊,締約國應提供權利回復的方式( Rule9 )等,對於申請人的保護更加周到。
美國FTC警告科技公司,不應迫於外國勢力而削弱對消費者之隱私與資料安全保障美國聯邦貿易委員會(Federal Trade Commission)主席Andrew N. Ferguson於2025年8月21日發信給13家科技公司,其中包含Alphabet、Amazon、Apple、Microsoft、Meta、X等國際知名科技公司,警告他們有義務保護美國消費者隱私與資料安全,若在外國政府施壓下審查美國公民的資料,將有違反《聯邦貿易委員會法》(Federal Trade Commission Act, FTC Act)之虞。 信中指出,科技公司可能為遵循外國法規或迫於外國政府壓力,削弱對美國公民的隱私及資料安全保護。如歐盟《數位服務法》(Digital Services Act)、英國《網路安全法》(Online Safety Act)期望科技公司審查用戶言論內容;而英國《調查權力法》(Investigatory Powers Act)則為滿足英國政府取得用戶儲存資料之目的,要求科技公司削弱原本對用戶採行之點對點加密措施。Ferguson主席更表示:「外國勢力審查及削弱加密措施等行動,將侵害美國公民的自由或使美國公民遭受各種危害,例如受外國政府監視、增加身分盜用與詐騙風險」。 信中亦提及,科技公司在遵守外國法律及相關要求的同時,仍須遵守FTC Act第5條規定,亦即禁止企業在市場中進行不公平或欺騙性行為的規定。同時也表示,過去20年來,FTC已對未能履行消費者資料安全或隱私承諾之公司提起數十起訴訟,並將持續要求蒐集、使用、分享或傳輸消費者個人資料的公司,應採取合理的安全措施,藉此確保消費者權益。
美國白宮於2019年5月發布總統令,提升聯邦及全國之資安人力美國白宮(the White House)於2019年5月2日發布第13870號總統令(Executive Order),旨在說明美國的資安人力政策規劃。 於聯邦層級的資安人力提升(Strengthening the Federal Cybersecurity Workforce)上,由國土安全部(Department of Homeland Security, DHS)部長、管理預算局(Office of Management and Budget, OMB)局長及人事管理局(Office of Personnel Management, OPM)局長共同推動網路安全專職人員輪調工作計畫(cybersecurity rotational assignment program),計畫目標包含:輪調國土安全部與其他機關IT及資安人員、提供培訓課程提升計畫參與者之技能、建立同儕師徒制(peer mentoring)加強人力整合,以及將NIST於2017年提出之國家網路安全教育倡議(National Initiative for Cybersecurity Education, NICE)和網路安全人力框架(Cybersecurity Workforce Framework, NICE Framework,以下合稱NICE框架),作為參與者的最低資安技能要求。同時上述部長及局長,須向總統提交報告說明達成上述目標之執行方案。 於國家層級的資安人力提升(Strengthening the Nation’s Cybersecurity Workforce)上,則表示商務部部長(Secretary of Commerce)、勞工部部長(Secretary of Labor)、教育部部長(Secretary of Education)、國土安全部部長與其他相關機關首長,應鼓勵州、領土、地方、部落、學術界、非營利與私部門實體於合法之情況下,自願於教育、訓練和人力發展中納入NICE框架。此外,將每年頒發總統網路安全教育獎(Presidential Cybersecurity Education Award),給予致力於傳授資安知識之中小學教育工作者。 綜上所述,美國將透過制度、教育與獎勵等方式培育資安人才,提升國內資安人才的質與量,以因應越來越險峻的資安威脅與風險。
美國國家標準與技術研究院公布人工智慧風險管理框架(AI RMF 1.0)美國國家標準與技術研究院(National Institute of Standards and Technology, NIST)於2023年1月26日公布「人工智慧風險管理框架1.0」(Artificial Intelligence Risk Management Framework, AI RMF 1.0),該自願性框架提供相關資源,以協助組織與個人管理人工智慧風險,並促進可信賴的人工智慧(Trustworthy AI)之設計、開發與使用。NIST曾於2021年7月29日提出「人工智慧風險管理框架」草案進行公眾徵詢,獲得業界之建議包含框架應有明確之衡量方法以及數值指標、人工智慧系統設計時應先思考整體系統之假設於真實世界中運作時,是否會產生公平性或誤差的問題等。本框架將隨著各界使用後的意見回饋持續更新,期待各產業發展出適合自己的使用方式。 本框架首先說明人工智慧技術的風險與其他科技的差異,定義人工智慧與可信賴的人工智慧,並指出設計該自願性框架的目的。再來,其分析人工智慧風險管理的困難,並用人工智慧的生命週期定義出風險管理相關人員(AI actors)。本框架提供七種評估人工智慧系統之信賴度的特徵,包含有效且可靠(valid and reliable):有客觀證據證明人工智慧系統的有效性與系統穩定度;安全性(safe):包含生命、健康、財產、環境安全,且應依照安全風險種類決定管理上的優先次序;資安與韌性(secure and resilient);可歸責與資訊透明度(accountable and transparent);可解釋性與可詮譯性(explainable and interpretable);隱私保護(privacy-enhanced);公平性—有害偏見管理(fair – with harmful bias managed)。 本框架亦提出人工智慧風險管理框架核心(AI RMF Core)概念,包含四項主要功能:治理、映射(mapping)、量測與管理。其中,治理功能為一切的基礎,負責孕育風險管理文化。各項功能皆有具體項目與子項目,並對應特定行動和結果產出。NIST同時公布「人工智慧風險管理框架教戰手冊」(AI RMF Playbook),提供實際做法之建議,並鼓勵業界分享其具體成果供他人參考。