美國國家標準暨技術研究院發布「人工智慧風險管理框架:生成式AI概況」

  美國國家標準暨技術研究院(National Institute of Standard and Technology, NIST)2024年7月26日發布「人工智慧風險管理框架:生成式AI概況」(Artificial Intelligence Risk Management Framework: Generative Artificial Intelligence Profile),補充2023年1月發布的AI風險管理框架,協助組織識別生成式AI(Generative AI, GAI)可能引發的風險,並提出風險管理行動。GAI特有或加劇的12項主要風險包括:

1.化學、生物、放射性物質或核武器(chemical, biological, radiological and nuclear materials and agents, CBRN)之資訊或能力:GAI可能使惡意行為者更容易取得CBRN相關資訊、知識、材料或技術,以設計、開發、生產、使用CBRN。

2.虛假內容:GAI在回應輸入內容時,常自信地呈現錯誤或虛假內容,包括在同一情境下產出自相矛盾的內容。

3.危險、暴力或仇恨內容:GAI比其他技術能更輕易產生大規模煽動性、激進或威脅性內容,或美化暴力內容。

4.資料隱私:GAI訓練時需要大量資料,包括個人資料,可能產生透明度、個人資料自主權、資料違法目的外利用等風險。

5.環境影響:訓練、維護和運行GAI系統需使用大量能源而影響碳排放。

6.偏見或同質化(homogenization):GAI可能加劇對個人、群體或社會的偏見或刻板印象,例如要求生成醫生、律師或CEO圖像時,產出女性、少數族群或身障人士的比例較低。

7.人機互動:可能涉及系統與人類互動不良的風險,包括過度依賴GAI系統,或誤認GAI內容品質比其他來源內容品質更佳。

8.資訊完整性:GAI可能無意間擴大傳播虛假、不準確或誤導性內容,從而破壞資訊完整性,降低公眾對真實或有效資訊的信任。

9.資訊安全:可能降低攻擊門檻、更輕易實現自動化攻擊,或幫助發現新的資安風險,擴大可攻擊範圍。

10.智慧財產權:若GAI訓練資料中含有受著作權保護的資料,可能導致侵權,或在未經授權的情況下使用或假冒個人身分、肖像或聲音。

11.淫穢、貶低或虐待性內容:可能導致非法或非自願性的成人私密影像或兒童性虐待素材增加,進而造成隱私、心理、情感,甚至身體上傷害。

12.價值鏈和組件整合(component integration):購買資料集、訓練模型和軟體庫等第三方零組件時,若零組件未從適當途徑取得或未經妥善審查,可能導致下游使用者資訊不透明或難以問責。

  為解決前述12項風險,本報告亦從「治理、映射、量測、管理」四大面向提出約200項行動建議,期能有助組織緩解並降低GAI的潛在危害。

相關連結
※ 美國國家標準暨技術研究院發布「人工智慧風險管理框架:生成式AI概況」, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=9263&no=67&tp=1 (最後瀏覽日:2026/05/17)
引註此篇文章
你可能還會想看
歐洲及中國大陸專利效力自2018年3月1日起可延伸至柬埔寨

  柬埔寨於2017年1月23日與歐洲專利局(下稱EPO)在首都金邊簽署專利合作協議,該協議內容為申請人僅需提出歐洲專利申請,不論是申請案或是經核准的專利,其效力均可延伸至柬埔寨,並受柬埔寨專利法的約束。EPO局長Benoît Battistelli表示,此次合作協議將使得歐洲專利制度橫跨至亞洲市場,申請人在歐洲提出專利申請,即可在44個歐洲及非歐洲國家(包含摩洛哥、突尼西亞、柬埔寨)取得專利保護。除了可減少申請人的申請作業時間和成本,避免冗長的實質審查程序,也可提高歐洲專利權人在柬埔寨投資的意願。   柬埔寨同年9月亦與中國大陸知識產權局(SIPO)簽署性質相同的專利合作備忘錄,發明專利於中國大陸通過審查核准後,發明人可提出申請至柬埔寨取得專利權及相關保護,取得日期及保護時限20年與中國大陸相同,且申請日於2003年1月22日後的中國大陸發明專利,皆可於柬埔寨產生保護效力。   依據國際貨幣基金組織(IMF)最新預測與評估,柬埔寨在經濟持續高成長的情況下,將會是全球未來十年經濟成長最快速的國家之一。柬埔寨近年來積極規劃改革其智慧財產法制,並透過與其他國家簽署專利合作協議,來促進國內經濟及吸引外國直接投資。 「本文同步刊登於TIPS網站(https://www.tips.org.tw )」

美國聯邦通訊委員會與國家科學基金會以及國家電信暨資訊管理局簽署合作協議,以展現對頻譜革新倡儀的支持

  美國聯邦通訊委員會(Federal Communication Commission, FCC)於2021年2月1日與美國國家科學基金會(National Science Foundation, NSF)以及美國國家電信暨資訊管理局(National Telecommunications and Information Administration, NTIA)共同簽署合作協議,展現對NSF於2020年所發起的頻譜革新倡儀(NSF Spectrum Innovation Initiative)的支持,其目的在於美國面臨對頻譜使用的需求量增加之際,能在頻譜的研究與發展尋求創新的進步。   頻譜革新倡儀將致力於頻譜的研究與創新,具體行動如下: 建置國家無線電動態區域(National Radio Dynamic Zones, NRDZ):藉由建立新的前導測試的測試範圍,使研究人員得對頻譜的使用者進行動態頻譜(dynamic spectrum)的研究和開發; 國家頻譜創新和勞動力發展計畫:建立頻譜相關研究人員聯繫管道,並增加頻譜相關勞動力,以支持未來頻譜之相關產業發展; 頻譜研究活動:藉此發展出更多涉及頻譜的應用,特別是跨領域性質的研究活動; 教育和勞動力發展計畫:透過教育和培訓計畫培養兼具專業且多元性的頻譜相關勞動力。   此份合作協議,目的在確保FCC和NTIA的專業人員可以提供其關於頻譜的專業知識,以幫助確保頻譜革新倡議在頻譜的研究、基礎設施和勞動力方面的投資與開發,能符合美國聯邦政府對頻譜的監管、政策目標、原則和策略。

德國聯邦資訊技術,電信和新媒體協會針對AI及自動決策技術利用提出建議指南

  德國聯邦資訊技術,電信和新媒體協會於2018年2月6日在更安全的網路研討會中針對利用人工智慧及自動決策技術利用提出建議指南(Empfehlungen für den verantwortlichen Einsatz von KI und automatisierten Entscheidungen),旨在提升企業數位化與社會責任,並提升消費者權益保護。 本份指南提出六項建議: 促進企業內部及外部訂定相關準則 例如規定公司在利用演算法和AI時,必須將影響評估列入開發流程,並列為公司應遵守的道德倫理守則,以確保開發的產品或服務符合公平及道德。 提升透明度 使用者如有興趣了解演算法及其含義,企業應協助調查並了解使用者想獲知的訊息,並透過相關訊息管道提升產品及服務透明度。因此,企業應努力使演算法及其操作和含義能夠被使用者理解。此亦涉及即將實施的歐盟一般資料保護規則中的透明度義務。在機器學習或深度學習情況下,可能會增加理解性和可追溯性難度,但有助於分析流程並使其更接近人類理解的方法在科學和商業實踐中,應特別關注並進一步討論。另外,透過教育及使用說明協助及控制功能,教導消費者係建立雙方信任的重要手段。企業應在第一線中說明產品或服務中使用的手段(演算法,機器學習,AI)。除了解釋使用那些技術來改進產品和服務外,應一併解釋如何從技術控制過程中獲得相關知識以及提供那些後援支持。另外,例如透過幫助頁面,儀表板或部落格,解釋發生什麼以及如何做出某些影響深遠的自動化決策,使用戶更了解有關使用自動決策相關訊息。因此建議企業採取強制有效以建立信任的措施,使用戶理解是否及如何使用相關演算法,此可能包括使用自動化決策,使用特定資料組和使用技術的目的,亦即使用戶對演算法,機器學習或AI支持的決策有基本的了解。 為全體利益使用相關技術 人工智慧等新技術之重要性不應被低估,目前在生活和工業等眾多領域皆有廣泛應用。對於個人和集體而言,將可帶來巨大的利益,因此應該充分利用。例如,人工智慧可降低語言障礙,幫助行動不便的人可更加獨立自主生活,改善醫療診斷,提升能源供應效率,甚至是交通規劃和搜索停車位,都只是人工智慧偉大且已被使用的案例。為促進技術發展,應公平地利用其優勢並預留商業應用模式的空間,同時充分解決涉及的具體風險。產業特定的解決方案十分重要,但應兼顧受影響者的利益,並與廣大公眾利益找出妥協平衡點,且應排除不適當的歧視。建議在使用決策支持技術時,應事先檢查相關後果並與其利益比較。例如,可以在資料保護影響評估的框架進行。作為道德準則的一部分,必須確保演算法盡可能量準確地預測結果。 開發安全的資料基礎 資料係人工智慧支援決策的基礎。與人為決策者相同,資料不完整或錯誤,將導致做出錯誤的決定。因此決策系統的可靠性仍取決資料的準確性。但資料質量和資料來源始終不能追溯到源頭,如果可能的話,只有匯總或非個人資料可用於分析或分類用戶群組。因此,確切細節不可被使用或揭露。因此建議企業應考慮要使用的資料、資料的類別和在使用AI系統前仔細檢查資料使用情況,特別是在自我學習系統中資料引入的標準,並根據錯誤來源進行檢查,且儘可能全面記錄,針對個人資料部分更應謹慎處理。 解決機器偏差問題 應重視並解決所謂機器偏差和演算法選擇和模型建立領域的相關問題。解釋演算法,機器學習或AI在基層資料選擇和資料庫時所產生決策偏見相當重要,在開發預期用途的演算法時必須納入考量,對員工應針對道德影響進行培訓,並使用代表性紀錄來創建可以識別和最小化偏差的方法。企業並應該提高員工的敏感度並培訓如何解決並減少機器偏見問題,並特別注意資料饋送,以及開發用於檢測模式的內、外部測試流程。 適合個別領域的具體措施和文件 在特別需要負責的決策過程,例如在車輛的自動控制或醫療診斷中,應設計成由責任主體保留最終的決策權力,直到AI的控制品質已達到或高於所有參與者水平。對類人工智慧的信任,並非透過對方法的無條件追踪來實現,而是經過仔細測試,學習和記錄來實現

線上遊戲「虛擬財產」法律性質與產業發展趨勢之研究

TOP