美國國家標準暨技術研究院發布「人工智慧風險管理框架:生成式AI概況」

  美國國家標準暨技術研究院(National Institute of Standard and Technology, NIST)2024年7月26日發布「人工智慧風險管理框架:生成式AI概況」(Artificial Intelligence Risk Management Framework: Generative Artificial Intelligence Profile),補充2023年1月發布的AI風險管理框架,協助組織識別生成式AI(Generative AI, GAI)可能引發的風險,並提出風險管理行動。GAI特有或加劇的12項主要風險包括:

1.化學、生物、放射性物質或核武器(chemical, biological, radiological and nuclear materials and agents, CBRN)之資訊或能力:GAI可能使惡意行為者更容易取得CBRN相關資訊、知識、材料或技術,以設計、開發、生產、使用CBRN。

2.虛假內容:GAI在回應輸入內容時,常自信地呈現錯誤或虛假內容,包括在同一情境下產出自相矛盾的內容。

3.危險、暴力或仇恨內容:GAI比其他技術能更輕易產生大規模煽動性、激進或威脅性內容,或美化暴力內容。

4.資料隱私:GAI訓練時需要大量資料,包括個人資料,可能產生透明度、個人資料自主權、資料違法目的外利用等風險。

5.環境影響:訓練、維護和運行GAI系統需使用大量能源而影響碳排放。

6.偏見或同質化(homogenization):GAI可能加劇對個人、群體或社會的偏見或刻板印象,例如要求生成醫生、律師或CEO圖像時,產出女性、少數族群或身障人士的比例較低。

7.人機互動:可能涉及系統與人類互動不良的風險,包括過度依賴GAI系統,或誤認GAI內容品質比其他來源內容品質更佳。

8.資訊完整性:GAI可能無意間擴大傳播虛假、不準確或誤導性內容,從而破壞資訊完整性,降低公眾對真實或有效資訊的信任。

9.資訊安全:可能降低攻擊門檻、更輕易實現自動化攻擊,或幫助發現新的資安風險,擴大可攻擊範圍。

10.智慧財產權:若GAI訓練資料中含有受著作權保護的資料,可能導致侵權,或在未經授權的情況下使用或假冒個人身分、肖像或聲音。

11.淫穢、貶低或虐待性內容:可能導致非法或非自願性的成人私密影像或兒童性虐待素材增加,進而造成隱私、心理、情感,甚至身體上傷害。

12.價值鏈和組件整合(component integration):購買資料集、訓練模型和軟體庫等第三方零組件時,若零組件未從適當途徑取得或未經妥善審查,可能導致下游使用者資訊不透明或難以問責。

  為解決前述12項風險,本報告亦從「治理、映射、量測、管理」四大面向提出約200項行動建議,期能有助組織緩解並降低GAI的潛在危害。

相關連結
※ 美國國家標準暨技術研究院發布「人工智慧風險管理框架:生成式AI概況」, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=9263&no=55&tp=1 (最後瀏覽日:2025/11/26)
引註此篇文章
你可能還會想看
美國國家標準暨技術研究院規劃建立「人工智慧風險管理框架」,並徵詢公眾對於該框架之意見

  美國國家標準暨技術研究院(National Institute of Standards and Technology, NIST)為管理人工智慧對於個人、組織以及社會所帶來之風險,於2021年7月29日提出將建立「人工智慧風險管理框架」(Artificial Intelligence Risk Management Framework, AI RMF)之規畫並徵詢公眾意見,截止日為9月15日,並預計於10月發布正式報告。   依照NIST說明,公眾所建議之人工智慧風險管理框架,可促進人工智慧之可信賴性,其中包含如何應對並解決人工智慧於設計、發展及使用過程中所遭遇之「精確度」(accuracy)、「可解釋性」(explainability)、「偏見」(bias)等議題。此外,上開管理框架預計為非強制性、供企業自願性使用於人工智慧設計、發展、使用、衡量及評估之人工智慧標準。   依現有公眾意見徵詢結果,其中DeepMind公司建議於人工智慧設計初期,必須預先構思整體系統之假設是否符合真正社會因果關係。舉例言之,當設計一套可預測民眾健保需求程度之系統時,如輸入參數僅考量民眾於醫療上的花費,將使僅有可負擔較高醫療費用之民眾被歸類為健保需求程度較高者,從而導致健保制度排擠經濟負擔程度較差之公民,故在設計系統時,應從預先設定之假設事實反面(counter-factual)思考並驗證是否會產生誤差或公平性之問題(例如預先思考並驗證「醫療費用支出較低之民眾是否即可被正確歸類為健保需求度低之民眾」)。惟進行上述驗證需要大量社會資料,因此DeepMind也建議NIST應建立相關機制,使這些社會資料可以被蒐集、使用。   此外,亦有民眾建議管理框架應有明確之衡量方法以及數值指標,以供工程界遵循。同時鑒於人工智慧發展極為快速,未來可能有不同於以往之人工智慧類型出現,故亦建議NIST應思考如何在「建構一套完整且詳細之人工智慧治理框架」與「保持人工智慧治理框架之彈性與靈活性」之間取得平衡。   最後,目前也有許多徵詢意見指出,許多人工智慧治理之目標會相互衝突。舉例言之,當NIST要求人工智慧系統應符合可解釋性,則人工智慧公司勢必需要經常抽取人工智慧系統中之「數據軌跡」(audit logs),惟數據軌跡可能被認為是使用者之個人資料,因此如何平衡或完善不同治理框架下之目標,為未來應持續關注之議題。

首例中國大陸地方自主創新法規─廣東省自主創新條例公布

  中國大陸政府在《國民經濟和社會發展第十二個五年規劃綱要》,以及《國家中長期科學技術發展規劃綱要》中揭示繼續增強自主創新能力,進而推動中國大陸科技進步以及經濟發展。上述指導性的綱要落實到中國大陸立法層面,可從《科學技術進步法》第25條規定「政府必須優先採購自主創新產品」等類似的條文中發現這樣的精神。   2011年11月30日由廣東省第11屆人民代表大會所通過的《廣東省自主創新條例》,即是在這樣的立法背景下所訂定。該條例具體規定「自主創新」之定義、自主創新產業的人才培育措施、自主創新產業的財政性資金補助措施,以及鼓勵研究成果轉化與產業化之措施等,並分別設立專章予以規定。其中特別值得注意者,乃是該條例第18條明文鼓勵自主創新產業與澳門、香港,以及臺灣的企業、大學、研發單位合作科技研發,並建立科學技術創新平臺。   過去中國科研相關政策綱要中雖不乏有鼓勵兩岸產學研合作的宣示,但於法律條文位階中明文鼓勵「台灣參與中國大陸自主創新科技研發」卻還是首見,大幅提高了未來台灣產學研界主動參與大陸地區科技研發的可能性。由於中國大陸在立法特色上,通常係由地方法規率先就特定事務進行規範,爾後政府若認為有以中央法律位階作統一規範時,始進一步訂定法律或中央機關部門規章,因此本條例之制定是否會對於其他中國科研創新法制帶來拋磚引玉之效,頗值得觀察

日本公正取引委員會啟動以交易優勢不當攫取新興智慧財產之實況調查

  日本公正取引委員會(下稱公取委,其性質等同於我國公平交易委員會)在2019年12月11日的定期記者會上表示,由於近年出現許多關於「智慧財產及knowhow保護不足」的聲音,因此將針對大型企業在與新創、新興企業進行共同合作或研究時,是否有濫用優勢地位不當掠取智慧財產權及專業知識技能(knowhow)的情形,啟動實況調查。   公取委將以書面方式,針對日本國內約1萬家創業10年以內的IT製造新創產業與大企業間交易之實況進行調查。相關報導整理了以下幾種常見的問題交易型態: 獨占智慧財產:(1)契約約定大型企業無須經新興企業許可,即可逕自申請專利;(2)共同研究成果全歸大型企業所有;(3)要求無限制的無償授權。 限制與他人合作:(1)長時間禁止新興企業與其他業界合作;(2)相關專利遭到大企業所限制,導致事業無法拓展。 強勢締約:(1)大型企業對於契約的意思決定過於緩慢;(2)直接交付簽訂好的紙本契約,並告知不得變更契約內容。   公取委表示,因為新興企業具有開放式創新的價值,在與大型企業進行合作時,對於國家產業發展及競爭力的提升,能發揮很大的貢獻。因此藉由實態調查,確保建構出一個自由、公平的良性競爭環境,並預計在2020年依據調查結果,擬定相關指引或方針。

網路廣告商標侵權爭議之最新實務發展趨勢介紹

TOP