美國國防部「人工智慧國防運用倫理準則」

  美國國防部(Department of Defense)於2020年2月採納由美國國防創新委員會(Defense Innovation Board, DIB)所提出之「人工智慧國防運用倫理準則(AI Principles: Recommendations on the Ethical Use of Artificial Intelligence by the Department of Defense)」,以衡平倫理與人工智慧於國防帶來之增益。

  美國國防創新委員會為美國聯邦政府下之獨立委員會,設置目的在於依美國新創科技,提供意見予美國國防部,與美國國防部並無隸屬關係。有鑑於人工智慧之運用範疇日益增廣,美國國防創新委員會遂提出旨揭「人工智慧國防運用倫理準則」,以因應人工智慧於國防之應用所產生之問題。

  倫理準則適用於「戰爭或非戰爭用途之人工智慧之設計以及應用」,對於「人工智慧」之定義,倫理準認為人工智慧並無精確之範疇,只要「對於資訊有所處理並旨在達到所賦予任務之資訊系統」,皆為本準則下之人工智慧。倫理準則指出,「人工智慧」與美國國防部3000.09指令下之「自動化武器系統(Autonomous Weapon System)」之定義不同,但有可能重疊,而所謂「自動化武器系統」為「一經人類選擇啟動,即可在無人類監督之情形下,自動針對目標進行鎖定或進行攻擊之自動化武器系統」。

  美國國防創新委員會表示,該準則旨在切合美國既有憲法、法律、國際公約之傳統標準下,融入現代化對於人工智慧之要求,如國際公約中之戰爭法(Law of War)即為本準則之傳統標準之一,舉例而言,如人工智慧被裝置於武器中,其設計及應用應符合最小傷亡原則、避免傷及無辜原則等。

  除此之外,準則亦包含以下現代化對於人工智慧之要求:(1)人類對於人工智慧系統之設計、應用以及使用應善盡判斷以及注意義務,且人類應該對於人工智慧系統因瑕疵所帶來之傷害負擔最終責任;(2)對於目標之選擇或分類,應維持公平性,且不得有歧視性;(3)對於人工智慧之設計、應用以及使用,應有明確之工程標準以及資料保存程序,此一工程標準以及資料保存程序應為一般具有專業知識之工程人員可據以理解、分析、追蹤問題所在並加以改善;(4)「戰爭或非戰爭用途之人工智慧」應有明確之應用領域,且完善之檢測、維修,應適用於該人工智慧之全部生命週期。

本文為「經濟部產業技術司科技專案成果」

相關連結
相關附件
你可能會想參加
※ 美國國防部「人工智慧國防運用倫理準則」 , 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8450&no=16&tp=1 (最後瀏覽日:2025/11/21)
引註此篇文章
你可能還會想看
全球首批奈米標章得獎名單出爐!

  經濟部於去(2005)年12月20日正式舉行「全球首批」奈米標章的授證儀式,本次獲得授證廠商共有6家,分別為:和隆興業股份有限公司(奈米級光觸媒抗菌陶瓷面磚)、冠軍建材股份有限公司(奈米級光觸媒抗菌陶瓷面磚)、尚志精密化學股份有限公司(奈米級光觸媒脫臭塗料)、新美華造漆廠股份有限公司(奈米級光觸媒脫臭塗料)、中國電器股份有限公司(奈米級光觸媒抗菌燈管)、台灣日光燈股份有限公司(奈米級光觸媒抗菌燈管),由於國外尚無奈米產品認證制度,這是國內也是全球首批獲證的奈米產品。   經濟部工業局有鑒於市面上奈米產品真偽莫辨,於九十三年特別委託工業技術研究院推動「奈米產品驗證體系」,目的在保護消費者權益、建立消費者的正確認知,並鼓勵優良廠商永續經營進而提升我國奈米產品之國際競爭力。目前奈米標章開放申請項目訂定的原則,是以該項產品在國內是否有市售商品、製造商及具能力的測試機構與相關之技術專家,以及國內外是否有測試方法可參考為前提,而基於安全性考量,有關健康、環境風險者,目前暫不開放,但對於尚未開放項目,可由廠商自行提出申請。

美國網路安全聯盟提出網路安全策略建議報告

  美國網際網路安全聯盟(Internet Security Alliance,ISA)日前公佈一份新的報告,期使歐巴馬政府之「網路空間政策檢討」(Cyberspace Policy Review)能更進一步的落實。     網路安全聯盟主席Larry Clinton指出:「ISA對歐巴馬政府的網路安全政策表示支持,而目前民間機構需要設計一套規範,去落實ISA與政府對於網路安全重要議題共通之協議。本次所提出的報告,就是為了要提供能解決此一關鍵問題的架構。」     此份報告之標題為「利用ISA之社會契約模型執行歐巴馬政府之網路安全策略」(Implementing the Obama Cyber Security Strategy via the ISA Social Contract Model),而此報告強調必須重視網路安全的經濟意義。     Clinton認為,一旦討論到網路安全議題,會發現所有的經濟因素都對攻擊者有利,攻擊者總是能以簡單、成本低廉之攻擊方式得到巨大的利益。相對地,防守者(網路使用者)卻往往要付出高昂的成本。需要防護的領域太廣,而投資的回收通常很有限。必須從經濟的角度去平衡考慮成本與回收,才能建立具實效性且持續穩固的網路安全系統。     此份報告包含下列事項之架構:1.在商業計劃層面,創設政府與民間機構的合作夥伴關係,以強化網路安全;2.提出關於網路安全的國際議題;3.維持全球IT產業供應鏈的安全;4.建立新式資訊分享範例。     上述架構均依循ISA之網路安全社會契約模型,此一模型是源自於20世紀早期美國政府為了提供民間企業電信與電力服務,所成功建立之夥伴關係。

世界經濟論壇發布《人工智慧公平性和包容性藍圖》白皮書

  世界經濟論壇(World Economic Forum, WEF)於2022年6月29日發布《人工智慧公平性和包容性藍圖》白皮書(A Blueprint for Equity and Inclusion in Artificial Intelligence),說明在AI開發生命週期和治理生態系統中,應該如何改善公平性和強化包容性。根據全球未來人類AI理事會(Global Future Council on Artificial Intelligence for Humanity)指出,目前AI生命週期應分為兩個部分,一是管理AI使用,二是設計、開發、部署AI以滿足利益相關者需求。   包容性AI不僅是考量技術發展中之公平性與包容性,而是需整體考量並建立包容的AI生態系統,包括(1)包容性AI基礎設施(例如運算能力、資料儲存、網路),鼓勵更多技術或非技術的人員有能力參與到AI相關工作中;(2)建立AI素養、教育及意識,例如從小開始開啟AI相關課程,讓孩子從小即可以從父母的工作、家庭、學校,甚至玩具中學習AI系統對資料和隱私的影響並進行思考,盡可能讓使其互動的人都了解AI之基礎知識,並能夠認識其可能帶來的風險與機會;(3)公平的工作環境,未來各行各業需要越來越多多元化人才,企業需拓寬與AI相關之職位,例如讓非傳統背景人員接受交叉培訓、公私協力建立夥伴關係、提高員工職場歸屬感。   在設計包容性方面,必須考慮不同利益相關者之需求,並從設計者、開發者、監督機關等不同角度觀察。本報告將包容性AI開發及治理整個生命週期分為6個不同階段,期望在生命週期中的每個階段皆考量公平性與包容性: 1.了解問題並確定AI解決方案:釐清為何需要部署AI,並設定希望改善的目標變量(target variable),並透過制定包容性社會參與框架或行為準則,盡可能實現包容性社會參與(特別是代表性不足或受保護的族群)。 2.包容性模型設計:設計時需考慮社會和受影響的利益相關者,並多方考量各種設計決策及運用在不同情況時之公平性、健全性、全面性、可解釋性、準確性及透明度等。 3.包容性資料蒐集:透過設計健全的治理及隱私,確定更具包容性的資料蒐集路徑,以確保所建立之模型能適用到整體社會。 4.公平和包容的模型開發及測試:除多元化開發團隊及資料代表性,組織也應引進不同利益相關者進行迭代開發與測試,並招募測試組進行測試與部署,以確保測試人群能夠代表整體人類。且模型可能隨著時間發展而有變化,需以多元化指標評估與調整。 5.公平地部署受信任的AI系統,並監控社會影響:部署AI系統後仍應持續監控,並持續評估可能出現新的利益相關者或使用者,以降低因環境變化而可能產生的危害。 6.不斷循環發展的生命週期:不應以傳統重複循環過程看待AI生命週期,而是以流動、展開及演變的態度,隨時評估及調整,以因應新的挑戰及需求,透過定期紀錄及審查,隨時重塑包容性AI生態系統。   綜上,本報告以包容性AI生態系統及生命週期概念,期望透過基礎設施、教育與培訓、公平的工作環境等,以因應未來無所不在的AI社會與生活,建立公司、政府、教育機構可以遵循的方向。

歐盟創新採購機制觀測

TOP