美國情報體系發布「情報體系運用人工智慧倫理架構」

  美國國家情報體系(United States Intelligence Community)係於1981年依據行政命令第12333號(Executive Order 12333)所建立,其任務為蒐集、分析與提供外國情報與反情報資訊美國國家領導人,服務對象包含美國總統、執法單位以及軍事單位。其於2020年6月提出「情報體系人工智慧倫理架構」(Artificial Intelligence Ethics Framework for the Intelligence Community),為人工智慧系統與訓練資料、測試資料之採購、設計、研發、使用、保護、消費與管理提出指引,並指出人工智慧之利用須遵從以下事項:

一、於經過潛在風險評估後,以適當且符合目的之方法利用;

二、人工智慧之使用應尊重個人權利與自由,且資料取得應合法且符合相關政策與法規之要求;

三、應於利用程序內結合人類判斷與建立問責機制,以因應AI產品之風險並確保其決策之適當性。

四、於不破壞其功能與實用性之前提下,盡可能確認、統計以及降低潛在之歧視問題。

五、AI進行測試時應同時考量其未來利用上可預見之風險。

六、持續維持AI模型之迭代(Iteration)、版本與改動之審查。

七、AI之建立目的、限制與設計之輸出項目,應文件化。

八、盡可能使用可解釋與可理解之方式,讓使用者、審查者與公眾理解為何AI會產出相關決策。

九、持續不定期檢測AI,以確保其符合當初建置之目的。

十、確認AI於產品循環中各階段之負責人,包含其維護相關紀錄之責任。

本文為「經濟部產業技術司科技專案成果」

相關連結
※ 美國情報體系發布「情報體系運用人工智慧倫理架構」, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8520&no=55&tp=1 (最後瀏覽日:2026/03/16)
引註此篇文章
你可能還會想看
美國國家創新與創業諮詢委員會發布透過創業提高競爭力美國創新策略報告, 敦促政府消除創業活動障礙,促進新創公司發展

美國國家創新與創業諮詢委員會(National Advisory Council on Innovation and Entrepreneurship, NACIE)於2024年2月8日發布「透過創業提高競爭力:美國創新策略」(Competitiveness Through Entrepreneurship: A Strategy For U.S. Innovation)報告,其確定改善與協助美國創業精神之三大關鍵領域,並提出十項建議,敦促政府消除創業活動障礙,增加新創公司獲得人才、資金之機會。 NACIE由企業家、創新者、投資人、學者與經濟發展領導者組成。由商務部長責成其確定如何使美國繼續成為改變典範之創新來源、以及將創新推向市場之泉源。NACIE於此報告中所確認之三大關鍵領域與十項建議之內涵簡述如下: (1)關鍵領域1:發展未來產業(Growing the Industries of the Future) 美國雖於能源、自動化、人工智慧、量子科學與生物科技等創新領域取得商業上之成功,但對於產業創新仍存有四大威脅,包括國家機關間之協調、研發投資之持續減少、大學研發產品商業化受阻與境外製造之風險。 建議1: 成立國家創新委員會(National Innovation Council),由科學技術政策辦公室主任(Director of the Office of Science & Technology Policy)擔任主席,成員包括相關內閣秘書、國家科學基金會(NSF)主任、美國專利商標局(USPTO)局長與美國首席技術長(Chief Technology Officer, CTO),倡導全國創新與創業並協調相關聯邦政府活動。 建議2: 恢復與擴大國家投資,使創新登月計畫成為可能—大幅增加聯邦對關鍵技術之研發投資,使美國在未來成長產業中發揮領導作用。 建議3: 啟動國家創新加速器網路(National Innovation Accelerator Network, NIAN)—一個由加速器、輔導、投資計畫與創業支持組織組成之虛擬“網路中之網路”(“network of networks”),旨在大規模增強社會各方面之包容性創業能力。 建議4: 為聯邦資助之研究與開發提供智慧財產權激勵措施;制定政策與激勵措施,促進聯邦政府資助之創新廣泛傳播與商業化;並促進將聯邦資助創新進行國內製造。 建議5: 積極與創新者、企業家與資助者合作,確保其擁有足夠之智慧財產權與網路安全教育與資源來保護其之想法與業務,並接受培訓以能夠識別與防止外國公司或國家潛在之智慧財產權盜竊。 (2)關鍵領域2:獲取資本(Accessing Capital) 美國前七大上市公司全部皆由創投所支持,於1990至2020年間,相較於私部門之雇用率上升40%,同一時期由創投支持之公司雇用率成長達960%;美國創投規模亦居於全球之冠,甚至某些城市之創投規模已超過其他國家,如2021年紐約之創投規模即相當於印度全國之規模。惟美國創投之問題在於投資機會未能平等,如女性、有色人種、非都會區較難獲得創投投資。 建議6: 透過制定新聯邦計畫,擴大企業家之成長資金管道,以支持各地更多企業家,特別是通常未受足夠服務之企業家。 建議7: 透過擴大直接資助與基於激勵(incentive-based)之聯邦計畫,增加資金並為新興基金經理提供機會,以便於全國更多處皆能有更多具有各種人口背景與專業之投資人。 建議8: 向投資於研發、種子輪或A 輪融資新創公司、女性與少數族群擁有之新創公司、以及保護與授權智慧財產權之公司與個人提供年度稅收抵免與激勵措施。 (3)關鍵領域3:培養創業人才(Developing Entrepreneurial Talent) 人才對於創業生態系之完整建構至為重要,美國一半以上之10億美元公司由移民創辦,三分之二之獨角獸公司由移民創辦或共同創辦,這些公司之創辦人中有25%是國際學生。 建議9: 透過提供導師、支持服務資金以及幫助吸引與培養關鍵人才,全面支持新高潛力企業家,旨在增加美國新創公司之數量與影響力。 建議10: 有系統地提供支持創業之工具與資源,打破任何人、任何地方之障礙,為新創業企業做出貢獻,以便美國未來能更快地創新。

美國歐盟貿易和技術委員會發布第四次聯合聲明,強化高科技技術及貿易安全合作

美國歐盟貿易和技術委員會(Trade and Technology Council,簡稱TTC)第四次部長級會議於2023年5月31日發布聯合聲明。TTC繼續作為美國和歐盟對俄羅斯在烏克蘭戰爭中協調及有效反應的平台,處理包括與制裁相關的出口限制、打擊外國資訊操縱和干擾,以及破壞人權並威脅到當事國及第三國民主制度的運作和社會福祉等議題。 本次TTC聯合聲明之五大議題重點介紹如下: (1)強化跨大西洋新興技術合作以實現美歐共同領導:包括監控與衡量現有和新出現的人工智慧風險;發展智慧電網下智慧移動標準及互通性(Interoperability);提升半導體供應鏈的合作,包括鼓勵研發、資訊共享;建立工作小組共同處理量子技術問題。 (2)促進貿易及投資的永續性與新機會:乾淨能源補助;避免關鍵礦物供應受地緣政治影響;藉由數位工具提升貿易便捷的合作;相互承認醫藥品製造實務作法等。 (3)貿易、安全和經濟繁榮:出口管制與制裁相關出口限制的合作;交換對於與國安風險有關的特定敏感技術及關鍵設施投資審查的看法;重視對外投資管制,以保護敏感技術不流於對國際和平與安全有疑慮的用途;討論非市場政策與實務、及經濟脅迫(Coercion)的威脅與挑戰。 (4)連結性(Connectivity)和數位基礎設施:加速合作發展6G無線通訊系統;國際連通性與海底電纜計畫。 (5)在不斷變化的地緣政治數位環境中捍衛人權和價值觀:建構具透明性與可問責之線上平台;處理在第三國進行外國資料操縱與干預議題。 TTC將透過各工作小組,持續關注、研究上述議題的發展,並預計於2023年底於美國再次召開會議,檢視合作的成果。

歐洲民間成立一聯盟,倡議資料主權之重要性

  在今(2021)年1月21日,歐洲數個科技公司、非營利組織與研究機構等民間單位共同發起「現今資料主權」聯盟(Data Sovereignty Now,DSN),宣布將向歐洲各級決策者施加壓力,以確保資料(data)之控制權掌握在生成資料的個人和組織手中。該聯盟認為歐盟執委會應採取決定性之措施,對於在歐洲所生成之資料,應以資料主權原則為基礎,以確保生成資料之個人和組織對其有控制權,以利數位經濟。   而在2020年12月初,澳洲政府首開全球先例提出一新法案,要求Google與Facebook等平台應向澳洲在地媒體支付新聞內容費用,要求雙方進行協商,商討在其平台上顯示之新聞內容所應支付之費用,倘無法達成協議,則由政府之仲裁員決定應支付之金額。此法案引發Google與Facebook高度反彈,不惜以不繼續在澳洲提供服務或停止連結(link)當地媒體之新聞報導作為反擊,要求澳洲政府撤回或修改該法案;然DSN聯盟則認為,Google與Facebook利用其市場主導地位來向澳洲政府施加壓力,正是濫用其資料壟斷權(data monopoly)與壟斷地位之典型例子,為防止科技巨擎將來繼續以此方式勒索政府之唯一方法,即是恢復使用者與平台間之「數位利益平衡」。而Google似有讓步之跡象,根據路透社報導,Google分別已與兩家當地媒體達成協議,將各支付每年3000萬澳幣之費用。該法案是否會如期通過,進而改變或影響此類大型平台與各國政府間資料主權之角力關係,值得持續關注。

IBM提出「人工智慧日常倫理」手冊作為研發人員指引

  隨著人工智慧快速發,各界開始意識到人工智慧系統應用、發展過程所涉及的倫理議題,應該建構出相應的規範。IBM於2018年9月02日提出了「人工智慧日常倫理」(Everyday Ethics for Artificial Intelligence)手冊,其以明確、具體的指引做為系統設計師以及開發人員間之共同範本。作為可明確操作的規範,該手冊提供了問責制度、價值協同、可理解性等關注點,以促進社會對人工智慧的信任。 一、問責制度(Accountability)   由於人工智慧的決策將作為人們判斷的重要依據,在看似客觀的演算系統中,編寫演算法、定義失敗或成功的程式設計人員,將影響到人工智慧的演算結果。因此,系統的設計和開發團隊,應詳細記錄系統之設計與決策流程,確保設計、開發階段的責任歸屬,以及程序的可檢驗性。 二、價值協同(Value Alignment)   人工智慧在協助人們做出判斷時,應充分考量到事件的背景因素,其中包括經驗、記憶、文化規範等廣泛知識的借鑑。因此系統設計和開發人員,應協同應用領域之價值體系與經驗,並確保演算時對於跨領域的文化規範與價值觀之敏感性。同時,設計師和開發人員應使人工智慧系統得以「了解並認知」用戶的價值觀,使演算系統與使用者之行為準則相符。 三、可理解性(Explainability)   人工智慧系統的設計,應盡可能地讓人們理解,甚至檢測、審視它決策的過程。隨著人工智慧應用範圍的擴大,其演算決策的過程必須以人們得以理解的方式解釋。此係讓用戶與人工智慧系統交互了解,並針對人工智慧結論或建議,進而有所反饋的重要關鍵;並使用戶面對高度敏感決策時,得以據之檢視系統之背景數據、演算邏輯、推理及建議等。   該手冊提醒,倫理考量應在人工智慧設計之初嵌入,以最小化演算的歧視,並使決策過程透明,使用戶始終能意識到他們正在與人工智慧進行互動。而作為人工智慧系統設計人員和開發團隊,應視為影響數百萬人甚至社會生態的核心角色,應負有義務設計以人為本,並與社會價值觀和道德觀一致的智慧系統。

TOP