美國情報體系發布「情報體系運用人工智慧倫理架構」

  美國國家情報體系(United States Intelligence Community)係於1981年依據行政命令第12333號(Executive Order 12333)所建立,其任務為蒐集、分析與提供外國情報與反情報資訊美國國家領導人,服務對象包含美國總統、執法單位以及軍事單位。其於2020年6月提出「情報體系人工智慧倫理架構」(Artificial Intelligence Ethics Framework for the Intelligence Community),為人工智慧系統與訓練資料、測試資料之採購、設計、研發、使用、保護、消費與管理提出指引,並指出人工智慧之利用須遵從以下事項:

一、於經過潛在風險評估後,以適當且符合目的之方法利用;

二、人工智慧之使用應尊重個人權利與自由,且資料取得應合法且符合相關政策與法規之要求;

三、應於利用程序內結合人類判斷與建立問責機制,以因應AI產品之風險並確保其決策之適當性。

四、於不破壞其功能與實用性之前提下,盡可能確認、統計以及降低潛在之歧視問題。

五、AI進行測試時應同時考量其未來利用上可預見之風險。

六、持續維持AI模型之迭代(Iteration)、版本與改動之審查。

七、AI之建立目的、限制與設計之輸出項目,應文件化。

八、盡可能使用可解釋與可理解之方式,讓使用者、審查者與公眾理解為何AI會產出相關決策。

九、持續不定期檢測AI,以確保其符合當初建置之目的。

十、確認AI於產品循環中各階段之負責人,包含其維護相關紀錄之責任。

本文為「經濟部產業技術司科技專案成果」

相關連結
你可能會想參加
※ 美國情報體系發布「情報體系運用人工智慧倫理架構」, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8520&no=57&tp=1 (最後瀏覽日:2025/07/04)
引註此篇文章
你可能還會想看
德國聯邦政府公布人工智慧戰略,制定AI發展及跨領域應用框架

  德國聯邦政府於2018年11月15日公布聯邦政府人工智慧戰略(Strategie Künstliche Intelligenz der Bundesregierung),除了針對人工智慧一詞定義外,並概述德國人工智慧戰略的3項基本原則,14項目標和12項行動領域。   第一項原則係透過該戰略,為德國在人工智慧(AI)的發展和應用制定整體政策框架,促進德國成為人工智慧最佳研究環境,以及人工智慧在產業與中小企業之應用,以確保德國未來競爭力。第二項原則係人工智慧在社會各領域有多種應用可能性,將可明顯促進社會進步和公民利益,因此重點將強調AI的應用對於人類和環境可帶來的益處,並加強社會各界對於人工智慧主題的密集交流及討論,確保AI朝負責且共同利益為出發點的開發及應用。第三項原則將透過廣泛的社會對話和積極的政策框架,將道德,法律,文化和制度結合人工智慧之應用融入整體社會。   該戰略列舉之工作項目同時包括評量標準,包含建置德法創意網(虛擬中心)、起草國家級且持續性的教育策略、加強相關創業投資力道、針對相關新創公司提供綜合性諮詢和推廣服務、針對自願提供且符合隱私規範之共享資料與建立資料分析基礎設備者研擬獎勵及促進框架、利用風險投資、創業融資和成長科技基金計畫擴展籌資機會、建立至少12個AI應用中心、將人工智慧列為研發機構跳躍式創新的焦點,未來5年加強產學研合作項目推廣、將環境與氣候的人工智慧應用列為發展亮點、共同決策人工智慧技術的導入與應用、透過中小企業4.0中心每年至少與1000家企業建立聯繫並進行AI訓練、將AI實驗室應用情境移轉至工作場所、進一步發展人工智慧平台學習系統、設計擘劃跨領域社會科學之「未來數位化工作與社會基金」、進一步制定相關數位化轉型專家策略、建立德國人工智慧觀測站、組織以人為中心的人工智慧工作環境之歐洲和跨大西洋對話、促進具自決權,社會與文化參與性及保護公民隱私之創新應用、聯邦政府於2025年前將投資約30億歐元於人工智慧發展、開發人工智慧生態系統、培養至少100名相關領域新教授、與資料保護監督機關及商業協會召開圓桌會議。

美國環保署於提出首部「限制發電廠有毒氣體排放」國家管制標準草案並預定於2011年11月完成立法

  美國環保署(Environmental Protection Agency of the United States,以下簡稱EPA)於2011年3月16日首度對於國內發電廠有毒氣體的排放提出國家管制標準草案,並預定於2011年11月完成立法,此項立法措施被譽為近20年來美國空氣污染防治史上的重要里程碑。   美國對於發電廠所排放的有害氣體管制,最早源於美國清淨空氣法案(The Clean Air Act)在1990年要求EPA加強對於發電廠排放之汞(mercury)等有毒氣體之管制,而國會亦要求其須於2004年底以前提出國家管制標準。然而EPA於2005年正式公告「清靜空氣除汞管制規則(the Clean Air Mercury Rule,以下簡稱CAMR規則)」時,卻將燃煤電廠排放汞排除於管制名單外,引發紐澤西等14個州政府與相關環保團體的抗議,並對EPA提起聯邦訴訟。2008年2月8日聯邦上訴法院作出判決,除指出EPA對於發電廠空污之認定前後矛盾外,更認定其在未發現有新事證下擅自將發電廠所排放之空氣污染自CAMR管制名單中移除(delist),已違背反清靜空氣法案之程序要求,故推翻CAMR規則之有效性。   此後,經過密集的聽證會與討論,EPA最終於2011年3月16日正式提出「限制發電廠有毒氣體排放」的國家管制標準,對於發電廠所排放的汞、砷(arsenic)、鉻(chromium)、鎳(nickel)及其他酸性或有毒氣體加以管制,並要求電廠必須採用污染控制技術以減少製造量。   後京都議定書時代中,各國無不致力於新興能源替代方案之提出,惟於新興能源研發應用前的過渡期間仍需仰賴傳統發電技術,美國為解決傳統火力發電對於環境及人體健康所造成的傷害,提出首部國家管制標準草案,其後續對於該國能源結構可能產生何種影響,值得注意。

OECD啟動全球首創的《開發先進人工智慧系統組織的報告框架》

2025年2月7日,經濟合作暨發展組織(Organization for Economic Cooperation and Development,OECD)正式啟動《開發先進人工智慧系統組織的報告框架》(Reporting Framework for the Hiroshima Process International Code of Conduct for Organizations Developing Advanced AI Systems,簡稱G7AI風險報告框架)。 該框架之目的是具體落實《廣島進程國際行為準則》(Hiroshima Process International Code of Conduct)的11項行動,促進開發先進人工智慧系統(Advanced AI Systems)的組織建立透明度和問責制。該框架為組織提供標準化方法,使其能夠證明自身符合《廣島進程國際行為準則》的行動,並首次讓組織可以提供有關其人工智慧風險管理實踐、風險評估、事件報告等資訊。對於從事先進人工智慧開發的企業與組織而言,該框架將成為未來風險管理、透明度揭露與國際合規的重要依據。 G7 AI風險報告框架設計,對應《廣島進程國際行為準則》的11項行動,提出七個核心關注面向,具體說明組織於AI系統開發、部署與治理過程中應採取之措施: 1. 組織如何進行AI風險識別與評估; 2. 組織如何進行AI風險管理與資訊安全; 3. 組織如何進行先進AI系統的透明度報告; 4. 組織如何將AI風險管理納入治理框架; 5. 組織如何進行內容驗證與來源追溯機制; 6. 組織如何投資、研究AI安全與如何降低AI社會風險; 7. 組織如何促進AI對人類與全球的利益。 為協助G7推動《廣島進程國際行為準則》,OECD建構G7「AI風險報告框架」網路平台,鼓勵開發先進人工智慧的組織與企業於2025年4月15日前提交首份人工智慧風險報告至該平台(https://transparency.oecd.ai/),目前已有包含OpenAI等超過15家國際企業提交報告。OECD亦呼籲企業與組織每年定期更新報告,以提升全球利益相關者之間的透明度與合作。 目前雖屬自願性報告,然考量到國際監理機關對生成式AI及高風險AI 系統透明度、可問責性(Accountability)的日益關注,G7 AI風險報告框架內容可能成為未來立法與監管的參考作法之一。建議企業組織持續觀測國際AI治理政策變化,預做合規準備。

產業創新與管制革新-日本國家戰略特區制度等之啟示

TOP