美國國土安全部發布「2024人工智慧路線圖」,確保AI安全開發與部署

美國國土安全部(Department of Homeland Security, DHS)於2024年3月17日發布「2024人工智慧路線圖」(2024 Artificial Intelligence Roadmap)(下稱AI路線圖),設立三大目標,將偕同旗下機關與產官學研各界合作,確保AI的安全開發與部署,保護國家關鍵基礎設施安全,以強化國家安全。

美國拜登總統於2023年10月30日簽署的第14110號總統行政命令《安全可靠且值得信賴的人工智慧開發暨使用》(Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence)(下稱AI總統行命令),要求DHS應管理使用於關鍵基礎設施與資通安全的AI、制定全球AI標準並推廣、降低利用AI造成具有大規模殺傷力武器攻擊之風險、保護AI智慧財產權、以及吸引AI領域人才,以促使、加強AI開發與部署等事項。為踐行上述事項,DHS制定AI路線圖,其三大目標如下:

(1) 負責任的使用AI以推進國安任務(Responsibly Leverage AI to Advance Homeland Security Mission):透過建置AI基礎建設、建立AI系統測試與評估(Testing and Evaluation, T&E)、推動AI人才培育計畫等行動措施,帶領主管機關負責任的使用AI,以保護國家安全及避免AI對關鍵基礎設施的風險,確保AI於使用過程中係尊重個人隱私、保護公民權利與自由。

(2) 促進AI安全與資安(Promote Nationwide AI Safety and Security):利用AI技術改善與預防關鍵基礎設施之安全與資安風險、制定關鍵基礎設施之AI使用指引、以及成立AI安全與資安委員會(AI Safety and Security Board, AISSB),彙集產官學研各界專家意見。

(3) 透過擴大AI國際合作來引領AI發展(Continue to Lead in AI Through Strong, Cohesive Partnerships):將透過與產官學研各界合作,擴大AI的國際合作,並持續與公眾進行意見交流與分享,推廣AI政策或相關行動措施;DHS亦將持續與參眾議院及其他主管機關匯報AI相關之工作進度與未來規劃,以提升部門AI的透明度,並建立公眾對AI的信任。

本文為「經濟部產業技術司科技專案成果」

相關連結
※ 美國國土安全部發布「2024人工智慧路線圖」,確保AI安全開發與部署, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=9184&no=64&tp=1 (最後瀏覽日:2025/12/15)
引註此篇文章
科法觀點
你可能還會想看
國際標準化組織(ISO)在COP29上發布全球ESG原則實施框架

.Pindent{text-indent: 2em;} .Noindent{margin-left: 2em;} .NoPindent{text-indent: 2em; margin-left: 2em;} .No2indent{margin-left: 3em;} .No2Pindent{text-indent: 2em; margin-left: 3em} .No3indent{margin-left: 4em;} .No3Pindent{text-indent: 2em; margin-left: 4em} 在2024年11月11日至22日舉辦第29屆聯合國氣候變化大會(COP29)上,國際標準化組織(ISO)發佈全球第一部ESG國際標準:ISO ESG IWA 48《實施環境、社會和治理(ESG)原則框架》(Framework for implementing environmental, social and governance (ESG) principles)(簡稱為IWA 48:2024),為全球各地區、不同規模的企業提供統一管理標準,同時提供實施指引和行動範例,應對永續發展挑戰。 IWA 48有以下幾大重點: 1. ESG原則和實踐(Principles and practices in ESG):強調誠信、成效、公平、風險與機會、證據、持續改善等原則。 1.1風險與機會:風險跟機會應由高階管理階層從組織整體評估,因風險可能同時伴隨機會;同時,管理層面要運用科學方法及可靠數據紀錄,評估與建立行動方案與追蹤管控。 1.2負責及公開透明:在ESG原則為關鍵要素,清楚揭露經營績效和永續資訊,不僅可增強利害關係人信心,也有助於保護組織商譽。 1.3利害關係人參與:組織應重視內、外部利害關係人的意見,如員工、股東、客戶、供應商等;舉例來說,組織落實資訊公開,並藉由問卷或會議形式,請利害關係人回饋期望或意見。 1.4重大主題:組織評估內外部之營運狀況所可能遭遇挑戰,且考量利害關係人回饋、產業特性,進而辨識各項議題之衝擊程度與關聯性,及排定優先順序來制訂行動方案。 1.5關鍵績效指標(KPI)評估:針對各項重大主題依可靠數據紀錄,進而運用量化或質化手段,設定短期、中期和長期之具體目標。 2. 環境(Environmental):評估組織營運活動與環境變化之相互關係,因此須要根據科學方法建立基準與制訂目標,確保營運過程能有效執行策略。 3. 社會(Social):主要關注組織如何承擔社會責任,推動具有社會價值行為和政策,除遵循當地勞動法令外,可額外提供福利或照顧措施,如組織接納各國人民,公平方式進行面試,培訓應保障不會發生任何歧視情事。 4. 治理(Governance):董事會或管理階層要明確公告組織永續政策與要求,並建立道德規範,如誠信經營,法令遵循、風險管理等,尤其鑑別永續相關風險,如當地法令異動、環境變化,更要與利害關係人保持溝通與合作,進而評估組織政策與執行方向,再依據營運需求調整。 5. 合規性和一致性(Compliance and conformity):組織可採用第三方查(驗)證方式,協助組織評估有無符合當地法令、達到ESG要求標準,及組織對於ESG之承諾。 6. 報告(Reporting):組織可公開揭露永續資訊,如永續報告書或年報等;再者,組織應確保揭露內容之準確、清楚與可靠,並正面及負面資訊均清楚完整揭露,以讓利害關係人了解狀況與趨勢。 7. 持續改善(Continual improvement):透過關鍵績效指標(KPI)檢核,定期確認組織達成永續目標狀況,如有未達預期情事者,應落實根因分析、制訂矯正預防措施,並予以揭露與執行改善,以確保能達到長期目標。

英國女皇批准「2011能源法」,致力推動能源效率政策

  英國2011年10月女皇正式批准(Royal Assent)同年9月經上議院(The House of Lords)所審議通過之「2011能源法(Energy Act 2011)」,其主要規範內容係為規劃擴編英國「綠色新政(Green Deal)」規模,及其投入財務協助之適用領域,並且對於家庭及商業部門之能源效率,訂定強制規範以加強提昇執行績效,共同推動英國達成低碳能源國家之政策目標。   關於推動家庭及商業部門之能源效率部分,「2011能源法」對於「私部門租賃建物(Private rented sector)」部分,特別訂定強制規範,要求自2016年4月起,私有建物擁有者(Private Residential Landlords)將不能拒絕租賃者所提出之「能源效率改善方案(Energy Efficiency Improvements)」,並且政府將提供各項財務金融協助(如綠色新政資金)。   並且,「2011能源法」對於私有建物能源效率等級(Energy Efficiency Standard)之標示,積極賦予法律推動效力,要求自2018年4月起,英國境內私有建物倘若未達能源效率標示等級E以上者,將限制其對外(居住使用及商業使用)出租之權利。   「2011能源法」為協助英國達成2020年國家節能減碳政策目標(減少碳排放20%以上,能源效率改善達20%以上)之重要立法,並且對於加強推動能源效率、擴編綠色新政規模、民間部門強制義務等,制定相關規範並設立推動時程,未來推動上可持續觀察其落實成效。

歐盟提出人工智慧法律調和規則草案

  歐盟執委會(European Commission)於2021年4月21日提出「人工智慧法律調和規則草案」(Proposal for a Regulation Laying Down Harmonised Rules on Artificial Intelligence (Artificial Intelligence Act) and Amending Certain Union Legislative Acts)(簡稱AI規則草案),旨在平衡「AI運用所帶來的優勢」與「AI對個人或社會所帶來的潛在負面衝擊」,促使會員國在發展及運用AI時,能採取協調一致的態度及方法,共同維護歐洲公民基本權利與歐盟價值。   歐盟自2019年起即倡議發展「值得信賴的AI」(Trustworthy AI)。AI規則草案之提出,除了落實執委會2019年至2024年之政策願景外,亦呼應2020年歐洲議會(European Parliament)之建議—針對AI應用之機會與利益採取立法行動,並確保合乎倫理原則。惟鑒於歐盟在環境、健康、公共事務、金融、交通、農業等領域對AI應用之高度需求,以及企業仰賴AI技術提升競爭優勢等因素,執委會係以「風險為基礎」之概念取向(risk-based approach)制定AI規則草案,避免對新技術發展造成不必要的限制或阻礙。   本規則草案將AI系統,依其「對歐盟基本權利或價值所創造的風險程度」,分為下列三種類型,並施以不同程度的監理方式: 一、不可接受之風險:原則上禁止使用此類型AI系統或使其進入歐盟市場。例如:利用潛意識技術操控個人、在公共場合利用「即時遠端生物辨識系統」進行執法、公務機關普遍對個人進行社會評分等。 二、高風險:於附錄中列出所謂高風險AI系統,要求高風險AI系統之提供者遵循風險管理、資料治理、文件紀錄保存、透明性與資訊揭露、人為監督、健全性、準確性與資安等要求;且AI系統進入歐盟市場前,需進行符合性評估(conformity assessment),進入市場後,則需持續監控。 三、非不可接受之風險亦非高風險:鼓勵AI系統提供者或使用者,自願建立行為準則(codes of conduct)。   AI規則草案亦鼓勵會員國建立AI監理沙盒(regulatory sandbox)機制,且以中小企業、新創公司為優先對象,使創新AI系統進入市場之前,能於可控環境中依明確計畫進行開發、測試與驗證。

英國公布合成生物學公眾對話報告,以避免早期爭議的產生

今(2010)年5月,美國克雷格文特爾研究所宣布,成功完成首個由電腦設計之人造基因組控制,並具有自我繁殖功能的合成細胞,研究人員將其取名為辛西亞(Synthia),並發表於科學雜誌,此舉意味生物科技的發展,已經從生命複製階段步入生命創造階段。此次合成細胞的成功,引發先進國家政府方面的對經濟利益、管理及社會法制影響等方面的重視。美國總統歐巴馬便敦促生物倫理委員會對此發展進行密切觀察,評估此研究將之影響、利益和風險。 英國對於合成生物學發展的規範議題也十分關心,該國2009年開啟有關合成生物學的公眾對話(public dialogue),並於今年6月完成並公布報告。獲得的結論如下: 一、肯定合成生物學所帶來的機會: 英國民眾普遍認為合成生物學的應用將會帶來許多重要的機會,可協助解決當前社會所面臨的重大挑戰,例如氣候變遷、能源安全與重大疾病等。 二、關心合成生物學發展的不確定性: 由於合成生物學的發展充滿著不確定性,故當長期的負面影響尚未可知時,有些民眾反而因發展過於快速而覺得到沒有確定感。 三、期待國際規範形成: 英國民眾認為希望能有國際性的合成生物學規範與管理措施,尤其應針對合成生命物質在未受到管制而釋出於環境之生物安全議題,猶應有國際性的管理規範。 四、衡量科研人員動機: 英國民眾擔心,研究者好奇心的驅使,會使合成生物學發展過於快速,故應衡量其研究所帶來的廣泛影響。 五、強調科研人員之責任 負責資助的研究委員會應有清楚角色,促使科學家在此新興科技領域研究中,培養思考科學家責任之能力。 此次對話結果將會納入英國對合成生物學研究補助的法規政策,成為決定補助方式、項目與範圍的重要參考依據。這樣的作法是考量到,希望使合成生物學在健全的管理與法規下持續發展,預先減低過往生物科技發展導致民眾疑慮而致延滯發展的可能性,也更能將政府科研資助有效地投入有利於國家整體發展的領域中。

TOP