英國與美國為人工智慧安全共同開發簽署合作備忘錄

英國技術大臣(U.K. Secretary of State for Science)蜜雪兒·多尼蘭(Michelle Donelan)和美國商務部長(U.S. Secretary of Commerce)吉娜·雷蒙多(Gina Raimondo)於2024年4月1日在華盛頓特區簽署一份合作備忘錄(MOU),雙方將共同開發先進人工智慧(frontier AI)模型及測試,成為首批就測試和評估人工智慧模型風險等進行正式合作之國家。

此備忘錄之簽署,是為履行2023年11月在英國的布萊切利公園(Bletchley Park)所舉行的首屆人工智慧安全峰會(AI Safety Summit)上之承諾,諸如先進AI的急速進步及濫用風險、開發者應負責任地測試和評估應採取之適當措施、重視國際合作和資訊共享之必要性等等,以此為基礎羅列出兩國政府將如何在人工智慧安全方面匯集技術知識、資訊和人才,並開展以下幾項聯合活動:

1.制定模型評估的共用框架(model evaluations),包括基礎方法(underpinning methodologies)、基礎設施(infrastructures)和流程(processes)。

2.對可公開近用模型執行至少一次聯合測試演習(joint testing exercise)。

3.在人工智慧安全技術研究方面進行合作,以推進先進人工智慧模型之國際科學知識,並促進人工智慧安全和技術政策的一致性。

4.讓英、美兩國安全研究所(AI Safety Institute)間的人員互相交流利用其團體知識。

5.在其活動範圍內,依據國家法律、法規和契約規定來相互共享資訊。

換言之,兩國的機構將共同制定人工智慧安全測試之國際標準,以及適用於先進人工智慧模型設計、開發、部署、使用之其他標準。確立一套通用人工智慧安全測試方法,並向其他合作夥伴分享該能力,以確保能夠有效應對這些風險。就如英國技術大臣蜜雪兒·多尼蘭強調的,確保人工智慧的安全發展是全球性問題,只有通過共同努力,我們才能面對技術所帶來的風險,並利用這項技術幫助人類過上更好的生活。

相關連結
你可能會想參加
※ 英國與美國為人工智慧安全共同開發簽署合作備忘錄, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=9207&no=64&tp=1 (最後瀏覽日:2026/01/27)
引註此篇文章
你可能還會想看
歐盟將投入五千萬歐元投入5G研究

  行動寬頻使用人數已達1.2億,且估計每年將成長數億人口,許多研究估計2020年行動流量將比現在增加33倍。為了奪回全球手機領導者地位,歐盟不僅從2007年開始,投入超過三千五百萬歐元發展4G與4G以上的無線技術,歐盟執行委員會副主席Neelie Kroes於今年更宣佈將投入五千萬歐元研究5G通信(2013年~2020年)。   在現有的第七框架研究與發展計畫(Seventh Framework Programmefor research and development )中,歐盟已有8項關於5G的研究計畫。其中,以易利信(Ericsson)所主導的METIS(Mobile and wireless communications Enablers for Twenty-twenty Information Society),備受各界矚目。METIS的研究團隊來自共10個國家,涵蓋領域包括電信營運商、製造商、學術機構與商用軟體業者。METIS將進行網路拓樸(Network Topologies)、無線連結(Radio Links)與頻譜使用研究、以為歐洲建立一個5G的行動與無線通信系統。   目前,METIS對於未來整體目標是希望達到:   1.行動寬頻流量每單位面積能比現在高出1000倍,使網路營運商能同時服務更多消費者。   2.聯網設備比現在多出10倍至100倍。   3.行動寬頻使用速度將比現在高出10倍至100倍,觀看視頻將更為容易。   4.機器對機器通訊(Machine-to-Machine-Communications)的電池使用時間將多出10倍。   5.網路延遲的時間將會降低5倍。   雖然,5G發展僅為初期,而各歐盟會員也僅英國投入三千五百萬英鎊,但是,部分輿論從英國4G不斷延遲的例子,認為現在發展至少降低5G重蹈覆轍的可能性。

開放科學(open science)

  開放科學的基本理念,泛指在數位時代的背景下,各類型實驗測量機器獲得大量數據,以及網路行為累積的人類活動記錄,使各領域的研究活動趨向側重資料處理,結合分析工具後,以可閱讀的形式呈現並發表。   開放科學概念應用於行政與制度建立上,主要有兩個面向,其一為政府資助產出科學期刊論文等研究成果的開放取用(open access),意圖解決期刊雜誌訂閱費用過高,導致研究成果流通困難的問題,屬於早期開放科學關注的重點;其二則係使用官方研究資金進行研發時,於研究過程中取得的實驗、觀測及調查之研究資料開放運用,為近期政策與制度性倡議所聚焦,目的為使科學界、產業界以及一般社會大眾得以廣為接收並利用該些研究結果,令政府資金運用的一切成果均能充分回饋給國民與社會,期望藉由研究資料的公開,進一步深化該領域的研究進程、推展跨域研究或企業的產品與服務開發、以及創新活動。   舉例而言,日本內閣府於2018年提出的「統合創新戰略(統合イノベーション戦略)」第二章內,建構了國內開放科學下研究資料管理開放政策之基礎框架,關注伺服器空間內的研究資料保存與管理,與外國研究資料連動以建構巨量知識泉源,讓所有人得以廣泛活用該些研究資料,促成與加速跨領域與跨國境的新創。

為促進健康資通訊科技之創新,美國嘗試立法重新定義健康軟體

  美國參議院認為健康資通訊科技(Healthy Information Technology)的創新與快速發展已經漸使現行法制不合時宜,美國食品藥物管理局(The US Food and Drug Administration)過度嚴格管制健康資通訊科技產品,甚至以法律強加健康資通訊業者不必要的負擔,恐抹殺新產業的創新能量,因此有必要對相關管制法規予以鬆綁。遂立法提案重新定義健康相關軟體,稱為「防止過度規範以促進照護科技法案」(The Prevent Regulatory Overreach To Enhance Care Technology Act of 2014,以下簡稱PROTECT Act)。   健康資通訊科技是目前創新與發展最快的美國產業。單以健康資通訊科技產業中,與健康相關的手機應用程式(application,APP)之開發,在全球經濟已創造數億美金的產值,在美國一地更提供了將近50萬份的工作機會。然而,在現行法制中食品藥物管理局認為健康相關的手機應用程式等軟體被廣泛應用於醫療行為的資訊蒐集,因此應當被視為醫療行為的一環。依據聯邦食品藥物及化妝品法(TheFederal Food, Drug and Cosmetic Act,FD&C Act)之規定,健康資通訊科技產品被界定為醫療器材(Medical Devices),而健康管理APP、行事曆APP、健康紀錄電子軟體等低風險產品亦包含在內,都必須嚴格遵守醫療器材相關行政管制。在PROTECT Act中將風險較低的健康資通訊科技產品重新定義為臨床軟體(Clinic Software)與健康軟體(Healthy Software)兩種態樣,其共通點在於明白區分出單純提供市場使用,不影響人體或動物醫療的健康資訊蒐集與直接提供實際臨床診斷,如放射線影像或醫療器材軟件的差異,PROTECT Act所定義之臨床軟體與健康軟體即屬於前者,故排除適用FD&C Act中醫療器材之定義範圍,得免除相關行政管制。

美國國家標準與技術研究院公布人工智慧風險管理框架(AI RMF 1.0)

美國國家標準與技術研究院(National Institute of Standards and Technology, NIST)於2023年1月26日公布「人工智慧風險管理框架1.0」(Artificial Intelligence Risk Management Framework, AI RMF 1.0),該自願性框架提供相關資源,以協助組織與個人管理人工智慧風險,並促進可信賴的人工智慧(Trustworthy AI)之設計、開發與使用。NIST曾於2021年7月29日提出「人工智慧風險管理框架」草案進行公眾徵詢,獲得業界之建議包含框架應有明確之衡量方法以及數值指標、人工智慧系統設計時應先思考整體系統之假設於真實世界中運作時,是否會產生公平性或誤差的問題等。本框架將隨著各界使用後的意見回饋持續更新,期待各產業發展出適合自己的使用方式。 本框架首先說明人工智慧技術的風險與其他科技的差異,定義人工智慧與可信賴的人工智慧,並指出設計該自願性框架的目的。再來,其分析人工智慧風險管理的困難,並用人工智慧的生命週期定義出風險管理相關人員(AI actors)。本框架提供七種評估人工智慧系統之信賴度的特徵,包含有效且可靠(valid and reliable):有客觀證據證明人工智慧系統的有效性與系統穩定度;安全性(safe):包含生命、健康、財產、環境安全,且應依照安全風險種類決定管理上的優先次序;資安與韌性(secure and resilient);可歸責與資訊透明度(accountable and transparent);可解釋性與可詮譯性(explainable and interpretable);隱私保護(privacy-enhanced);公平性—有害偏見管理(fair – with harmful bias managed)。 本框架亦提出人工智慧風險管理框架核心(AI RMF Core)概念,包含四項主要功能:治理、映射(mapping)、量測與管理。其中,治理功能為一切的基礎,負責孕育風險管理文化。各項功能皆有具體項目與子項目,並對應特定行動和結果產出。NIST同時公布「人工智慧風險管理框架教戰手冊」(AI RMF Playbook),提供實際做法之建議,並鼓勵業界分享其具體成果供他人參考。

TOP