英國與美國為人工智慧安全共同開發簽署合作備忘錄

英國技術大臣(U.K. Secretary of State for Science)蜜雪兒·多尼蘭(Michelle Donelan)和美國商務部長(U.S. Secretary of Commerce)吉娜·雷蒙多(Gina Raimondo)於2024年4月1日在華盛頓特區簽署一份合作備忘錄(MOU),雙方將共同開發先進人工智慧(frontier AI)模型及測試,成為首批就測試和評估人工智慧模型風險等進行正式合作之國家。

此備忘錄之簽署,是為履行2023年11月在英國的布萊切利公園(Bletchley Park)所舉行的首屆人工智慧安全峰會(AI Safety Summit)上之承諾,諸如先進AI的急速進步及濫用風險、開發者應負責任地測試和評估應採取之適當措施、重視國際合作和資訊共享之必要性等等,以此為基礎羅列出兩國政府將如何在人工智慧安全方面匯集技術知識、資訊和人才,並開展以下幾項聯合活動:

1.制定模型評估的共用框架(model evaluations),包括基礎方法(underpinning methodologies)、基礎設施(infrastructures)和流程(processes)。

2.對可公開近用模型執行至少一次聯合測試演習(joint testing exercise)。

3.在人工智慧安全技術研究方面進行合作,以推進先進人工智慧模型之國際科學知識,並促進人工智慧安全和技術政策的一致性。

4.讓英、美兩國安全研究所(AI Safety Institute)間的人員互相交流利用其團體知識。

5.在其活動範圍內,依據國家法律、法規和契約規定來相互共享資訊。

換言之,兩國的機構將共同制定人工智慧安全測試之國際標準,以及適用於先進人工智慧模型設計、開發、部署、使用之其他標準。確立一套通用人工智慧安全測試方法,並向其他合作夥伴分享該能力,以確保能夠有效應對這些風險。就如英國技術大臣蜜雪兒·多尼蘭強調的,確保人工智慧的安全發展是全球性問題,只有通過共同努力,我們才能面對技術所帶來的風險,並利用這項技術幫助人類過上更好的生活。

相關連結
你可能會想參加
※ 英國與美國為人工智慧安全共同開發簽署合作備忘錄, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=9207&no=55&tp=1 (最後瀏覽日:2025/12/11)
引註此篇文章
你可能還會想看
美國司法部稱Google的隱私權考慮是藉口

  美國司法部曾在2006年1月要求Google公司交出100萬張網頁資料,並提供一週內用戶搜尋關鍵字的紀錄,以協助布希政府舉證說明現行網頁過濾技術的漏洞,為捍衛兒童線上保護法(1998 Child Online Protection Act)提供辯護。但Google公司於2月17日,以大型企業商業機密外洩和用戶隱私權遭到侵犯為由,向加州法院提出措辭強硬的法律摘要報告,並拒絕美國司法部的要求。   針對Google所提出的摘要報告,美國司法部於2月24日提出回應。美國司法部公開表示,Google公司所宣稱:「提供用戶搜尋資訊將侵犯用戶的隱私權」,只不過是一個藉口。司法部進一步指出,美國線上、雅虎以及微軟等其他搜尋引擎業者都已按照要求提供了搜尋資訊。最後,司法部表示,政府為案件所需,擁有向一切機構徵求資訊的正當權利,因此Google公司仍必須將要求的資料提出。

何謂「創新採購」?

  歐盟為推動歐洲單一市場,在2014年2月26日通過三項新的政府採購指令,包括「一般政府採購指令」、「公用事業政府採購指令」、「特許採購指令」,其修正宗旨主要在於從下列四個改革方向改善採購招標程序: 1.簡化及採用彈性的政府採購程序 2.擴大適用電子招標; 3.改善中小企業參與招標程序; 4.於採購招標程序中納入策略性目的之考量,以實現「歐洲2020策略(European Strategy 2020)」之創新目標。   因此一般政府採購指令第26條明訂,要求會員國應提供除原有之公開招標(open procedure,政府採購指令第27條)、限制性招標(restricted procedure,政府採購指令第28條)程序外,應另外提供創新夥伴(innovation partnerships,政府採購指令第29條)、競爭談判(competitive procedure with negotiation,政府採購指令第30條)及競爭對話(competitive dialogue,政府採購指令第31條)三種程序。   其中最重要者,在於將政府採購視為其達成創新政策之政策工具,在招標程序中推動所謂的創新採購(Public Procurement for Innovation, PPI)及商業化前採購(Pre-commercial procurement, PCP)。   前者係指創新解決方案幾乎或已經少量上市,不需要再投入資源進行新的研發(R&D)工作。而後者則針對所需要改善的技術需求,還沒有接近上巿的解決方案,需要再投入資源進行新的研發。採用競爭方法及去風險,經由一步一步的方案設計、原型設計、開發及首次產品測試來比較各替代方案的優缺點。

美國紐約東區聯邦地區法院裁定加密貨幣屬商品交易法中的大宗商品

  美國商品期貨交易委員會(Commodity Futures Trading Commission ,CFTC) 在2015年09月宣布將比特幣等加密貨幣歸類為美國商品交易法(Commodity Exchange Act ,CEA)中的大宗商品(commodity),與黃金、原油或小麥的歸類一樣,受到委員會的監管,範圍包含在衍生商品契約(derivatives contract)中使用比特幣,或在州際貿易中使用比特幣為詐欺或人為操作(manipulation),自此CFTC開始追查從事加密貨幣衍生商品交易行為,卻沒有註冊的公司。   2018年01月時CFTC起訴Coin Drop Markets公司和其執行長Patrick K. Mcdonnell利用經營加密貨幣期權投資顧問公司,向投資人行銷若接受其投資建議將可獲得200%以上的報酬,卻從未於收取顧客諮詢費後提供任何諮詢服務,並接著關閉公司網站與社群媒體,該公司亦未向CFTC申請註冊,違反美國商品交易法。   對此美國紐約東區聯邦地區法院(Eastern District of New York)的法官Jack Weinstein於2018年03月06日裁定,認定加密貨幣屬市場交易時能保有一致的品質與價值的貨品(goods),具有價值保存(store of value)、金融交易(monetary exchange)的特質,且價格跟大宗商品一樣隨著人們的需求而有起伏變動,符合商品交易法對「商品」包含有形與無形的貨品、服務、權力與利益等的廣泛定義。   由於加密貨幣屬於商品交易法的適用對象,CFTC可對涉及衍生商品市場與現貨市場(Spot Market)的詐欺或操縱行為進行監管。基於以上理由,法院同意CFTC對Coin Drop Markets公司和執行長Patrick K. Mcdonnell的預防性禁制令(preliminary injunction)請求,禁止其繼續參與大宗商品交易。

世界經濟論壇發布《人工智慧公平性和包容性藍圖》白皮書

  世界經濟論壇(World Economic Forum, WEF)於2022年6月29日發布《人工智慧公平性和包容性藍圖》白皮書(A Blueprint for Equity and Inclusion in Artificial Intelligence),說明在AI開發生命週期和治理生態系統中,應該如何改善公平性和強化包容性。根據全球未來人類AI理事會(Global Future Council on Artificial Intelligence for Humanity)指出,目前AI生命週期應分為兩個部分,一是管理AI使用,二是設計、開發、部署AI以滿足利益相關者需求。   包容性AI不僅是考量技術發展中之公平性與包容性,而是需整體考量並建立包容的AI生態系統,包括(1)包容性AI基礎設施(例如運算能力、資料儲存、網路),鼓勵更多技術或非技術的人員有能力參與到AI相關工作中;(2)建立AI素養、教育及意識,例如從小開始開啟AI相關課程,讓孩子從小即可以從父母的工作、家庭、學校,甚至玩具中學習AI系統對資料和隱私的影響並進行思考,盡可能讓使其互動的人都了解AI之基礎知識,並能夠認識其可能帶來的風險與機會;(3)公平的工作環境,未來各行各業需要越來越多多元化人才,企業需拓寬與AI相關之職位,例如讓非傳統背景人員接受交叉培訓、公私協力建立夥伴關係、提高員工職場歸屬感。   在設計包容性方面,必須考慮不同利益相關者之需求,並從設計者、開發者、監督機關等不同角度觀察。本報告將包容性AI開發及治理整個生命週期分為6個不同階段,期望在生命週期中的每個階段皆考量公平性與包容性: 1.了解問題並確定AI解決方案:釐清為何需要部署AI,並設定希望改善的目標變量(target variable),並透過制定包容性社會參與框架或行為準則,盡可能實現包容性社會參與(特別是代表性不足或受保護的族群)。 2.包容性模型設計:設計時需考慮社會和受影響的利益相關者,並多方考量各種設計決策及運用在不同情況時之公平性、健全性、全面性、可解釋性、準確性及透明度等。 3.包容性資料蒐集:透過設計健全的治理及隱私,確定更具包容性的資料蒐集路徑,以確保所建立之模型能適用到整體社會。 4.公平和包容的模型開發及測試:除多元化開發團隊及資料代表性,組織也應引進不同利益相關者進行迭代開發與測試,並招募測試組進行測試與部署,以確保測試人群能夠代表整體人類。且模型可能隨著時間發展而有變化,需以多元化指標評估與調整。 5.公平地部署受信任的AI系統,並監控社會影響:部署AI系統後仍應持續監控,並持續評估可能出現新的利益相關者或使用者,以降低因環境變化而可能產生的危害。 6.不斷循環發展的生命週期:不應以傳統重複循環過程看待AI生命週期,而是以流動、展開及演變的態度,隨時評估及調整,以因應新的挑戰及需求,透過定期紀錄及審查,隨時重塑包容性AI生態系統。   綜上,本報告以包容性AI生態系統及生命週期概念,期望透過基礎設施、教育與培訓、公平的工作環境等,以因應未來無所不在的AI社會與生活,建立公司、政府、教育機構可以遵循的方向。

TOP