美國歐盟貿易和技術委員會(Trade and Technology Council,簡稱TTC)第四次部長級會議於2023年5月31日發布聯合聲明。TTC繼續作為美國和歐盟對俄羅斯在烏克蘭戰爭中協調及有效反應的平台,處理包括與制裁相關的出口限制、打擊外國資訊操縱和干擾,以及破壞人權並威脅到當事國及第三國民主制度的運作和社會福祉等議題。 本次TTC聯合聲明之五大議題重點介紹如下: (1)強化跨大西洋新興技術合作以實現美歐共同領導:包括監控與衡量現有和新出現的人工智慧風險;發展智慧電網下智慧移動標準及互通性(Interoperability);提升半導體供應鏈的合作,包括鼓勵研發、資訊共享;建立工作小組共同處理量子技術問題。 (2)促進貿易及投資的永續性與新機會:乾淨能源補助;避免關鍵礦物供應受地緣政治影響;藉由數位工具提升貿易便捷的合作;相互承認醫藥品製造實務作法等。 (3)貿易、安全和經濟繁榮:出口管制與制裁相關出口限制的合作;交換對於與國安風險有關的特定敏感技術及關鍵設施投資審查的看法;重視對外投資管制,以保護敏感技術不流於對國際和平與安全有疑慮的用途;討論非市場政策與實務、及經濟脅迫(Coercion)的威脅與挑戰。 (4)連結性(Connectivity)和數位基礎設施:加速合作發展6G無線通訊系統;國際連通性與海底電纜計畫。 (5)在不斷變化的地緣政治數位環境中捍衛人權和價值觀:建構具透明性與可問責之線上平台;處理在第三國進行外國資料操縱與干預議題。 TTC將透過各工作小組,持續關注、研究上述議題的發展,並預計於2023年底於美國再次召開會議,檢視合作的成果。
英國建立幹細胞研究網絡英國財政大臣十六日在倫敦宣佈,政府將在其10年發展計劃中建立一個全國性的幹細胞研究網路,以鞏固英國在該領域的領先地位。 英國工黨政府一直對幹細胞研究提供支持,並且率先立法,允許治療性人類胚胎幹細胞研究。但是治療性胚胎幹細胞研究一直遭到人權組織的反對,使幹細胞研究機構在資金籌措方面陷入困境。為此,英國政府作出建立幹細胞研究網路的決定,無疑是為了加強英國在國際幹細胞研究領域的領先地位。 布朗當天在下議院宣佈二○○五年財政年度預算計劃時說,英國政府從二○○二年起的三年內向幹細胞研究撥款四千萬英鎊,另外,英國醫學慈善機構韋爾科姆信託公司承諾向幹細胞研究網路投資二千萬英鎊。
大阪框架(Osaka Track)2019年6月28日於日本大阪舉行的G20高峰會上,大阪框架(大阪トラック、Osaka Track)再次躍上國際檯面,日本首相安倍晉三在G20高峰會的數位經濟議程當中,倡議建立大阪框架作為資料跨境流通之標準。安倍強調數位化對促進各國經濟發展與創新意義重大,而在數位時代下資料作為重要的成長動力來源,為了能最大化資料運用的可能性與發展潛力,建立一套國際通用的資料流通機制顯然已勢在必行。 「大阪框架」概念的首次提出,源自2019年1月23日安倍首相於瑞士達沃斯所舉辦的世界經濟論壇(World Economic Forum)中所發表的演講,強調資料將是21世紀經濟發展的關鍵資源,透過建立一套國際通用的資料自由流通機制,將有助於確保在數位時代下各種新興科技的創新與發展,不會受到各國管制措施及資料在地化(data localization)政策所阻礙。 「大阪框架」的核心為建立「可資信任的資料自由流通機制」(Data Free Flow with Trust,簡稱DFFT),透過建構國際所共同信任的資料跨境流通機制,將有助於推動包含電子商務在內等各式資料之流通與利用,進而促進數位創新;安倍宣示2019年大阪G20高峰會為大阪框架的起始點,並強調基於此前提出之WTO電子商務共同聲明,期許能透過WTO各會員國的合作,實現建立國際通用的資料跨境流通機制之目標。
經濟合作與發展組織發布《促進AI可歸責性:在生命週期中治理與管理風險以實現可信賴的AI》經濟合作與發展組織(Organisation for Economic Co-operation and Development, OECD)於2023年2月23日發布《促進AI可歸責性:在生命週期中治理與管理風險以實現可信賴的AI》(Advancing accountability in AI: Governing and managing risks throughout the lifecycle for trustworthy AI)。本報告整合ISO 31000:2018風險管理框架(risk-management framework)、美國國家標準暨技術研究院(National Institute of Standards and Technology, NIST)人工智慧風險管理框架(Artificial Intelligence Risk Management Framework, AI RMF)與OECD負責任商業行為之盡職調查指南(OECD Due Diligence Guidance for Responsible Business Conduct)等文件,將AI風險管理分為「界定、評估、處理、治理」四個階段: 1.界定:範圍、背景、參與者和風險準則(Define: Scope, context, actors and criteria)。AI風險會因不同使用情境及環境而有差異,第一步應先界定AI系統生命週期中每個階段涉及之範圍、參與者與利害關係人,並就各角色適用適當的風險評估準則。 2.評估:識別並量測AI風險(Assess: Identify and measure AI risks)。透過識別與分析個人、整體及社會層面的問題,評估潛在風險與發生程度,並根據各項基本價值原則及評估標準進行風險量測。 3.處理:預防、減輕或停止AI風險(Treat: Prevent, mitigate, or cease AI risks)。風險處理考慮每個潛在風險的影響,並大致分為與流程相關(Process-related)及技術(Technical)之兩大處理策略。前者要求AI參與者建立系統設計開發之相關管理程序,後者則與系統技術規格相關,處理此類風險可能需重新訓練或重新評估AI模型。 4.治理:監控、紀錄、溝通、諮詢與融入(Govern: Monitor, document, communicate, consult and embed)。透過在組織中導入培養風險管理的文化,並持續監控、審查管理流程、溝通與諮詢,以及保存相關紀錄,以進行治理。治理之重要性在於能為AI風險管理流程進行外在監督,並能夠更廣泛地在不同類型的組織中建立相應機制。