由新加坡政府基金淡馬錫(Temasek)支持的「特殊目的收購公司」(Special Purpose Acquisition Company, SPAC)「Vertex Technology Acquisition Corp.」已於2022年1月20日在新交所掛牌上市,為首家在新加坡上市之SPAC。後續還有由國際發起人發起的「 Pegasus Asia」已於2022年1月21日上市,以及由新加坡基金 Novo Tellus Capital Partners 設立之「Novo Tellus Alpha Acquisition」於2022年1月27日上市。 由於美國2020年、2021年已有許多欲上市之公司採用SPAC制度上市,同時在美國紐約證券交易所(NYSE)及那斯達克(Nasdaq)均獲得巨大的成功,因此各國交易所開始摩拳擦掌,紛紛著手修正上市規則允許SPAC制度以吸引優良企業。 新加坡交易所(SGX)最初於2021年3月底時發布SPAC上市框架諮詢文件,並於同年9月2日公布該諮詢文件之回覆意見及結論,並同時修正主板上市規則,允許SPAC於同年9月3日在新加坡主板上市。 SGX說明超過80名受訪者(包含金融機構、投資銀行、私募股權和風險投資基金、企業、一般投資人、律師、會計師和其他利益相關者)回覆SPAC上市框架諮詢文件,該回覆率為近年來之最高,可見SPAC制度之熱潮。 新加坡SPAC上市框架規定SPAC公司須符合以下條件: SPAC公司須至少擁有1.5億新加坡幣市值; SPAC公司須於IPO後24個月內完成收購未上市公司,僅於符合特定條件下最多再延長12個月; SPAC公司收購未上市公司時,需經過50%以上獨立董事同意及50%以上獨立股東同意; 所有獨立股東均享有異議股東股份收買請求權; 贊助人需至少認購IPO發行股份/認股權證總額之2.5%-3.5%(具體比例將依據SPAC公司市值判斷) 於IPO後至SPAC公司收購未上市公司前,禁止贊助人讓售所持有之股份 後續新加坡SPAC發展及併購值得繼續觀察。
英國發布《太陽光電發展路徑》政策報告,推動屋頂光電革命加速能源轉型英國工黨政府為解決當前民生、產業用電,過於仰賴化石燃料價格波動的社會課題,於2025年6月30日發布《太陽光電發展路徑:太陽能如何驅動英國》(Solar roadmap: United Kingdom powered by solar),透過62項具體的政策行動,減輕用電負擔,可視為歐盟《可負擔行動計畫》(Action Plan for Affordable Energy)的英國光電版本。 為實現2024年年末發布的《2030潔淨電力行動計畫》(Clean Power 2030 Action Plan)的政策目標,即2030年從目前裝置容量18GW,提升到45至47GW,該報告宣示將啟動「屋頂光電革命」(Rooftop Revolution),克服長久以來阻礙商業、住宅與公共建築物屋頂布建的障礙,政策方向擬定如下: 1. 發展「大英能源公司」(Great British Energy)的潛力,如目前已推動英格蘭約200所學校、醫院等安裝屋頂太陽能,降低電費支出。 2. 預計將修訂新建、既有住宅的《溫暖住宅計畫》(Warm Homes Plan)與《未來住宅與建築標準》(Future Homes and Buildings Standards),如規範新建築物裝設太陽光電的義務。 3. 針對大型戶外停車場建置太陽能車棚,進行意見徵詢。 4. 簡化利害關係人協作流程,如研擬工業、商業類型建築物出租屋頂安裝太陽能的標準合約範本。 英國政府除積極推動屋頂光電外,亦針對電力網路、供應鏈、培養人才、國土計畫、社區參與等,規劃一系列太陽光電發展路徑中的配套措施,如改善英國國家能源系統營運商(National Energy System Operator, NESO)併網流程,要求應確保併網申請順序的分配保持公平;並於《大英能源法》(Great British Energy Act 2025)規範大英能源公司於採購時,得拒絕與任何供應鏈中涉及強迫勞動的廠商簽約等;並與英國太陽能產業協會(Solar Energy UK)協作,促成產業實踐社區參與溝通。
RFID應用發展與相關法制座談會紀實 英國發布人工智慧網路資安實務守則英國政府於2025年1月31日發布「人工智慧網路資安實務守則」(Code of Practice for the Cyber Security of AI,以下簡稱「實務守則」),目的是提供人工智慧(AI)系統的網路資安指引。該實務守則為英國參考國際上主要標準、規範後所訂定之自願性指引,以期降低人工智慧所面臨的網路資安風險,並促使人工智慧系統開發者與供應商落實基本的資安措施,以確保人工智慧系統的安性和可靠性。 由於人工智慧系統在功能與運作模式上與傳統網路架構及軟體有明顯的不同,因此產生新的資安風險,主要包含以下: 1. 資料投毒(Data Poisoning):在AI系統的訓練資料中蓄意加入有害或錯誤的資料,影響模型訓練結果,導致人工智慧系統產出錯誤推論或決策。 2. 模型混淆(Model Obfuscation):攻擊者有意識地隱藏或掩飾AI模型的內部運作特徵與行為,以增加系統漏洞、引發混亂或防礙資安管理,可能導致AI系統的安全性與穩定性受損。 3. 輸入間接指令(Indirect Prompt Injection):藉由輸入經精心設計的指令,使人工智慧系統的產出未預期、錯誤或是有害的結果。 為了提升實務守則可操作性,實務守則涵蓋了人工智慧生命週期的各階段,並針對相關角色提出指導。角色界定如下: 1. 人工智慧系統開發者(Developers):負責設計和建立人工智慧系統的個人或組織。 2. 人工智慧系統供應鏈(Supply chain):涵蓋人工智慧系統開發、部署、營運過程中的的所有相關個人和組織。 實務守則希望上述角色能夠參考以下資安原則,以確保人工智慧系統的安全性與可靠性: 1. 風險評估(Risk Assessment):識別、分析和減輕人工智慧系統安全性或功能的潛在威脅的過程。 2. 資料管理(Data management):確保AI系統整個資料生命週期中的資料安全及有效利用,並採取完善管理措施。 3. 模型安全(Model Security):在模型訓練、部署和使用階段,均應符合當時的技術安全標準。 4. 供應鏈安全(Supply chain security):確保AI系統供應鏈中所有利益相關方落實適當的安全措施。 「人工智慧網路資安實務守則」藉由清晰且全面的指導方針,期望各角色能有效落實AI系統安全管控,促進人工智慧技術在網路環境中的安全性與穩健發展。