新加坡交易所(SGX)正式推出SPAC上市框架

  由新加坡政府基金淡馬錫(Temasek)支持的「特殊目的收購公司」(Special Purpose Acquisition Company, SPAC)「Vertex Technology Acquisition Corp.」已於2022年1月20日在新交所掛牌上市,為首家在新加坡上市之SPAC。後續還有由國際發起人發起的「 Pegasus Asia」已於2022年1月21日上市,以及由新加坡基金 Novo Tellus Capital Partners 設立之「Novo Tellus Alpha Acquisition」於2022年1月27日上市。

  由於美國2020年、2021年已有許多欲上市之公司採用SPAC制度上市,同時在美國紐約證券交易所(NYSE)及那斯達克(Nasdaq)均獲得巨大的成功,因此各國交易所開始摩拳擦掌,紛紛著手修正上市規則允許SPAC制度以吸引優良企業。

  新加坡交易所(SGX)最初於2021年3月底時發布SPAC上市框架諮詢文件,並於同年9月2日公布該諮詢文件之回覆意見及結論,並同時修正主板上市規則,允許SPAC於同年9月3日在新加坡主板上市。

  SGX說明超過80名受訪者(包含金融機構、投資銀行、私募股權和風險投資基金、企業、一般投資人、律師、會計師和其他利益相關者)回覆SPAC上市框架諮詢文件,該回覆率為近年來之最高,可見SPAC制度之熱潮。

  新加坡SPAC上市框架規定SPAC公司須符合以下條件:

  1. SPAC公司須至少擁有1.5億新加坡幣市值;
  2. SPAC公司須於IPO後24個月內完成收購未上市公司,僅於符合特定條件下最多再延長12個月;
  3. SPAC公司收購未上市公司時,需經過50%以上獨立董事同意及50%以上獨立股東同意;
  4. 所有獨立股東均享有異議股東股份收買請求權;
  5. 贊助人需至少認購IPO發行股份/認股權證總額之2.5%-3.5%(具體比例將依據SPAC公司市值判斷)
  6. 於IPO後至SPAC公司收購未上市公司前,禁止贊助人讓售所持有之股份

  後續新加坡SPAC發展及併購值得繼續觀察。

相關連結
你可能會想參加
※ 新加坡交易所(SGX)正式推出SPAC上市框架, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8772&no=57&tp=1 (最後瀏覽日:2026/05/04)
引註此篇文章
你可能還會想看
歐洲食品安全局頒佈利益申報實施細則

  為了有效管理歐洲食品安全局(European Food Safety Authority, EFSA)內部各項活動間之利益管控與監督,EFSA日前於3月5日公布利益申報(Declarations of Interest, DOIs)施行規則(Implementing Rules),並計畫於2012年7月1日正式實施,且同時搭配一個為期4個月的過渡(Transition Period)配套措施方案。該利益申報施行規則,乃為EFSA於今年初所核准之「獨立性與科學決策過程」(Independence and Scientific Decision-Making Processes)政策的基礎規範項目之一。   本次EFSA所頒布之利益申報施行規則,其訂定之理由係因,原任職於EFSA旗下基因工程植物之首席風險評估專家,轉任至一家專門研發及生產該種植物之生物科技公司;為避免並且釐清相關因該事件所衍生之利益衝突問題,乃制定本規範。故此,為具體有效管理EFSA內部人員與其他涉及EFSA各項活動之機構間的利益監督事宜,EFSA遂進一步於今年初開始著手進行相關措施之規劃。目前該利益申報施行規則除了主要針對EFSA旗下之各層級人員訂定各項利益類型之規範準則外,更重要的是,其亦提供其旗下之專業科學研究人員,各項能有效具體確認其利益界線之劃分的保護措施。由於該利益申報施行規則授與EFSA選取與管理利益申報議題若干彈性,因此EFSA能具體且有效的利用相關規範延攬頂尖研究人員,進而協助EFSA提升其內部研發人員之創新研發能力。   政府機關成員之利益申報與迴避問題,乃為全球各國政府需面對之問題,而對於如何有效且彈性的進行相關議題之管控,更是相關政策制訂時需加以考量之點。EFSA之利益申報施行規則不僅有效管理內部人員之利益衝突與申報問題,同時亦藉由彈性的管理規範方式,延攬優秀頂尖人才,達到具體提升研發水準之功效;對此,EFSA之規範方式與運作成效,實值得加以觀察與效仿。

歐盟執委會發布指引以因應《人工智慧法》「禁止的人工智慧行為」條文實施

歐盟執委會於2025年2月4日發布「關於禁止的人工智慧行為指引」(Commission Guidelines on Prohibited Artificial Intelligence Practices)(下稱「指引」)」,以因應歐盟《人工智慧法》(AI Act,下稱AIA)第5條關於「禁止的人工智慧行為」之規定。該規定自2月2日起正式實施,惟其內容僅臚列禁止行為而未深入闡釋其內涵,執委會特別制定本指引以避免產生歧義及混淆。 第5條明文禁止使用人工智慧系統進行有害行為,包括:利用潛意識技術或利用特定個人或群體之弱點進行有害操縱或欺騙行為、實施社會評分機制、進行個人犯罪風險預測、執行無特定目標之臉部影像蒐集、進行情緒識別分析、實施生物特徵分類、以及為執法目的而部署即時遠端生物特徵識別系統等。是以,指引就各禁止事項分別闡述其立法理由、禁止行為之具體內涵、構成要件、以及得以豁免適用之特定情形,並示例說明,具體詮釋條文規定。 此外,根據AIA規定,前述禁令僅適用於已在歐盟境內「投放市場」、「投入使用」或「使用」之人工智慧系統,惟對於「使用」一詞,並未予以明確定義。指引中特別闡明「使用」之定義,將其廣義解釋為涵蓋「系統投放市場或投入使用後,在其生命週期任何時刻的使用或部署。」 指引中亦指出,高風險AI系統的特定使用情境亦可能符合第5條的禁止要件,因而構成禁止行為,反之亦然。因此,AIA第5條宜與第6條關於高風險AI系統的規定交互參照應用。 AIA自通過後,如何進行條文內容解釋以及法律遵循義務成為各界持續討論之議題,本指引可提升AIA規範之明確性,有助於該法之落實。

德國經濟暨能源部召開2016年「中小企業創新核心計畫」年度會議

  德國經濟暨能源部於2016年10月27日召開2016年「中小企業創新核心計畫」年度會議,約有200位專業經理人、企業與學者共同參與討論創新產品未來在市場的趨勢、創新生產流程與技術服務,專家在會中提供許多寶貴意見。聯邦政府中小企業處代表Gleick開幕致詞時表示,中小企業的創新力量決定我們在未來的經濟成就,所以政府需要持續投資在研究與創新以及適當的補助。   經濟暨能源部以「中小企業創新核心計畫」補助中小企業、研究機構共同開發以市場為導向的研究與創新技術,透過共同合作使參與的企業更具有產業競爭優勢,此計畫於2016年提供543百萬歐元補助,日前亦通過2017年548百萬歐元補助預算。   中小企業創新核心計畫(Zentrales Innovationsprogramm Mittelstand ,以下簡稱ZIM)是一項覆蓋全國範圍、不限制技術領域和行業的補助計畫,補助對象除中小企業外,還包括與之合作的研究機構。ZIM計畫中補助的中小企業為員工人數不超過499人,同時年營業額低於5000萬歐元或資產負債表總額低於4300萬歐元的企業。該計畫整合過往其他許多補助計畫,德國聯邦經濟與能源部於2015年4月公佈了最新的ZIM計畫實施方針,擴大受補助中小企業的範圍,且提高資助資金的數額,將對企業補助的最高數額從35萬提高到38萬,對研究機構補助的最高數額從17.5萬提高到19萬歐元,以持續提升德國中小企業的創新能力與競爭力;企業與合作研究機構可以在補助的架構下針對先進技術研發獲得資金,研發主題不限,重點在於創新內容與市場價值。

全美各州醫療委員會聯合會發布人工智慧(AI)治理指引,並要求醫師為AI之利用結果負最終責任

全美各州醫療委員會聯合會(The Federation of State Medical Boards, FSMB)於2024年4月發布「引導人工智慧以負責任與符合倫理方式融入臨床實務」(Navigating the Responsible and Ethical Incorporation of Artificial Intelligence into Clinical Practice)指引,明確概述醫師於利用AI協助提供照護時可採取之步驟,以履行其倫理與專業職責,期能藉此降低對患者造成傷害之風險;本指引之特色在於,其要求醫師為AI之利用結果負最終之責任。 FSMB 向各州醫療委員會與其他利害關係人所提供之原則與建議如下,以支持對包含AI之臨床照護進行負責任與符合倫理之監管: (1)透明度與揭露(Transparency and Disclosure): 應要求維持於醫療照護領域使用AI之透明度;各州醫療委員會應制定明確之指導方針,向患者揭露AI之使用情況,其有助於患者與醫師之理解,但不會造成不必要之行政負擔;FSMB 應制定文件,詳細說明最常用之AI工具之功能與局限性,以協助醫療委員會發揮監管者之角色,並應制定常見問題與最佳實務文件,作為提供照護時利用AI方面關於透明度之資源。 (2)教育與理解(Education and Understanding): FSMB及其於醫學教育界之合作夥伴,應為醫師、醫療委員會與患者,確認有關醫療照護中AI之結構化教育資源,該等資源應包括協助瞭解AI如何運作、其優點、潛在風險以及對患者照護之影響。 (3)負責任之使用與問責(Responsible Use and Accountability): 開發人員應協助醫師瞭解何時、以及如何於患者之照護中利用AI工具;選擇AI工具支援臨床決策之醫院系統、保險公司或其他機構應向醫師提供有關AI工具之教育、存取各工具之性能報告,並應設計一個定期檢視工具功效的流程;AI工具應以得使各州醫療委員會能稽核與理解之方式設計,以便適當評估依賴工具輸出結果之醫師是否偏離照護標準(standard of care);FSMB 應支持各州醫療委員會針對臨床醫師如何負責任、可問責地使用AI之解釋。 (4)公平性與近用(Equity and Access): 應努力確保所有患者皆能公平地近用AI帶來之好處;FSMB與各州醫療委員會致力於以下原則:醫療人員所提供之照護是公平的、且不受基於種族、民族或其他形式歧視之偏見影響;FSMB應與其他利害關係人一起理解並解決演算法偏差問題。 (5)隱私與資料安全(Privacy and Data Security): AI工具之開發者必須實施嚴格之保護措施,以保護AI開發與評估時所利用之患者資料,通常情況下應告知患者資料如何被利用,且FSMB應與行業利害相關人一起制定AI系統使用與散布患者資料之政策,包括針對AI開發或評估中使用之患者資料之最低資料保護措施。 (6)監督與監管(Oversight and Regulation): 各州醫療委員會必須保留對於提供醫療服務時,不當應用AI工具之醫生進行紀律處分之權力,其包括問責議題之考慮,特別是當AI系統變得更加自主時;各州醫療委員會應審查其管轄範圍內如何對「醫療行為」(practice of medicine)進行法律定義,以確保對提供醫療照護、人力或其他方面進行持續之監管監督。 (7)法律法規之持續審查與調整(Continual Review and Adaptation of Law and Regulations): 各州醫療委員會應在FSMB之支持下,隨著AI之不斷發展,持續檢視與更新與AI相關之指引與法規;政策制定者應考慮AI對基本法律原則的影響,例如醫療行為之定義以及AI對企業醫學實務之影響;FSMB 應建立一個專門團隊,持續檢視與調整AI指引與法規。 本指引指出,AI工具通常無能力取代醫師之專業判斷、道德責任或對州醫療委員會之責任,醫療行為中之關鍵職業責任始終為確保診斷、臨床決策與建議不存在偏差。與用於診斷或治療疾病之任何其他工具或鑑別方法相同,醫療專業人員有責任確保基於證據結論之準確性與真實性,因此於將AI系統用於患者照護前,醫師應以合理努力識別與解決偏差(如虛假或不準確之資訊等)。

TOP