韓國提出一系列新創支援措施,以躋身全球四大新創強國為目標

  韓國中小企業暨新創事業部(Ministry of SMEs and Startups)於2021年8月30日發布「使韓國躋身全球四大新創強國之新創支持措施」(Venture Complementary Measures for Korea to Become One of the Top 4 Global Venture Powerhouses)。韓國總統文在寅指出,第二波創業爆發期為立基於西元2000年的第一波創業爆發期之上,如今韓國企業數量較當時已增加四倍,創投投資額更突破4兆韓元,顯示韓國新創的蓬勃發展潛力。為了能在政策面有效支持韓國新創能在第二波創業爆發期(Second Venture Boom)獲得所需的人才與資金,韓國中小企業暨新創事業部規劃三大面向、十二項任務作為推動韓國躋身全球四大新創強國之新創支持措施:

  在打造韓國新創國際競爭力面向,推動股票選擇權改革、全面修正《促進新創事業發展特別措施法》並廢除落日條款、提高由政府對高科技新創公司貸款提供擔保的技術擔保(technology guarantee)額度上限至200億韓元、安排國際創投媒合價值1兆韓元的全球創投資金,以及配合全球關注ESG趨勢,以碳價值(carbon value)評估為基礎,提供價值5000億韓元的氣候應對保證(climate response surety)。

  在擴大創業投資市場面向,包含創造私人基金投資的誘因及允許對特定智慧財產權進行投資、進行矽谷式的(Silicon Valley-type)創投基金監管、為早期新創公司引進一兆韓元的創投資金,以及提供創業加速器租稅減免等措施。而在多元化新創出場措施面向,則規劃新增技術創新併購擔保以及增加新創併購基金、給予更多併購租稅優惠,以及提供價值1000億韓元的出場基金等。

  韓國中小企業暨新創事業部指出,在第一波創業爆發期中,韓國新創打下了良好基礎,為了把握第二波創業爆發期的發展機會,韓國政府將加強與民間合作,以發展新創來創造就業機會並作為國家發展動能。為了達成躋身全球四大新創強國的目標,中小企業暨新創事業部將全力協助人才與資金的募集,從而完善韓國的新創生態系資源。

本文為「經濟部產業技術司科技專案成果」

相關連結
你可能會想參加
※ 韓國提出一系列新創支援措施,以躋身全球四大新創強國為目標, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8724&no=64&tp=1 (最後瀏覽日:2026/03/10)
引註此篇文章
你可能還會想看
英國政府制定監管計畫以應對科技巨頭帶來的問題

  英國政府於2022年5月6日宣布將針對大型企業(major firms)壟斷市場的情況制定新的監管計畫。該監管計畫將重新平衡大型與中小企業和消費者的關係,以利中小企業和消費者受到更好的保護,並使市場競爭環境更為公平。   該監管計畫針對的大型企業,即是國際市場上的科技巨頭(tech giants),如Google and Facebook。此類科技巨頭擁有並控制大量用戶的網路資料,並將該資料應用在特定應用程式與瀏覽器的搜尋演算法上,以確保其市場壟斷地位,使潛在的競爭者難以進入市場,進而影響市場的公平競爭以及消費者的自由選擇權。為解決前揭問題,英國預計透過修法賦予競爭和市場管理局下的「數位市場部門」(Digital Markets Unit, DMU)法定權力與監管權限,並搭配措施與作法如下: 強化市場公平性:英國政府預計提出價格糾紛解決機制,平衡內容提供商(如媒體業與廣告業)與科技巨頭間的議價能力,以確保更為公平、透明的市場。此外,科技巨頭亦應將其演算法之資訊分享給一般公司,避免科技巨頭濫用其市場力量。 增進消費者權益:科技巨頭必須確保消費者在使用資訊設備或服務時有充分的自主權與選擇權。例如,於手機的IOS和 Android 系統之間轉換或是社交軟體帳戶之間的資訊移轉時不會喪失其資料和訊息。DMU也將限制公司預先安裝瀏覽器、社交軟體等APP,讓消費者在APP上有更多選擇權。而隨著新業者進入市場,智慧型手機用戶將可以有更多搜尋引擎和社交平台選擇。此外消費者亦可選擇退出具有針對性的個人化廣告發送,以達成讓消費者擁有更多的資料自主權。   為能有效落實上述措施,DMU將有權指定特定企業為具有「戰略市場地位」(strategic market status)的公司。指定標準將依公司的營業額、對消費者的影響力、對市場活動的影響力、公司的活躍程度與規模等綜合評估,檢視其是否達到強大且根深蒂固的力量(substantial and entrenched market power)。DMU並將針對少數主導數位市場的企業應如何公平對待其用戶和其他公司提出行為準則。被指定的公司若違反相關規範,將面臨全球年營業額最高10%的罰款,如果連續違反,則可被處以全球每日營業額5%的額外罰款。   英國政府期待透過新的監管計畫及未來的修法介入市場競爭,促使市場環境更為公平且適於創新,同時讓消費者擁有更多選擇權。英國新監管計畫之實施情形,值得持續關注。

世界衛生組織發布人工智慧於健康領域之監管考量因素文件,期能協助各國有效監管健康領域之人工智慧

世界衛生組織(World Health Organization, WHO)於2023年10月19日發布「人工智慧於健康領域之監管考量因素」(Regulatory considerations on artificial intelligence for health)文件,旨在協助各國有效監管健康領域之人工智慧,發揮其潛力同時最大限度地降低風險。本文件以下列六個領域概述健康人工智慧之監管考量因素: (1)文件化與透明度(Documentation and transparency) 開發者應預先規範(pre-specifying)以及明確記錄人工智慧系統(以下簡稱AI系統)之預期醫療目的與開發過程,如AI系統所欲解決之問題,以及資料集之選擇與利用、參考標準、參數、指標、於各開發階段與原始計畫之偏離及更新等事項,並建議以基於風險之方法(Risk-based approach),根據重要性之比例決定文件化之程度、以及AI系統之開發與確效紀錄之保持。 (2)風險管理與AI系統開發生命週期方法(Risk management and AI systems development lifecycle approaches) 開發者應在AI系統生命之所有階段,考慮整體產品生命週期方法(total product lifecycle approach),包括上市前開發管理、上市後監督與變更管理。此外,須考慮採用風險管理方法(risk management approach)來解決與AI系統相關之風險,如網路安全威脅與漏洞(vulnerabilities)、擬合不足(underfitting)、演算法偏差等。 (3)預期用途、分析及臨床確效(Intended use, and analytical and clinical validation) 開發者應考慮提供AI系統預期用途之透明化紀錄,將用於建構AI系統之訓練資料集組成(training dataset composition)之詳細資訊(包括大小、設定與族群、輸入與輸出資料及人口組成等)提供給使用者。此外,可考慮透過一獨立資料集(independent dataset)之外部分析確效(external analytical validation),展示訓練與測試資料以外之效能,並考慮將風險作為臨床確效之分級要求。最後,於AI系統之上市後監督與市場監督階段,可考慮進行一段期間密集之部署後監督(post-deployment monitoring)。 (4)資料品質(Data quality) 開發者應確認可用資料(available data)之品質,是否已足以支援AI系統之開發,且開發者應對AI系統進行嚴格之預發布評估(pre-release evaluations),以確保其不會放大訓練資料、演算法或系統設計其他元素中之偏差與錯誤等問題,且利害關係人還應考慮減輕與健康照護資料有關之品質問題與風險,並繼續努力創建資料生態系統,以促進優質資料來源之共享。 (5)隱私與資料保護(Privacy and data protection) 開發者於AI系統之設計與部署過程中,應考慮隱私與資料保護問題,並留意不同法規之適用範圍及差異,且於開發過程之早期,開發者即應充分瞭解適用之資料保護法規與隱私法規,並應確保開發過程符合或超過相關法規要求。 (6)參與及協作(Engagement and collaboration) 開發者於制定人工智慧創新與部署路線圖之期間,需考慮開發可近用且具有充足資訊之平台,以於適合與適當情況下促進利害關係人間之參與及協作;為加速人工智慧領域實務作法之進化,透過參與及協作來簡化人工智慧監管之監督流程即有必要。

美國國家標準暨技術研究院發布「全球AI安全機構合作策略願景目標」,期能推動全球AI安全合作

美國國家標準暨技術研究院(National Institute of Standards and Technology, NIST)於2024年5月21日提出「全球AI安全機構合作策略願景目標」(The United States Artificial Intelligence Safety Institute: Vision, Mission, and Strategic Goals,下稱本策略願景),美國商務部(Department of Commerce)亦於2024年參與AI首爾峰會(AI Seoul Summit)期間對外揭示本策略願景,期能與其他國家攜手打造安全、可靠且可信賴之AI生態系。 由於AI可信賴與否往往取決於安全性,NIST指出當前AI安全所面臨的挑戰包含:一、欠缺對先進AI之標準化衡量指標;二、風險測試、評估、驗證及確效(Test, Evaluation, Validation, and Verification, TEVV)方法不健全;三、欠缺對AI建模後模型架構與模型表現間因果關係的了解;四、產業、公民社會、國內外參與者等在實踐AI安全一事上合作程度極為有限。 為因應上述挑戰並促進AI創新,NIST在本策略願景中擬定以下三大戰略目標:(1)推動AI安全科學發展:為建立安全準則與工具進行技術合作研究,並預先部署TEVV方法,以利評估先進AI模型之潛在風險與應對措施;(2)推展AI安全實務作法:制定並發布不同領域AI風險管理之相關準則與指標,以達到負責任設計、開發、部署與應用AI模型與系統之目的;(3)支持AI安全合作:促進各界採用前述安全準則、工具或指標,並推動全球合作,以發展國際通用的AI安全風險應對機制。

英國猶疑應否開放人獸混合細胞之胚胎幹細胞研究

  英國之胚胎幹細胞研究活動,係根據「1990年人類受精與胚胎學法」(Human Fertilisation and Embryology Act 1990,HF&E Act)和「2001年人類受精與胚胎學規則」(Human Fertilisation and Embryology (Research Purposes) Regulations 2001,Research Purposes Regulations)之規定,授權由「人類受精與胚胎學管理局」(Human Fertilisation and Embryology Authority,HFEA)依法管理。   新堡大學東北英格蘭幹細胞中心(North East England Stem Cell Institute)Lyle Armstrong博士,在去年底向HFEA申請一項涉及混合人類與動物細胞製造胚胎幹細胞之研究許可;其計劃利用細胞核轉置技術,將牛的卵子細胞核取出,植入人類體細胞核,並刺激其分裂形成胚囊或早期複製胚胎,用以研究培養病患所需身體組織之技術。過去HFEA從未曾核准過此類研究,僅核准過2件利用細胞核轉置技術和單性活化卵母細胞製造胚胎幹細胞株作為醫學研究之申請。此研究申請訊息一流出,即引起保守團體嘩然及指責,要求英國政府應盡速立法,禁止製造人獸混合細胞之實驗活動。面對各界抗議聲浪,HFEA表示,會暫緩此申請案。   事實上,去年12月英國健康部提出了一篇報告-「人工生殖及胚胎學法之檢討」(Review of the Human Fertilisation and Embryology Act),建議國會應儘速立法規範人類動物細胞混合研究。而英國政府與人民究竟能否接受混合人類動物遺傳細胞研究之合法性、合道德性,則為未來立法動向之重要指標。

TOP