中國大陸科技部公布參與2013年度科技型中小企業創業投資引導基金階段參股的創業投資機構名單

  根據中國大陸科學技術部(以下簡稱科技部)、財政部2013年11月8日以國科發計〔2013〕647號公布之<科技部、財政部關於2013年度科技型中小企業創業投資引導基金階段參股項目立項的通知>,確定計有21家創業投資機構參與本年度階段參股之立項項目,計劃資助金額約人民幣8億元。

  按「科技型中小企業創業投資引導基金」係中國大陸財政部及科技部為貫徹<國務院實施《國家中長期科學和技術發展規劃綱要(2006至2020年)若干配套政策》>,支持科技型中小企業自主創新,而於2007年7月6日公布<科技型中小企業創業投資引導基金管理暫行辦法>。其中第3條規定:「引導基金的資金來源為,中央財政科技型中小企業創新基金;從所支持的創業投資機構回收和社會捐贈的資金」;第8條第一項前段規定:「本辦法所稱的創業投資企業,是指具有融資和投資功能,主要從事創業投資活動的公司制企業或有限合夥制企業」。

  中國大陸政府希冀透過引導基金的協助,鼓勵當地創投業者參與引導基金支持的研發項目,並以「創業投資企業」或「創業投資管理企業」等方式,對於從事科技研發的中小企業提供實質資金協助,其具體鼓勵的方式依前述辦法第5條規定可為階段參股、跟進投資、風險補助等。以本次公布之通知為例,其所稱「階段參股」是指引導基金向創業投資企業進行股權投資,並在約定的期限內退出(參股期限一般不超過5年)。而符合該辦法規定條件的創業投資機構作為發起人,發起設立新的創業投資企業時,可以申請階段參股。

  近來我國主管機關為促進經濟發展,不斷思索鼓勵創業、就業之措施,或許從創投面提供實質之協助也是參酌因素之一,其他國家或地區的具體措施及內容似值得我們後續觀察、研究。

本文為「經濟部產業技術司科技專案成果」

相關連結
※ 中國大陸科技部公布參與2013年度科技型中小企業創業投資引導基金階段參股的創業投資機構名單, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=6416&no=64&tp=1 (最後瀏覽日:2025/11/28)
引註此篇文章
你可能還會想看
日本《經濟安全保障推進法》專家小組第1次會議提出「確保特定重要物資穩定供給之基本指導方針」

  2022年7月25日,日本政府召開今年5月公布的《經濟安全保障推進法》專家小組第1次會議,會議提出「確保特定重要物資穩定供給之基本指導方針」(特定重要物資の安定的な供給の確保に関する基本指針),指出在日益複雜的國際情勢及社會經濟結構變化中,自由經濟原則所承擔的風險逐漸增加,在經濟安全問題上,政府應有更多參與和監管,不可過度依賴市場競爭,並明確規定政府應適當指定符合下列4要件之物資為「特定重要物資」: 一、人民生存和經濟活動所必需 指被多數人廣泛使用、融入於各行各業中,在經濟合理的角度觀察,沒有替代品的物資。 二、避免過度依賴外部資源 指資源掌握於特定少數國家或地區,如供應中斷將造成日本境內重大影響者。或基於社會經濟結構變化和技術創新趨勢,是否有如不採取因應措施,可能有過度依存風險之外部資源。 三、因外部行為造成中斷供給的可能性 因外部行為(如供應國暫停出口)導致供應中斷,對人民生活與經濟活動發生重大影響者,包含發生之可能性。 四、除前述3要件外,認有特別必要性時 例如,近年有供應中斷紀錄,或出現供應中斷風險提升的傾向,須立即採取措施時等情形。   此外,日本政府規劃將減少「特定重要物資」對國外的進口依賴,並授權政府可對企業的原物料供應商及庫存進行調查,拒絕者將課以罰責,以確保「特定重要物資」的穩定供應。

Horizon Europe

  Horizon Europe為歐盟2021-2027年之科技研發架構計畫。科技研發架構計畫(Framework Programmes for Research and Technological Development,依不同期別縮寫為FP1-FP8)為全球最大型的多年期科研架構計畫,今期之Horizon 2020已進入尾聲,2021年起所實施的歐盟科研架構計畫──FP9正式命名為「Horizon Europe」。   為打造歐盟成為創新市場先鋒,延續Horizon 2020計畫成效,Horizon Europe重視投資研發與發展創新,包含強化歐盟的科學與技術基礎、促進歐洲創新能力,以及永續歐洲社會經濟的模式與價值。   Horizon Europe發展方向分為三大主軸,分別為: 卓越科學(Excellent Science):透過歐洲研究理事會(European Research Council, ERC)、新居禮夫人人才培育計畫(Marie Skłodowska-Curie Actions, MSCA)和研究基礎設施(Research Infrastructures)加強歐盟科學領導力。 全球挑戰與產業競爭力(Global Challenges and European Industrial Competitiveness):此主軸再分別發展6個子題,以應對歐盟和全球政策並加速產業轉型。該6個子題分別為(1)健康;(2)文化與創造力;(3)社會安全;(4)數位與太空產業;(5)氣候、能源與交通;(6)糧食、生物經濟(Bioeconomy)、自然資源、農業與永續環境。 創新歐洲(Innovative Europe):促進、培育和部署市場創新,維護友善創新環境之歐洲生態系統(European ecosystems)。   此外,Horizon Europe擬把實驗階段中具備高潛力和前瞻性的技術帶入市場,轉以任務導向協助新創產業設立,推動跨事業多方整合。

美國國家標準暨技術研究院發布「人工智慧風險管理框架:生成式AI概況」

  美國國家標準暨技術研究院(National Institute of Standard and Technology, NIST)2024年7月26日發布「人工智慧風險管理框架:生成式AI概況」(Artificial Intelligence Risk Management Framework: Generative Artificial Intelligence Profile),補充2023年1月發布的AI風險管理框架,協助組織識別生成式AI(Generative AI, GAI)可能引發的風險,並提出風險管理行動。GAI特有或加劇的12項主要風險包括: 1.化學、生物、放射性物質或核武器(chemical, biological, radiological and nuclear materials and agents, CBRN)之資訊或能力:GAI可能使惡意行為者更容易取得CBRN相關資訊、知識、材料或技術,以設計、開發、生產、使用CBRN。 2.虛假內容:GAI在回應輸入內容時,常自信地呈現錯誤或虛假內容,包括在同一情境下產出自相矛盾的內容。 3.危險、暴力或仇恨內容:GAI比其他技術能更輕易產生大規模煽動性、激進或威脅性內容,或美化暴力內容。 4.資料隱私:GAI訓練時需要大量資料,包括個人資料,可能產生透明度、個人資料自主權、資料違法目的外利用等風險。 5.環境影響:訓練、維護和運行GAI系統需使用大量能源而影響碳排放。 6.偏見或同質化(homogenization):GAI可能加劇對個人、群體或社會的偏見或刻板印象,例如要求生成醫生、律師或CEO圖像時,產出女性、少數族群或身障人士的比例較低。 7.人機互動:可能涉及系統與人類互動不良的風險,包括過度依賴GAI系統,或誤認GAI內容品質比其他來源內容品質更佳。 8.資訊完整性:GAI可能無意間擴大傳播虛假、不準確或誤導性內容,從而破壞資訊完整性,降低公眾對真實或有效資訊的信任。 9.資訊安全:可能降低攻擊門檻、更輕易實現自動化攻擊,或幫助發現新的資安風險,擴大可攻擊範圍。 10.智慧財產權:若GAI訓練資料中含有受著作權保護的資料,可能導致侵權,或在未經授權的情況下使用或假冒個人身分、肖像或聲音。 11.淫穢、貶低或虐待性內容:可能導致非法或非自願性的成人私密影像或兒童性虐待素材增加,進而造成隱私、心理、情感,甚至身體上傷害。 12.價值鏈和組件整合(component integration):購買資料集、訓練模型和軟體庫等第三方零組件時,若零組件未從適當途徑取得或未經妥善審查,可能導致下游使用者資訊不透明或難以問責。   為解決前述12項風險,本報告亦從「治理、映射、量測、管理」四大面向提出約200項行動建議,期能有助組織緩解並降低GAI的潛在危害。

美國科羅拉多州通過《人工智慧消費者保護法》

2024年5月17日,科羅拉多州州長簽署了《人工智慧消費者保護法》(Consumer Protections for Artificial Intelligence Act,Colorado AI Act,下簡稱本法),其內容將增訂於《科羅拉多州修訂法規》(Colorado Revised Statutes,簡稱CRS)第6篇第17部分,是美國第一部廣泛對AI規範的法律,將於2026年2月1日生效。 本法旨在解決「高風險人工智慧系統」的演算法歧視(Algorithmic Discrimination)的問題 ,避免消費者權益因為演算法之偏見而受到歧視。是以,本法將高風險AI系統(High-risk Artificial Intelligence System)定義為「部署後作出關鍵決策(Consequential Decision)或在關鍵決策中起到重要作用的任何AI系統」。 而後,本法藉由要求AI系統開發者(Developers)與部署者(Deployers)遵守「透明度原則」與「禁止歧視原則」,來保護消費者免受演算法歧視。規定如下: (一)系統透明度: 1.開發者應向部署者或其他開發者提供該系統訓練所使用的資料、系統限制、預期用途、測試演算法歧視之文件以及其他風險評估文件。 2.部署者應向消費者揭露高風險人工智慧系統的預期用途,也應在高風險人工智慧系統做出決策之前向消費者提供聲明,聲明內容應該包含部署者之聯絡方式、該系統的基本介紹、部署者如何管理該系統可預見之風險等資訊。 (二)禁止歧視: 1.開發者應實施降低演算法歧視之措施,並應協助部署者理解高風險人工智慧系統。此外,開發者也應該持續測試與分析高風險人工智慧系統可能產生之演算法歧視風險。若開發者有意修改該系統,應將更新後的系統資訊更新於開發者網站,並須同步提供給部署者。 2.部署者應該實施風險管理計畫,該風險管理計畫應包含部署者用於識別、紀錄降低演算法歧視風險之措施與負責人員,且風險管理計畫應定期更新。在制定風險管理計畫時,必須參考美國商務部國家標準暨技術研究院(National Institute of Standards and Technology, NIST)的《人工智慧風險管理框架》(AI Risk Management Framework, AI RMF 2.0)與ISO/IEC 42001等風險管理文件。 美國普遍認為科羅拉多州的《人工智慧消費者保護法》為目前針對人工智慧系統最全面之監管法規,可作為其他州有關人工智慧法規的立法參考,美國各州立法情況與作法值得持續關注。

TOP