何謂德國「中小企業創新核心計畫」(Zentrales Innovationsprogramm Mittelstand)?

  中小企業創新核心計畫(Zentrales Innovationsprogramm Mittelstand ,以下簡稱ZIM)是一項覆蓋全國範圍、不限制技術領域和行業的補助計畫,補助對象除中小企業外,還包括與之合作的研究機構。該計畫整合過往其他許多補助計畫,德國聯邦經濟與能源部於2015年1月公佈了最新的ZIM計畫實施方針,擴大受補助中小企業的範圍,且提高資助資金的數額,將對企業補助的最高數額從35萬提高到38萬,對研究機構補助的最高數額從17.5萬提高到19萬歐元,以持續提升德國中小企業的創新能力與競爭力;企業與合作研究機構可以在補助的架構下針對先進技術研發獲得資金,研發主題不限,重點在於創新內容與市場價值。

  ZIM計畫中的中小企業為員工人數不超過499人,同時年營業額低於5000萬歐元或資產負債表總額低於4300萬歐元的企業。在此基礎上,ZIM計畫中分為以下三種補助類型:
1.ZIM個人計畫(ZIM-Einzelproejkte):補助個別經營企業的研發計畫。
2.ZIM合作計畫(ZIM-Kooperationsprojekte):補助兩個或兩個以上的企業或研發機構之共同研發計畫。
3.ZIM網狀型合作計畫(ZIM-Kooperationsnetzwerke):補助在創新網狀架構下至少六個中小企業合作之全面性研發計畫。

本文為「經濟部產業技術司科技專案成果」

※ 何謂德國「中小企業創新核心計畫」(Zentrales Innovationsprogramm Mittelstand)?, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?no=66&tp=5&d=7639 (最後瀏覽日:2024/05/02)
引註此篇文章
你可能還會想看
美國提出壟斷威攝法案

  美國參議院在2019年7月23日,於第116屆國會中審查了兩次「壟斷威攝法案」(The Monopolization Deterrence Act),相當於台灣法案經過二讀。提出者是參議院司法委員會反托拉斯、競爭政策和消費者權益小組之成員,克洛布查爾,他認為聯邦執法人員發現非法壟斷行為之時,需要採取果斷行動以確保制止這種行為,但僅僅是禁制令不足以阻止這種非法行為的發生,尚需更好的立法。   本法將賦予司法部和聯邦貿易委員會權利,對壟斷犯罪尋求懲罰性罰款,其目的係為司法部和聯邦貿易委員會提供額外的執法工具,針對個別違規行為制訂補救措施,平衡其嚴重的犯行,並希冀能有效制止未來之非法行為。原法律規定個人違反最高可罰一百萬美元,企業最高可以罰一千萬美元,國會調查後認為原法律規定之罰款不足以阻止壟斷行為,因為獲利可能比罰款更多。   有關「壟斷威攝法案」之修正內容大略包含: 每個違反本條規定的人,必須負擔民事罰款,該罰款不大於個人上一年度在美國的總收入中的15%。從事非法行為之期間,所有交易、貿易行為收入的30%。 委員會針對以不正當方法競爭違反謝曼爾法案第二條的個人、合夥企業或公司,可以在美國地方法院提起民事訴訟,並對此種行為處以民事罰款。 任何個人、合夥企業或公司被發現違反了謝曼爾法案第二條,其民事罰款不大於個人、合夥企業、公司上一年度在美國的總收入的15%。從事非法行為之期間,與非法行為有關之商業活動中之個人、合夥企業或公司在美國之總收入的30%。 在聯合民事處罰準則中,有規範總檢察長和聯邦貿易委員會在計算民事罰款時,必須考慮之相關因素,有以下七項,其一,受影響的商業量;其二,違法行為的持續時間和嚴重性;其三,為隱瞞違法行為而採取或試圖採取之任何行動;其四,違法行為嚴重或明顯違法之程度;期五,是否將民事處罰與針對違法行為之其他救濟相結合,包括結構性救濟、行為條件、非法所得之歸還;其六,先前是否曾從事過相同或類似之反競爭行為;其七,是否違反先前之法令或法院命令該為之行為。

美國國家標準暨技術研究院規劃建立「人工智慧風險管理框架」,並徵詢公眾對於該框架之意見

  美國國家標準暨技術研究院(National Institute of Standards and Technology, NIST)為管理人工智慧對於個人、組織以及社會所帶來之風險,於2021年7月29日提出將建立「人工智慧風險管理框架」(Artificial Intelligence Risk Management Framework, AI RMF)之規畫並徵詢公眾意見,截止日為9月15日,並預計於10月發布正式報告。   依照NIST說明,公眾所建議之人工智慧風險管理框架,可促進人工智慧之可信賴性,其中包含如何應對並解決人工智慧於設計、發展及使用過程中所遭遇之「精確度」(accuracy)、「可解釋性」(explainability)、「偏見」(bias)等議題。此外,上開管理框架預計為非強制性、供企業自願性使用於人工智慧設計、發展、使用、衡量及評估之人工智慧標準。   依現有公眾意見徵詢結果,其中DeepMind公司建議於人工智慧設計初期,必須預先構思整體系統之假設是否符合真正社會因果關係。舉例言之,當設計一套可預測民眾健保需求程度之系統時,如輸入參數僅考量民眾於醫療上的花費,將使僅有可負擔較高醫療費用之民眾被歸類為健保需求程度較高者,從而導致健保制度排擠經濟負擔程度較差之公民,故在設計系統時,應從預先設定之假設事實反面(counter-factual)思考並驗證是否會產生誤差或公平性之問題(例如預先思考並驗證「醫療費用支出較低之民眾是否即可被正確歸類為健保需求度低之民眾」)。惟進行上述驗證需要大量社會資料,因此DeepMind也建議NIST應建立相關機制,使這些社會資料可以被蒐集、使用。   此外,亦有民眾建議管理框架應有明確之衡量方法以及數值指標,以供工程界遵循。同時鑒於人工智慧發展極為快速,未來可能有不同於以往之人工智慧類型出現,故亦建議NIST應思考如何在「建構一套完整且詳細之人工智慧治理框架」與「保持人工智慧治理框架之彈性與靈活性」之間取得平衡。   最後,目前也有許多徵詢意見指出,許多人工智慧治理之目標會相互衝突。舉例言之,當NIST要求人工智慧系統應符合可解釋性,則人工智慧公司勢必需要經常抽取人工智慧系統中之「數據軌跡」(audit logs),惟數據軌跡可能被認為是使用者之個人資料,因此如何平衡或完善不同治理框架下之目標,為未來應持續關注之議題。

ENUM服務前景可期?

美國聯邦交通部公布自駕車4.0政策文件

  美國交通部(Department of Transportation)於2020年1月8日公布「確保美國於自動駕駛技術之領導地位:自駕車4.0」(Ensuring American Leadership in Automated Vehicle Technologies : Automated Vehicles 4.0)政策文件,提出三個核心原則及相對應的策略規劃: 一、 使用者與社會的保護: 整合自動駕駛技術之安全性,包括防堵對自駕車性能之詐欺或誤導行為,以強化民眾對此新興技術的信心。 與自駕車技術開發商、製造商及服務商合作,預防與降低惡意使用自動駕駛技術所造成的公共安全威脅及犯罪,如制定網路安全標準、於運輸系統之資料傳輸媒介及資料庫設計能夠防止、反應、偵測潛在或已知危險之可行作法。 要求製造商於設計和結合相關自動駕駛技術時,採取具整體風險考量之方式,以確保資料安全性與公眾隱私保護,特別是針對駕駛者與乘客,以及第三人資料存取、分享及使用。 支援與協助自動駕駛技術研發,並透過提供多樣化商品和服務,滿足消費者需求並增加自駕車的普及性,使國人能使用安全且能負擔的移動載具。 二、 保障市場效率: 採取靈活及技術中立政策,由大眾選擇具經濟及有效率的運輸方案。 透過相關智慧財產法規,保護相關技術,並持續推動經濟增長之政策及提升國內技術創新競爭力。 收集與研擬國內外法規資料,並使自動駕駛技術產品及服務能夠與國際標準接軌。 三、 促進與協調各方合作: 積極協調全國自動駕駛技術研究、法規和政策,以利有效運用各機構資源。 參考國際間自動駕駛技術標準及監理法規,並與各州政府及業界共同研擬與整合自動駕駛技術至現行運輸系統標準與相關法規。

TOP