德國未來中型企業行動計畫 (Aktionsprogramm Zukunft Mittelstand)

  德國聯邦經濟暨能源部(Bundesministerium für Wirtshaft und Energie)、德國聯邦工業聯盟(Bundesverband der Deutschen Industrie)、德國工業與商務部(Deutsche Industrie- und Handelskammertag)及德國工藝中心(Zentralverband des Deutschen Handwerks)針對共同之目標擬定中型企業發展政策。該規劃於2015年7月23日柏林提出。該規劃重點為以下五個方針:

1. 企業精神培育(Gründergeist):
自1995至2014年德國新創企業的成長銳減30%。為要克服此問題,應讓德國學童在學校時就有「創業家」此一職涯選項。年輕的新創企業需要持續提升與企業合作與互動,並給予創新之顧問補助,像是新創顧問諮詢上的服務(該計畫名稱為Gründer Coaching Deutschland)。針對目前已經成立之中小型企業,相關補助及服務將自2016年會提出。

2. 數位化進程(Digitalisierung):
為提升中型企業的科學技術轉移,透過該計畫預計將在今年全德國新設立至5座技轉中心(Technologietransfer)。透過該中心,各個企業及工藝業者可得取有關產業面現狀發展、新興科技及商業模式的最新訊息,為讓其裝備成具數位化能力的業者。

3. 融資(Finanzierung):
透過歐盟投資及歐洲復甦基金(ERP/EIF)新興政策之發佈,將注入50億歐元用於輔助快速成長、資本集中之企業,以3至4百萬歐元的幅度做補助。此透過與歐盟投資銀行共同聚集的資金,將於2015年提供給企業申請。此次融資政策係歐盟投資及歐洲復甦基金從10億提升至17億歐元。

4. 勞工支配(Fachkräfte):
德國勞工的質量與優勢將透過「聯盟教育培訓計畫2015-2018(Allianz für Aus- und Weiterbildung 2015-2016)」做提升。每位年輕學子在就學期間,就應透過學校的輔助認清其就業路線,以助未來專業領域培訓及發展。「輔助中小型企業得取切合相關職業培訓及外來勞動力引入」補助計畫導入,目的亦係為讓德國勞動力更具優勢及競爭力。

5. 行政成本降低(Bürokratieabbau):
透過減免官僚程序法(Bürokratieentlastungsgesetz)的導入,將針對未來企業會計、紀錄、統計數據公開及回報的要求進行修改。此一法的導入將可讓德國中型企業7.44億歐元行政成本的減免。為了讓新創企業能夠更容易的開始營運,政府部門亦將更進一步的與業者接觸互動並連結,輔助新創企業中遇到創業程序上的服務及指導。透過相關行政程序的電子化管理,將可讓德國及至歐盟透過該新的管理標準省去過多的行政成本,並優化創業流程。

相關連結
※ 德國未來中型企業行動計畫 (Aktionsprogramm Zukunft Mittelstand), 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=7046&no=64&tp=1 (最後瀏覽日:2026/02/20)
引註此篇文章
你可能還會想看
新搜尋技術將改變數位內容產業的版圖

美國麻省理工學院企業論壇 (MIT Enterprise Forum) 日前在紐約市舉行了專家座談會,與會專家指出,新的網路搜尋技術,將改變數位內容產業的版圖。一個最重要的技術躍進,在於突破目前以文字為搜尋條件的限制,未來,透過新的技術,使用者將可以圖像、聲音甚至影片來進行搜尋。如此,數位內容產業的傳播將會更具效率,整個產業的發展也會更迅速,消費者也能更快速地享受到各種數位內容。且讓我們拭目以待。

世界衛生組織公布「人工智慧於健康領域之倫理與治理」指引

  世界衛生組織(World Health Organization, WHO)於2021年6月底公布「人工智慧於健康領域之倫理與治理」(Ethics and governance of artificial intelligence for health)指引。目前人工智慧於在改善診斷、治療、健康研究、藥物開發及公共衛生等健康領域皆有廣泛之應用與前景,而該指引首先指出人工智慧應用於健康領域中最相關之法律與政策外,並強調相關應用皆須以「倫理」及「人權」作為相關技術設計、部署與使用之核心,最後則提出人工智慧應用於健康領域之六大關鍵原則: 一、保護人類自主性(autonomy):本指引認為人類仍應該掌有關於醫療保健系統之所有決定權,而人工智慧只是輔助功能,無論是醫療服務提供者或患者皆應在知情之狀態下作決定或同意。 二、促進人類福祉、安全與公共利益:人工智慧不應該傷害人類,因此須滿足相關之事前監管要求,同時確保其安全性、準確性及有效性,且其不會對患者或特定群體造成不利影響。 三、確保透明度、可解釋性與可理解性(intelligibility):開發人員、用戶及監管機構應可理解人工智慧所作出之決定,故須透過記錄與資訊揭露提高其透明度。 四、確立責任歸屬(responsibility)與問責制(accountability):人工智慧在醫學中所涉及之內部責任歸屬相當複雜,關於製造商、臨床醫師及病患間相關之問責機制之設計將會成為各國之挑戰,故須存在有效之機制來確保問責,也應避免責任分散之問題產生。 五、確保包容性(inclusiveness)與衡平性(equity):應鼓勵應用於健康領域之人工智慧能被廣泛且適當地使用,無論年齡、性別、收入及其他特徵而有差別待遇,且應避免偏見之產生。 六、促進具適應性(responsive)及可持續性之人工智慧:人工智慧應符合設計者、開發者及用戶之需求與期待,且能充分具適應性之回應且符合使用環境中之要求。

美國化學營業秘密哪些必須揭露?哪些可以保密?

  為因應有害化學物質所產生之公安事件,2015年6月8號美國職業安全管理局(Occupational Safety and Health Administration,簡稱(OSHA))發佈一項措施,針對具危險性化學物質之運輸過程,規範處理程序,包括製造商須提供物質安全數據表,以及可能具有風險的有害物質說明書等。   為此,OSHA考量到此將影響化學製造商營業秘密保護,遂提出判斷準則,以釐清對於化學製造商而言,何種情況將構成營業秘密,包括:(1)在一定的程度內該資訊是否已被外界所知;(2)在一定程度內,該資訊對於員工或其他參與者是否已知;(3)是否有一定程度對於該資訊內容進行保護措施;(4)該資訊對於競爭對手是否有價值;(5)是否投入大量時間和金錢開發該資訊;(6)該資訊對企業而言是否得被他人簡易取得與複製。   進而在符合上述營業祕密要件時,企業即無須對一般員工(非研發工程師)揭露化學公式等內容,其中包括一般操作人員或者運輸人員等。然而考量到此等人員接觸化學物質情況頻繁,倘若操作人員或者運輸人員工作過程中,因有害但屬營業祕密之化學物質造成意外傷害,為平衡公眾安全與營業秘密之保障,OSHA要求化學製造商必須立即提供醫護人員有害化學物質方程式等內容,但可要求醫護人員簽訂保密協議,藉此兼顧公安與營業秘密之保障。

美國OMB發布人工智慧應用監管指南備忘錄草案

  美國行政管理預算局(United States Office of Management and Budget, OMB)於2020年1月發布「人工智慧應用監管指南(Guidance for Regulation of Artificial Intelligence Applications)」備忘錄草案。該備忘錄草案係基於維護美國人工智慧(AI)領導地位之目的,而依據美國總統川普(Donald John Trump)於2019年2月簽署之「維持美國人工智慧領導地位(Maintaining American Leadership in Artificial Intelligence)─行政命令13859號」,並在啟動美國人工智慧計畫後180天內,經OMB偕同科技政策辦公室(Office of Science and Technology Policy, OSTP)、美國國內政策委員會(United States Domestic Policy Council)與美國國家經濟委員會(National Economic Council)與其他相關機構進行協商,最後再由OMB發布人工智慧應用監管指南備忘錄草案,以徵詢公眾意見。   該備忘錄草案不僅是為了規範新型態AI應用技術,更希望相關的聯邦機構,在制定AI應用產業授權技術、監管與非監管方法上,能採取彈性的制定方向,以避免過度嚴苛的規定,反而阻礙AI應用的創新與科技發展,繼而保護公民自由、隱私權、基本權與自治權等價值。同時,為兼顧AI創新與政策之平衡,應以十大管理原則為規範制定之依據,十大管理原則分別為: 培養AI公眾信任(Public Trust in AI); 公眾參與(Public Participation); 科學研究倫理與資訊品質(Scientific Integrity and Information Quality); AI風險評估與管理(Risk Assessment and Management); 獲益與成本原則(Benefits and Costs); 彈性原則(Flexibility); 公平與反歧視(Fairness and Non-Discrimination); AI應用之揭露與透明化(Disclosure and Transparency); AI系統防護與措施安全性(Safety and Security); 機構間之相互協調(Interagency Coordination)。   此外,為減少AI應用之阻礙,機構制定AI規則時,應採取降低AI技術障礙的方法,例如透過聯邦資料與模型方法來發展AI研發(Federal Data and Models for AI R&D)、公眾溝通(Communication to the Public)、自發性共識標準(Voluntary Consensus Standards)之制定及符合性評鑑(Conformity Assessment)活動,或國際監管合作(International Regulatory Cooperation)等,以創造一個接納並利於AI運作的環境。

TOP