國際產業創新合作策略實例 – 歐盟之歐洲科技與創新機構(EIT)

刊登期別
第23卷,第10期,2011年10月
 

※ 國際產業創新合作策略實例 – 歐盟之歐洲科技與創新機構(EIT), 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=5755&no=67&tp=1 (最後瀏覽日:2026/04/12)
引註此篇文章
你可能還會想看
美國先進製造國家計畫辦公室於今年(2015) 6月10日研提現況檢討報告與相關政策資料

  為檢視國內先進製造業復甦與計畫推進之近況,美國先進製造國家計畫辦公室(Advanced Manufacturing National Program Office, AMNPO)於今年(2015) 6月10日研提現況檢討報告與相關政策資料,該項報告主要可歸結「國內產業現況」、「計畫執行成效」與「法制組織」等重要面向 ,茲就該項報告之重點摘要如下: (一)國內先進製造產業現況檢視:   報告指出美國目前正喪失在先進產品領域全球領導地位,在進出口貿易呈現嚴重赤字,雖近年致力於先進製造之資源整合與共同研發等措施,然而,觀察基礎科研端到市場端仍存有落差。 (二)先進製造領域已設立45個研發創新中心:   研發創新中心為產業與學研機構共構之「區域應用性組織」,主要由學術研究聯盟、企業和區域管理機構所組成專注於扶持區域具經濟優勢之新興技術研發,發展在地技術能量。先進製造領域,截至目前為止,已設立45個研發創新中心。除透過研發創新中心之扶持外,另可透過中心之設立選定各該重點關鍵技術發展,間接培育美國各區域之先進製造技術之專業領域。美國境內研究型大學或非營利組織皆得提案申請,而獲選之區域創新研究機構可獲得聯邦政府5至7年資金補助,政府欲透過補助模式,扶持區域新創機構之自主運作與發展。而於七年發展階段後,該機構將形成財政自主,由該機構之行政委員會主導研發資金運用與分配。

歐盟孤兒著作指令(Directive 2012/28/EU)立法評析

中國大陸財政部及科技部印發《國家重點研發計畫資金管理辦法》

  於2016年12月30日,中國大陸財政部及科技部為規範國家重點研發計畫管理,切實提高資金使用效益聯合發佈了《國家重點研發計畫資金管理辦法》。   該計畫以支援解決重大科技問題為目標,以“優化資源配置、完善管理機制、提高資金效益”為重點,辦法全文共8章57條,根據國家重點研發計畫特點,從預算編制到執行、結題驗收到監督檢查,針對全過程提出了資金管理的要求,明確《辦法》制定的目的和依據、重點研發計畫資金支援方向、管理使用原則和適用範圍,就重點專項概預算管理、專案資金開支範圍、預算編制與審批、預算執行與調劑、財務驗收、監督檢查等具體內容和流程、職責做了明確規定。   與原科技計畫資金管理辦法相比,《辦法》主要有以下變化: 1.建立了適應重點研發計畫管理特點的概預算管理模式。 2.遵循科研活動規律,落實“放、管、服”改革。適應科研活動的不確定性的特點,《辦法》堅持簡政放權,簡化預算編制,下放預算調劑許可權。 3.突出以人為本,注重調動廣大科研人員積極性。   為推動辦法有效落實,財政部及科技部並要求相關部門、專案承擔單位需要共同做好以下工作: 1.相關主管部門應當督促所屬承擔單位加強內控制度和監督制約機制建設、落實重點專項項目資金管理責任。 2.財政部、科技部將組織開展宣傳培訓,指導各有關部門和單位開展學習,全面提高對《辦法》的認識和理解,為政策執行到位提供保障。 3.科技部、財政部將通過專項檢查、專項審計、年度報告分析、舉報核查、績效評價等方式,對專業機構、專案承擔單位貫徹落實《辦法》情況進行監督檢查或抽查。

美國情報體系發布「情報體系運用人工智慧倫理架構」

  美國國家情報體系(United States Intelligence Community)係於1981年依據行政命令第12333號(Executive Order 12333)所建立,其任務為蒐集、分析與提供外國情報與反情報資訊美國國家領導人,服務對象包含美國總統、執法單位以及軍事單位。其於2020年6月提出「情報體系人工智慧倫理架構」(Artificial Intelligence Ethics Framework for the Intelligence Community),為人工智慧系統與訓練資料、測試資料之採購、設計、研發、使用、保護、消費與管理提出指引,並指出人工智慧之利用須遵從以下事項: 一、於經過潛在風險評估後,以適當且符合目的之方法利用; 二、人工智慧之使用應尊重個人權利與自由,且資料取得應合法且符合相關政策與法規之要求; 三、應於利用程序內結合人類判斷與建立問責機制,以因應AI產品之風險並確保其決策之適當性。 四、於不破壞其功能與實用性之前提下,盡可能確認、統計以及降低潛在之歧視問題。 五、AI進行測試時應同時考量其未來利用上可預見之風險。 六、持續維持AI模型之迭代(Iteration)、版本與改動之審查。 七、AI之建立目的、限制與設計之輸出項目,應文件化。 八、盡可能使用可解釋與可理解之方式,讓使用者、審查者與公眾理解為何AI會產出相關決策。 九、持續不定期檢測AI,以確保其符合當初建置之目的。 十、確認AI於產品循環中各階段之負責人,包含其維護相關紀錄之責任。

TOP