Spitzencluster-Wettbewerb由德國聯邦教育與科學部(Bundesministerium für Bildung und Forschung,BMBF)自2007年起開始推行,屬該國高科技戰略2020(hightech-strategie 2020)之政策配套措施之一,更是歐盟發展歐洲研發區位計畫(European Research Area)之一環。所謂聚落係建立在德國傳統工業區位分布上,利用群聚效應因應產業技術發展的複雜問題(產業問題非單一技術可解決),使各具專長之學研機構與企業共同分享產業問題研議出解決方案,分擔研發風險與成本等,增強合作效率,促進產業創新及升級。聚落多以成立協會(association)為主,平均每一聚落有近70個企業參與,原則上開放跨國參與者參與聚落之產學合作,並對會員收取會費。
本計畫作為重要的區域產學研合作計畫,乃承襲自德國過去不斷推動的區域產學研合作計畫,其特色是採取競爭方式選出德國境內優秀之聚落,並補助其相關研發計畫。自2007年至2015年間,已有三次選拔,並選出共15個領先聚落,分別涉及領域橫跨航太、資通訊、能源、生技等技術發展。至2015年為止總計已補助超過1300個計畫。2015-2017年將規劃有三次選拔,每回合挑選至多10個聚落獲得補助。目前本計畫已補助3.6億歐元預算,至2017年底將再投入5億歐元預算。
本文為「經濟部產業技術司科技專案成果」
歐盟委員會(European Commission)於 2025年2月3日因應將於2025年9月12日施行的資料法(Data Act),就其常見問題說明進行補充與更新為1.2版(Frequently Asked Questions on the Data Act,下稱FAQs),以協助企業面對資料法施行後的挑戰。 於新版FAQs中就資料法進行補充說明,以助企業了解資料法之適用範圍,就資料法所稱之聯網裝置與服務,聯網裝置泛指可以連上網路的裝置,包含智慧型手機,並僅限於由使用者所擁有的聯網裝置,另就聯網服務則須具備雙向資料傳遞且須與聯網產品的操作功能有影響之服務。 就資料持有者有義務提供之資料適用範圍,僅限於聯網裝置與相關服務所產出的原始資料與預處理資料(原始但可用),資料持有者就原始資料或預處理資料進行加值所產生資料,如經分析所產生之衍生資料、經投入重大資源進行清理之資料等,則不在共享義務之範圍內,另就資料的內容有其他法律保護亦不在資料法的範疇中,如網路攝影機之照片/影片有受著作權法保護係屬於資料內容,網路攝影機之使用模式/電池狀態/照明強度等資料才是資料法所規範之資料,惟須留意若影像之內容非屬著作權保護之標的,如網路攝影機因具感測功能而自動就影像判斷是否異常現象或提供建議,此類影像因不具人類創意而不受著作權保護,仍屬資料法所涵蓋範圍。 於FAQs之解釋中,就資料法實際操作與預期有所差異,歐盟委員會後續亦會整合與數位資料相關之法規,如建立資料聯盟策略(Data Union Strategy),以助於企業促進數位資料的使用與共享。國內廠商若有提供歐盟客戶相關聯網設備與服務時,須留意內部資料管理制度能否滿足資料法要求,確保組織有因應相關法規議題的變化進行制度的變更,如何將外部議題與資料管理制度連結,可參資策會科法所創意智財中心就數位資料管理機制所公布之《重要數位資料治理暨管理制度規範(EDGS)》,將組織營運所在國別之法規範變動納入關注之外部議題,並設定對應之資料政策與目標,建立符合法令規範之資料管理制度,如是否得以識別為資料法所適用之資料等,以確保組織資料管理機制符合法令要求。 本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。 本文同步刊登於TIPS網站(https://www.tips.org.tw)
從日本政策看我國音樂產業海外拓展之必要性及有效作法 美國情報體系發布「情報體系運用人工智慧倫理架構」美國國家情報體系(United States Intelligence Community)係於1981年依據行政命令第12333號(Executive Order 12333)所建立,其任務為蒐集、分析與提供外國情報與反情報資訊美國國家領導人,服務對象包含美國總統、執法單位以及軍事單位。其於2020年6月提出「情報體系人工智慧倫理架構」(Artificial Intelligence Ethics Framework for the Intelligence Community),為人工智慧系統與訓練資料、測試資料之採購、設計、研發、使用、保護、消費與管理提出指引,並指出人工智慧之利用須遵從以下事項: 一、於經過潛在風險評估後,以適當且符合目的之方法利用; 二、人工智慧之使用應尊重個人權利與自由,且資料取得應合法且符合相關政策與法規之要求; 三、應於利用程序內結合人類判斷與建立問責機制,以因應AI產品之風險並確保其決策之適當性。 四、於不破壞其功能與實用性之前提下,盡可能確認、統計以及降低潛在之歧視問題。 五、AI進行測試時應同時考量其未來利用上可預見之風險。 六、持續維持AI模型之迭代(Iteration)、版本與改動之審查。 七、AI之建立目的、限制與設計之輸出項目,應文件化。 八、盡可能使用可解釋與可理解之方式,讓使用者、審查者與公眾理解為何AI會產出相關決策。 九、持續不定期檢測AI,以確保其符合當初建置之目的。 十、確認AI於產品循環中各階段之負責人,包含其維護相關紀錄之責任。
美國為加強聯邦補助生物科研之安全性而提出新規範