Horizon Europe

  Horizon Europe為歐盟2021-2027年之科技研發架構計畫。科技研發架構計畫(Framework Programmes for Research and Technological Development,依不同期別縮寫為FP1-FP8)為全球最大型的多年期科研架構計畫,今期之Horizon 2020已進入尾聲,2021年起所實施的歐盟科研架構計畫──FP9正式命名為「Horizon Europe」。

  為打造歐盟成為創新市場先鋒,延續Horizon 2020計畫成效,Horizon Europe重視投資研發與發展創新,包含強化歐盟的科學與技術基礎、促進歐洲創新能力,以及永續歐洲社會經濟的模式與價值。

  Horizon Europe發展方向分為三大主軸,分別為:

  1. 卓越科學(Excellent Science):透過歐洲研究理事會(European Research Council, ERC)、新居禮夫人人才培育計畫(Marie Skłodowska-Curie Actions, MSCA)和研究基礎設施(Research Infrastructures)加強歐盟科學領導力。
  2. 全球挑戰與產業競爭力(Global Challenges and European Industrial Competitiveness):此主軸再分別發展6個子題,以應對歐盟和全球政策並加速產業轉型。該6個子題分別為(1)健康;(2)文化與創造力;(3)社會安全;(4)數位與太空產業;(5)氣候、能源與交通;(6)糧食、生物經濟(Bioeconomy)、自然資源、農業與永續環境。
  3. 創新歐洲(Innovative Europe):促進、培育和部署市場創新,維護友善創新環境之歐洲生態系統(European ecosystems)。

  此外,Horizon Europe擬把實驗階段中具備高潛力和前瞻性的技術帶入市場,轉以任務導向協助新創產業設立,推動跨事業多方整合。

本文為「經濟部產業技術司科技專案成果」

相關連結
相關附件
你可能會想參加
※ Horizon Europe, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8288&no=64&tp=5 (最後瀏覽日:2025/08/18)
引註此篇文章
你可能還會想看
FAA公告禁止無人機於美國主要旅遊景點內飛行

  根據美國國家安全執法機構(US national security and law enforcement agencies)之要求,美國聯邦航空總署(Federal Aviation Administration,以下簡稱FAA)於2017年9月28日,依照聯邦法規(Code of Federal Regulations)第99.7條規定,發布無人機飛行規則,禁止任何人於多個旅遊地點邊界範圍400英尺內飛行無人機。美國聯邦調查局(FBI)局長Christopher Wray表示,「擔心恐怖分子會使用無人機進行攻擊。」   從FAA的公告中,禁止無人機飛行之限航區係由FAA和內政部(Department of the Interior,以下簡稱DOI)共同指定,包括:紐約自由女神像(Statue of Liberty National Monument)、波士頓國家歷史公園(Boston National Historical Park)、費城獨立國家歷史公園(Independence National Historical Park)、加州福爾索姆水壩(Folsom Dam)、亞利桑那州格倫峽谷大壩(Glen Canyon Dam)、華盛頓州大古力大壩(Grand Coulee Dam)、內華達州胡佛水壩(Hoover Dam)、密蘇里州傑弗遜國家擴張紀念公園(Jefferson National Expansion Memorial)、南達科他州拉什莫爾山國家紀念公園(Mount Rushmore National Memorial)、加州沙斯塔壩(Shasta Dam)。以上具體位置皆屬DOI管轄地區,也是FAA第一次將無人機之空域限制規定於DOI地標上,目前FAA仍對軍事基地進行類似空域限制。   限制無人機飛行之規則將於2017年10月5日生效,違反空域限制者,將採取法律行動,包含民事處罰和刑事追訴。只有少數例外情形,允許無人機在限制區內飛行,且必須和個別場所或FAA進行協調。FAA表示,正依聯邦法規第99.7條配合考慮其他聯邦機構對於無人機之其他限制要求。

美國先進製造國家計畫辦公室於今年(2015) 6月10日研提現況檢討報告與相關政策資料

  為檢視國內先進製造業復甦與計畫推進之近況,美國先進製造國家計畫辦公室(Advanced Manufacturing National Program Office, AMNPO)於今年(2015) 6月10日研提現況檢討報告與相關政策資料,該項報告主要可歸結「國內產業現況」、「計畫執行成效」與「法制組織」等重要面向 ,茲就該項報告之重點摘要如下: (一)國內先進製造產業現況檢視:   報告指出美國目前正喪失在先進產品領域全球領導地位,在進出口貿易呈現嚴重赤字,雖近年致力於先進製造之資源整合與共同研發等措施,然而,觀察基礎科研端到市場端仍存有落差。 (二)先進製造領域已設立45個研發創新中心:   研發創新中心為產業與學研機構共構之「區域應用性組織」,主要由學術研究聯盟、企業和區域管理機構所組成專注於扶持區域具經濟優勢之新興技術研發,發展在地技術能量。先進製造領域,截至目前為止,已設立45個研發創新中心。除透過研發創新中心之扶持外,另可透過中心之設立選定各該重點關鍵技術發展,間接培育美國各區域之先進製造技術之專業領域。美國境內研究型大學或非營利組織皆得提案申請,而獲選之區域創新研究機構可獲得聯邦政府5至7年資金補助,政府欲透過補助模式,扶持區域新創機構之自主運作與發展。而於七年發展階段後,該機構將形成財政自主,由該機構之行政委員會主導研發資金運用與分配。

Apple 對於Psystar案件之判決

  Apple在對Psystar的法律訴訟上贏得重要的勝利,美國政府聯邦法院已判決複製品製造者Psystar於販售個人電腦時事先安裝Mac OS X作業系統,已侵犯Apple的著作權。   在雙方提起簡易判決訴訟後一個月,美國地方法院法官William Alsup 表示Psystar已侵害Apple專用之重製權、散布權及衍生著作權,於判決中針對著作權侵害一事已被承認。並且確認Apple於Mac OS X產品之直接用戶授權合約,是限制使用於Apple生產的電腦,更特別禁止安裝此作業系統於其他電腦;在此同時,法官否決Psystar的論點:首次銷售原則所允許,買家可以任意使用此作業系統。 此外,法官同意Apple的聲明,Psystar侵害數位化千禧年著作權法案之反規避條款及反交易條款,另一方面,法官也否決Psystar對Apple濫用著作權的論點。   此判決並未包含其他Apple所提出的主張,包括:合約的侵害、商標的侵權及商標稀釋,法官也未提出給予Apple救濟上的權利,包括先前提及之永久禁止令,要求中止Psystar販售任何帶有Apple軟體的硬體並強迫其召回所有已售出帶有此作業系統之機器。   此判決對Apple而言,是決定性的勝利,但並非結束所有在法律上的爭議,12月14日將進行賠償的審訊,其餘審判也預訂於明年1月開始。

歐盟議會發布《可信賴人工智慧倫理準則》

  2019年4月9日,歐盟議會發布《可信賴人工智慧倫理準則》(Ethics Guidelines for Trustworthy AI)。此次內容大致延續歐盟人工智慧高階專家小組(High-level Expert Group on Artificial Intelligence)於2018年12月18日發布的《可信賴人工智慧倫理準則草案》(Draft Ethics Guidelines for Trustworthy Artificial Intelligence)之內容,要求人工智慧須遵守行善(do good)、不作惡(do no harm)、保護人類(preserve human Agency)、公平(be fair)與公開透明(operate transparency)等倫理原則;並在4月9日發布的正式內容中更加具體描述可信賴的人工智慧的具體要件,共計七面向概述如下: 人類自主性和監控(Human agency and oversight):AI係為強化人類能力而存在,使人類使用者能夠做出更明智的決策並培養自身的基礎能力。同時,AI應有相關監控機制以確保AI系統不會侵害人類自主性或是引發其他負面效果。本準則建議,監控機制應可透過人機混合(一種整合人工智慧與人類協作的系統,例如human-in-the-loop, human-on-the-loop, and human-in-command)的操作方法來實現。 技術穩健性和安全性(Technical Robustness and safety):為防止損害擴張與確保損害最小化,AI系統除需具備準確性、可靠性和可重複性等技術特質,同時也需在出現問題前訂定完善的備援計劃。 隱私和資料治理(Privacy and data governance):除了確保充分尊重隱私和資料保護之外,還必須確保適當的資料治理機制,同時考慮到資料的品質和完整性,並確保合法近用資料為可行。 透明度(Transparency):資料、系統和AI的商業模型應該是透明的。可追溯性機制(Traceability mechanisms)有助於實現這一目標。此外,應以利害關係人能夠理解的方式解釋AI系統的邏輯及運作模式。人類參與者和使用者需要意識到他們正在與AI系統進行互動,並且必須了解AI系統的功能和限制。 保持多樣性、不歧視和公平(Diversity, non-discrimination and fairness):AI不公平的偏見可能會加劇對弱勢群體的偏見和歧視,導致邊緣化現象更為嚴重。為避免此種情況,AI系統應該設計為所有人皆可以近用,達成使用者多樣性的目標。 社會和環境福祉(Societal and environmental well-being):AI應該使包含我們的後代在內的所有人類受益。因此AI必須兼顧永續發展、環境友善,並能提供正向的社會影響。  問責制(Accountability):應建立機制以妥當處理AI所導致的結果的責任歸屬,演算法的可審計性(Auditability)為關鍵。此外,應確保補救措施為無障礙設計。

TOP