歐盟提出設立歐洲技術研究院(European Institute of Technology, EIT)之規劃草案

  歐盟在最新一期的研發剛要計畫( The Seventh Framework Proposal )中,除了持續以計畫補助方式推動歐盟的研發能力外,最值得注意者乃有關設立「歐洲技術研究院」( European Institute of Technology, EIT )的規劃。最近歐盟執委會已經提出 EIT 設立的法源基礎草案,根據目前規劃, EIT 旨在吸引產學研各界菁英加入,肩負打破產學研界間之藩籬之使命,未來 EIT 除為產學研合作之參考模式外,並將扮演歐洲地區創新、研究與高等教育之菁英領航者( a flagship for excellence ),期使歐盟得更有效率地面對全球化及知識經濟社會所帶來之挑戰。


  就組織面而言,
EIT 係整合由上而下及由下而上兩種組織結構: EIT 本身具有獨立之法人格,其內部除設置管理局( Governing Board , GB )監督組織運作外,並有約六十位常設之科學及職員人力;另 EIT 將由數個知識及創新社群( Knowledge and Innovation Communities, KICs )組成,各 KICs 代表不同區域之大學、研究組織與企業,各 KISs EIT 以契約規範彼此間的權利義務關係;至於各個 KICs 的組織結構,以及其如何達到契約目的,則交由其自治。目前歐盟執委會規劃在 2013 年以前建構約六個 KICs ,預計在此以前, EIT 需要來自公私部門總計約 24 億歐元( € 2.4 bn )的經費資助。


  由於
EIT 的設立尚須經過歐洲議會及歐盟理事會同意,若執委會目前所提出的設立規劃草案順利取得前述兩機構同意,預計 EIT 將可能從 2008 年起正式運作,並在 2010 年以前完成兩個 KICs 的設立。

本文為「經濟部產業技術司科技專案成果」

相關連結
※ 歐盟提出設立歐洲技術研究院(European Institute of Technology, EIT)之規劃草案, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=514&no=55&tp=1 (最後瀏覽日:2024/11/23)
引註此篇文章
你可能還會想看
歐盟議會發布《可信賴人工智慧倫理準則》

  2019年4月9日,歐盟議會發布《可信賴人工智慧倫理準則》(Ethics Guidelines for Trustworthy AI)。此次內容大致延續歐盟人工智慧高階專家小組(High-level Expert Group on Artificial Intelligence)於2018年12月18日發布的《可信賴人工智慧倫理準則草案》(Draft Ethics Guidelines for Trustworthy Artificial Intelligence)之內容,要求人工智慧須遵守行善(do good)、不作惡(do no harm)、保護人類(preserve human Agency)、公平(be fair)與公開透明(operate transparency)等倫理原則;並在4月9日發布的正式內容中更加具體描述可信賴的人工智慧的具體要件,共計七面向概述如下: 人類自主性和監控(Human agency and oversight):AI係為強化人類能力而存在,使人類使用者能夠做出更明智的決策並培養自身的基礎能力。同時,AI應有相關監控機制以確保AI系統不會侵害人類自主性或是引發其他負面效果。本準則建議,監控機制應可透過人機混合(一種整合人工智慧與人類協作的系統,例如human-in-the-loop, human-on-the-loop, and human-in-command)的操作方法來實現。 技術穩健性和安全性(Technical Robustness and safety):為防止損害擴張與確保損害最小化,AI系統除需具備準確性、可靠性和可重複性等技術特質,同時也需在出現問題前訂定完善的備援計劃。 隱私和資料治理(Privacy and data governance):除了確保充分尊重隱私和資料保護之外,還必須確保適當的資料治理機制,同時考慮到資料的品質和完整性,並確保合法近用資料為可行。 透明度(Transparency):資料、系統和AI的商業模型應該是透明的。可追溯性機制(Traceability mechanisms)有助於實現這一目標。此外,應以利害關係人能夠理解的方式解釋AI系統的邏輯及運作模式。人類參與者和使用者需要意識到他們正在與AI系統進行互動,並且必須了解AI系統的功能和限制。 保持多樣性、不歧視和公平(Diversity, non-discrimination and fairness):AI不公平的偏見可能會加劇對弱勢群體的偏見和歧視,導致邊緣化現象更為嚴重。為避免此種情況,AI系統應該設計為所有人皆可以近用,達成使用者多樣性的目標。 社會和環境福祉(Societal and environmental well-being):AI應該使包含我們的後代在內的所有人類受益。因此AI必須兼顧永續發展、環境友善,並能提供正向的社會影響。  問責制(Accountability):應建立機制以妥當處理AI所導致的結果的責任歸屬,演算法的可審計性(Auditability)為關鍵。此外,應確保補救措施為無障礙設計。

資通訊安全下之訊息分享與隱私權保障—簡析美國2015年網路保護法

美國如何管制新興技術出口

  美國國會於2018年8月13日通過之《出口管制改革法》(Export Control Reform Act of 2018, ECRA)第1758條,以國家安全為由,授權商務部建立對美國新興與基礎技術出口、再出口或移轉之認定與管制程序。有鑑於此,商務部下轄之工業安全局(Bureau of Industry and Security, BIS)於同年11月19日發布了法規制定預告(advance notice of proposed rulemaking),對外徵求關於認定「新興技術」之意見。   BIS指出,美國政府多年來依循《出口管制條例》(Export Administration Regulations, EAR)限制特定敏感技術或產品出口,以避免關鍵技術落入他國手中。惟既有之審查範圍已不足以涵蓋近年許多重大創新技術,故BIS先行臚列了14項擬在未來實施出口管制的新興科技,向公眾徵求其是否確屬「涉及國家安全之特定新興技術」相關意見。該14項科技包含:(1)生物技術;(2)人工智慧與機器學習技術;(3) 定位、導航和定時技術;(4)微處理器技術;(5)先進計算技術;(6)數據分析技術;(7)量子信息和傳感技術;(8)物流技術;(9)積層製造技術;(10)機器人;(11)腦機介面;(12)高超聲速;(13)先進材料;(14)先進監控技術。   除此之外,民眾亦得對如何認定「新興技術」提出一般性之意見,俾將來政策實施更加周全。意見徵求期間從2018年11月19日起,至2019年1月10日截止。

中國大陸將加速行動遊戲審批程序、落實管制

  中國大陸國家新聞出版廣電總局於日前公告「國家新聞出版廣電總局貫徹落實國務院全面督查整改落實進展情況」,提出將針對移動網絡遊戲(下稱行動遊戲)審批制度進行改革,改善目前審批時間過長、效率不高問題。   據公告內容顯示,未來審批制度將朝向雙軌制方向發展,對於未涉及民族、宗教、歷史、政治、疆域等議題,且無故事情節或故事情節單純(如棋盤類等休閒益智遊戲)之陸製行動遊戲,將採取簡易審批制度,以提高審查效率。另外,將增倍審查專家員額至20名,以維持審查品質。在上述改革推動下,目標將縮短審查時間,由現行30天初審、15天複審期限,分別壓縮至15天及5天。其進一步具體做法,中國大陸國家新聞出版廣電總局現正研擬「關於規範移動網絡遊戲出版審批管理的通知」,預計於2014年12月下旬發布施行。   面對近幾年行動遊戲的興起,中國大陸政府不斷重申行動遊戲須符合網路遊戲審批相關規定。然現實是,在行動遊戲數量呈現爆炸性成長,以及生命週期短暫之特色下,遊戲業者未依規定送審情形,並不少見。此次改革的推動,加上先前其他部會針對行動遊戲已提出之配套管制方案(如工信部之APP黑名單數據庫、文化部之企業自審作法),可預期行動遊戲的內容管制將日趨落實。對此,我方行動遊戲開發業者宜留意相關發展,納入後續遊戲開發方向與市場策略布局之評估要素一環。

TOP