歐盟設立歐洲研究院(European Research Council)對前瞻性研究提供經費補助

  歐盟最近宣布其新設立的歐洲研究院(European Research Council, ERC),自2月底開始運作。ERC是依據歐盟第七期研發綱要計畫(Seventh Framework Programme for Research and Technological Development, FP7)下之子計畫-”理念”計畫("Ideas" programme)所設立。2006年底通過的歐盟第七期研發綱要計畫,揭示歐盟在2007至2013年間的科技研發政策、研發投入的重點領域與經費挹注情形。與PF6相較,PF7經費大幅成長,每年平均成長至少達40%,單是2013年一年,經費成長更高達75%。

 

  ERC是第一個泛歐的經費補助機構,設立目的是為了贊助前瞻科學領域的研究活動。在設立第一年,歐盟挹注於ERC的經費即高達3億歐元,在FP7計畫的七年期間,ERC總計取得7.5 billion的經費。隨著ERC的設立,歐盟首度有了專為前瞻性研究量身訂作的經費補助運作機制,亦即交由歐洲科學界菁英,也就是由22位聲譽卓著的科學界菁英所組成的科學諮詢會(Scientific Council)自主管理,官僚系統不得對之表示意見。 歐盟希望藉由ERC的設立,促使科學界得以對最具有原創性的科學想法深入研究,以突破當前之知識界線,進而協助解決歐盟在社會、環境、經濟面所面臨之挑戰。

本文為「經濟部產業技術司科技專案成果」

相關連結
※ 歐盟設立歐洲研究院(European Research Council)對前瞻性研究提供經費補助, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=1708&no=57&tp=1 (最後瀏覽日:2026/01/01)
引註此篇文章
你可能還會想看
歐盟執委會發布指引以因應《人工智慧法》「禁止的人工智慧行為」條文實施

歐盟執委會於2025年2月4日發布「關於禁止的人工智慧行為指引」(Commission Guidelines on Prohibited Artificial Intelligence Practices)(下稱「指引」)」,以因應歐盟《人工智慧法》(AI Act,下稱AIA)第5條關於「禁止的人工智慧行為」之規定。該規定自2月2日起正式實施,惟其內容僅臚列禁止行為而未深入闡釋其內涵,執委會特別制定本指引以避免產生歧義及混淆。 第5條明文禁止使用人工智慧系統進行有害行為,包括:利用潛意識技術或利用特定個人或群體之弱點進行有害操縱或欺騙行為、實施社會評分機制、進行個人犯罪風險預測、執行無特定目標之臉部影像蒐集、進行情緒識別分析、實施生物特徵分類、以及為執法目的而部署即時遠端生物特徵識別系統等。是以,指引就各禁止事項分別闡述其立法理由、禁止行為之具體內涵、構成要件、以及得以豁免適用之特定情形,並示例說明,具體詮釋條文規定。 此外,根據AIA規定,前述禁令僅適用於已在歐盟境內「投放市場」、「投入使用」或「使用」之人工智慧系統,惟對於「使用」一詞,並未予以明確定義。指引中特別闡明「使用」之定義,將其廣義解釋為涵蓋「系統投放市場或投入使用後,在其生命週期任何時刻的使用或部署。」 指引中亦指出,高風險AI系統的特定使用情境亦可能符合第5條的禁止要件,因而構成禁止行為,反之亦然。因此,AIA第5條宜與第6條關於高風險AI系統的規定交互參照應用。 AIA自通過後,如何進行條文內容解釋以及法律遵循義務成為各界持續討論之議題,本指引可提升AIA規範之明確性,有助於該法之落實。

美國FTC認為政府擴大拜杜法權介入權適用範圍將引發專利叢林危機

美國聯邦貿易委員會(Federal Trade Commission, FTC)於2024年2月6日針對「介入權指引草案」(Draft Interagency Guidance Framework for Considering the Exercise of March-In Rights)提交意見書。介入權指引草案由美國國家標準技術研究院(National Institute of Standards and Technology, NIST)2023年12月8日公布於聯邦公報(Federal Register),旨在訂立政府機關發動《拜杜法》(Bayh-Dole Act)第203條「介入權」(March-in rights)之判斷流程與標準,以確保介入權發動具一致性。根據草案內容,當受政府補助之研發成果若經商業運用後被以「不合理價格」販售,而未滿足民眾健康與安全需求時,提供補助之政府機關應適時介入。 然而,介入權指引草案將「價格合理性」納入介入權發動要件,被美國各界質疑係為達成拜登政府打擊藥價之政策目的,亦即透過擴大、強化介入權之方式,將「受政府補助之專利藥」強制再授權專利,以降低藥品價格。 FTC於意見書中亦對此爭議提出看法,認為美國人民就處方藥須支付不斷上漲之昂貴價格,雖然賦予各機關審查「價格合理性」,將使得介入權發動更為廣泛且靈活,並得以監督藥品價格。惟擴大、強化介入權仍有隱患,尤其製藥公司恐為了保護其藥品專利,因此擴大申請專利權範圍導致專利叢林(patent thicket)現象產生,例如除將活性成分申請專利外,另將製程、劑型亦申請專利,此為未來各政府機關應該共同解決之問題。

全美達向英特爾提出專利訴訟Transmeta files suit against Intel

  加州,聖荷西(San Jose)-雖然已於去年(2005)放棄以x86為基礎之微處理器業務,全美達(Transmeta Corp.)日前宣告英特爾(Intel Corp.)侵害其專利權,並且已經對英特爾提起訴訟。   全美達向美國Delaware地方法院提起訴訟,主張英特爾侵害全美達多達10項的專利權。根據全美達表示,這些專利涵蓋了電腦架構以及電源效能技術。此外,該訴訟案指控英特爾藉由製造以及販賣多種微處理器產品而已經侵害或正在侵害前述之專利權,該等微處理器產品至少包含英特爾的Pentium III、Pentium 4、Pentium M、Core以及Core 2等產品線。並且,全美達請求法院禁止英特爾繼續銷售侵權產品,並提供金錢賠償,包括為侵權產品支付合理的專利費、三倍的賠償金和律師費。   全美達執行副總裁John O'Hara Horsley表示,全美達已經發展出完整且強大的智慧財產權組合,以掌握並且保護發展微處理器技術的重要資產。此外,John O'Hara Horsley也表示,英特爾在主要處理器產品線中使用了不少全美達的創新技術,該公司是在向英特爾要求合理授權費卻失敗之後,決定走上法律程序。

美國加州「Asilomar人工智慧原則決議」

  美國加州議會於2018年9月7日通過Asilomar人工智慧原則決議(23 Asilomar AI Principles, ACR-215),此決議表達加州對於「23條Asilomar人工智慧原則」之支持,以作為產業或學界發展人工智慧、政府制定人工智慧政策之指標,並提供企業開發人工智慧系統時可遵循之原則。依此法案所建立之重要指標如下: (1)於研究原則上,人工智慧之研究應以建立對於人類有利之人工智慧為目標。 (2)於研究資助上,人工智慧之研究資助應著重幾個方向,如:使人工智慧更加健全且可抵抗外界駭客干擾、使人工智慧促進人類福祉同時保留人類價值以及勞動意義、使法律制度可以順應人工智慧之發展。 (3)於科學政策之連結上,人工智慧研究者與政策擬定者間應有具有建設性且健全之資訊交流。 (4)於研究文化上,人工智慧研究者應保持合作、互信、透明之研究文化。 (5)於安全性上,人工智慧研究團隊應避免為了研究競爭而忽略人工智慧應具備之安全性。 (6)人工智慧系統應該於服務期間內皆具備安全性及可檢視性。 (7)人工智慧系統之編寫,應可使外界於其造成社會損失時檢視其出錯原因。 (8)人工智慧系統如應用於司法判斷上,應提供可供專門人員檢視之合理推論過程。 (9)人工智慧所產生之責任,應由設計者以及建造者負擔。 (10)高等人工智慧內在價值觀之設計上,應符合人類社會之價值觀。 (11)高等人工智慧之設計應可與人類之尊嚴、權利、自由以及文化差異相互調和。 (12)對於人工智慧所使用之資料,其人類所有權人享有擷取、更改以及操作之權利。 (13)人工智慧之應用不該限制人類「客觀事實上」或「主觀知覺上」之自由。 (14)人工智慧之技術應盡力滿足越多人之利益。 (15)人工智慧之經濟利益,應為整體人類所合理共享。 (16)人類對於人工智慧之內在目標應享有最終設定權限。 (17)高等人工智慧所帶來或賦予之權力,對於人類社會之基本價值觀應絕對尊重。 (18)人工智慧所產生之自動化武器之軍備競賽應被禁止。 (19)政策上對於人工智慧外來之發展程度,不應預設立場。 (20)高等人工智慧系統之研發,由於對於人類歷史社會將造成重大影響,應予以絕對慎重考量。 (21)人工智慧之運用上,應衡量其潛在風險以及可以對於社會所帶來之利益。 (22)人工智慧可不斷自我循環改善,而可快速增進運作品質,其安全標準應予以嚴格設定。 (23)對於超人工智慧或強人工智慧,應僅為全體人類福祉而發展、設計,不應僅為符合特定國家、組織而設計。

TOP