何謂「國家科學技術發展計畫」?

  「國家科學技術發展計畫」為政府考量國家發展方向、社會需求情形以及區域均衡發展,而擬定之國家科學技術政策與推動科學技術研究發展之依據。依照《科學技術基本法》第10條之規定,國家科學技術發展計畫之訂定,應參酌中央研究院、科學技術研究部門、產業部門及相關社會團體之意見,並經全國科學技術會議討論後,由行政院核定。

  全國科學技術會議每四年召開一次,最近一次會議為2013年的「第九次全國科技會議」,該次會議通過了民國102-105年的「國家科學技術發展計畫」,針對我國科技發展提出7項目標、27項策略及58項重要措施。7項目標包括:提升臺灣的學研地位、做好臺灣的智財布局、推動臺灣永續發展、銜接上游學研與下游產業、推動由上而下的科技計畫、提升臺灣科技產業創新動能、解決臺灣的科技人才危機等。

本文為「經濟部產業技術司科技專案成果」

※ 何謂「國家科學技術發展計畫」? , 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=7582&no=0&tp=5 (最後瀏覽日:2026/03/22)
引註此篇文章
你可能還會想看
德國公佈聯邦政府人工智慧戰略要點

  德國政府於2018年7月18公佈「聯邦政府人工智慧戰略要點」(Key points for a Federal Government Strategy on Artificial Intelligence),係由德國聯邦經濟事務及能源部、聯邦教育及研究部,與聯邦勞動及社會事務部共同撰寫而成。 德國政府表示該要點將作為推動人工智慧技術與產業發展的基礎方針,並希望以負責任的方式以及朝向社會利益發展的方向進行人工智慧開發與應用。   德國人工智慧戰略要點摘要如下: 1. 研究能量:必須大幅增加研究支出並且爭取世界一流人才。 2. 人工智慧能力應泛分佈在社會各處:各學科與產業領域皆需要人工智慧。 3. 資料作為人工智慧發展的基礎:資料是人工智慧發展的重要關鍵,德國的資料發展重點將放在資料品質的強化。 4. 基礎設施:人工智慧中重要的技術「深度學習」,不僅需要大量資料,同時還需要強大的計算能力,德國需要加強計算能力的硬體設備。 5. 經濟應用:德國數位化發展的下一步需要仰賴人工智慧技術,尤其是中小企業採納人工智慧技術方面將會是焦點之一。 6. 社會法制:人工智慧發展過程中牽涉許多道德以及法制、監管議題,德國政府認為這些都必須請不同利害關係人共同公開討論。 7. 國際合作:德國作為歐盟會員國之一,未來的人工智慧發展將力求與歐盟各國合作。   整體而言,德國的人工智慧戰略著重在建立人工智慧生態系統,並強調人與機器之間的合作關係,為人工智慧產業發展奠定良好基礎。德國政府將基於此要點繼續制定進一步的人工智慧戰略,並預計將於2018年12月公佈德國的人工智慧戰略完整報告。

藥品監管機構負責人組織與歐洲藥品管理局聯合巨量資料指導小組發布2021-2023年工作計畫,提高巨量資料於監管中之效用

  藥品監管機構負責人組織(Heads of Medicines Agencies, HMA)與歐洲藥品管理局(European Medicines Agency, EMA)聯合巨量資料指導小組(HMA-EMA joint Big Data Steering Group, BDSG)於2021年8月27日發布「巨量資料指導小組2021-2023年工作計畫」(Big Data Steering Group Workplan 2021-2023),將採以患者為焦點(patient-focused)之方法,將巨量資料整合至公衛、藥物開發與監管方法中,以提高巨量資料於監管中之效用。指導小組將利用「資料分析和真實世界訊問網路」(Data Analysis and Real World Interrogation Network, DARWIN EU)作為將真實世界資料整合至監管工作之關鍵手段; DARWIN EU諮詢委員會(Advisory Board)已於2021年建立,DARWIN EU協調中心(Coordination Centre)亦將於2022年初開始運作。   為確保資料品質與代表性,未來工作計畫將與「邁向歐洲健康資料空間–TEHDAS」(Towards A European Health Data Space – TEHDAS)合作,關注資料品質之技術與科學層面,並將於2022年提出第一版「歐洲監管網路資料品質框架」(data quality framework for the EU Regulatory Network)、「真實世界資料來源選擇標準」(criteria for the selection of RWD sources)、「詮釋資料優良規範指引」(metadata good practice guide)、「歐盟真實世界資料公用目錄」(public catalogue of European RWD)等規範。   此外,工作計畫將於2021年底舉辦「學習計劃」(learnings initiative)研討會,討論包括EMA人用藥品委員會(Committee for Medicinal Products for Human Use, CHMP)對於真實世界證據於藥品上市許可申請(Marketing Authorization Application, MAA)、適應症擴張(extensions of indications)之審查,以及過去真實世界資料分析試點於委員會之決策等議題,以利後續指引之修正。   最後,工作計畫預計於2021年底完成「健康照護資料二次使用之資料保護問與答文件」(question and answer document on data protection in the context of secondary use of healthcare data),以指導利益相關者與促進公共衛生研究,並發布由歐盟監管網路(EU Regulatory Network)同意之對於藥品監管(包括巨量資料)之資料標準化戰略。

歐洲資料保護監管機關研議提出「智慧電表系統發展準備建議」研究報告

  歐洲資料保護監管機關(European Data Protection Supervisor,以下簡稱EDPS)是一個獨立的監督機關,其任務主要在於監督歐盟個人資料的管理程序、提供影響隱私的政策及法制建議、與其他類似機關合作以確保資料的保護。   EDPS於今(2012)年6月8日,針對歐盟執委會於今(2012)年3月9日發布的「智慧電表系統發展準備建議」(Recommendation on preparations for the roll-out of smart metering systems,以下簡稱準備建議)提出相關意見。「智慧電表系統發展準備建議」乃係針對智慧電表部署之資料安全保護及經濟成本效益評估,提出發展準備建議,供會員國於進行相關建置及制定規範時之參考。然EDPS指出,執委會對於智慧電表中個人資料保護的重視雖值得肯定,但並未在準備建議中提供更具體、全面且實用的指導原則。智慧電表系統雖能帶來顯著的利益,但造成個人資料的大量蒐集,可能導致隱私的外洩,或相關數據遭使用於其他目的。   有鑑於相關風險,EDPS認為在準備建議中,應更加強其資料保護的安全措施,至少應包含對資料控制者在處理個人資料保護評估時有強制的要求;此外,是否有必要進行歐盟層級的立法行動亦應予以評估。EDPS提出的意見主要包括:(1)應提出更多有關選擇資料當事人及處理相關資料的法律依據,例如電表讀取的頻率、是否需取得資料當事人同意;(2)應強制「提升隱私保護技術」(privacy-enhancing technologies)的適用,以限縮資料的使用;(3)從資料保護的角度來釐清參與者的責任;(4)關於保存期間的相關原則,例如對於家戶詳細消費資訊的儲存期間、或在針對帳單處理的情形;(5)消費者能直接近取其能源使用數據,提供有效的方式使資料當事人知悉其資料的處理及揭露,提供有關遠端遙控開關之功能等訊息。

歐盟提出人工智慧法律調和規則草案

  歐盟執委會(European Commission)於2021年4月21日提出「人工智慧法律調和規則草案」(Proposal for a Regulation Laying Down Harmonised Rules on Artificial Intelligence (Artificial Intelligence Act) and Amending Certain Union Legislative Acts)(簡稱AI規則草案),旨在平衡「AI運用所帶來的優勢」與「AI對個人或社會所帶來的潛在負面衝擊」,促使會員國在發展及運用AI時,能採取協調一致的態度及方法,共同維護歐洲公民基本權利與歐盟價值。   歐盟自2019年起即倡議發展「值得信賴的AI」(Trustworthy AI)。AI規則草案之提出,除了落實執委會2019年至2024年之政策願景外,亦呼應2020年歐洲議會(European Parliament)之建議—針對AI應用之機會與利益採取立法行動,並確保合乎倫理原則。惟鑒於歐盟在環境、健康、公共事務、金融、交通、農業等領域對AI應用之高度需求,以及企業仰賴AI技術提升競爭優勢等因素,執委會係以「風險為基礎」之概念取向(risk-based approach)制定AI規則草案,避免對新技術發展造成不必要的限制或阻礙。   本規則草案將AI系統,依其「對歐盟基本權利或價值所創造的風險程度」,分為下列三種類型,並施以不同程度的監理方式: 一、不可接受之風險:原則上禁止使用此類型AI系統或使其進入歐盟市場。例如:利用潛意識技術操控個人、在公共場合利用「即時遠端生物辨識系統」進行執法、公務機關普遍對個人進行社會評分等。 二、高風險:於附錄中列出所謂高風險AI系統,要求高風險AI系統之提供者遵循風險管理、資料治理、文件紀錄保存、透明性與資訊揭露、人為監督、健全性、準確性與資安等要求;且AI系統進入歐盟市場前,需進行符合性評估(conformity assessment),進入市場後,則需持續監控。 三、非不可接受之風險亦非高風險:鼓勵AI系統提供者或使用者,自願建立行為準則(codes of conduct)。   AI規則草案亦鼓勵會員國建立AI監理沙盒(regulatory sandbox)機制,且以中小企業、新創公司為優先對象,使創新AI系統進入市場之前,能於可控環境中依明確計畫進行開發、測試與驗證。

TOP