何謂「“十三五”技術市場發展專項規劃」?

  中國大陸發布「“十三五”技術市場發展專項規劃」,在十二五時期,中國大陸不斷的推動技術市場的進步與發展,在政策上,不斷的更新法規,包括修訂《中國大陸促進科技成果轉化法》,進而促使《中國大陸促進科技成果轉化法》、《中國大陸科技進步法》、《中國大陸合同法》和地方技術市場法規共同規範了對中國大陸技術市場的保障。

  在十三五時期,中國大陸提出六項主要任務,分述如下:(一)使保障技術市場的法規更為完整;(二)完整技術市場體系的建構;(三)加速促進成果轉化的步調;(四)利用技術平台,使創新創意相互流動;(五)提高技術市場人才的專業能力;(六)合理化的監督管理機制。

本文為「經濟部產業技術司科技專案成果」

※ 何謂「“十三五”技術市場發展專項規劃」?, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=7990&no=57&tp=1 (最後瀏覽日:2026/03/07)
引註此篇文章
你可能還會想看
英國下議院正在二讀審查商業及貿易部提交之數位市場、競爭和消費者法案

英國商業及貿易部(Department for Business and Trade)於2023年4月25日向下議院提交《數位市場、競爭和消費者法案》(Digital Markets, Competition and Consumers Bill,以下稱DMCC法案),該法案提議對既有的企業競爭與消費者權益規範進行調整,以促進數位市場之競爭及創新。DMCC法案正在下議院進行二讀中,法案架構參考澳洲與歐盟相關制度規範,期望能藉政府干預而調解大型網路平台分別與小型媒體、消費者間議價能力失衡及資訊不對稱問題。 DMCC法案將授權英國競爭暨市場管理署(Competition and Markets Authority)及其轄下數位市場部(Digital Markets Unit)監管與確保數位市場之開放性,並強化消費者權益的保護。法案主要分為三部分: 一、更新數位市場制度:數位市場部將依據企業的商業模式、全球或英國營業總額與市場影響力等面向,判斷該企業是否具策略市場地位(Strategic Market Status,以下稱SMS),並為SMS企業設定行為準則,避免其策略或活動影響市場自由。 二、公平競爭:DMCC法案調整《競爭法》(Competition Act 1998)涵蓋範圍,自地域管轄擴張為對英國貿易產生直接、實質與可預見影響的境內、外行為;同時加強競爭暨市場管理署調查反競爭行為與執法權限,包含扣押文件及證據、面談案件任何關係人。 三、強化消費者保護:DMCC法案將替代部分《保護消費者免受不公平交易條例》(Consumer Protection from Unfair Trading Regulations 2008),且針對線上交易提供新的契約規則,賦予競爭暨市場管理署調查侵權行為之權力。 DMCC法案正在下議院審查中,但草案內容已引起各方關注,正式通過前仍可能因社會各方利益團體之遊說、磋商而修改條文內容。

英國發布人工智慧網路資安實務守則

英國政府於2025年1月31日發布「人工智慧網路資安實務守則」(Code of Practice for the Cyber Security of AI,以下簡稱「實務守則」),目的是提供人工智慧(AI)系統的網路資安指引。該實務守則為英國參考國際上主要標準、規範後所訂定之自願性指引,以期降低人工智慧所面臨的網路資安風險,並促使人工智慧系統開發者與供應商落實基本的資安措施,以確保人工智慧系統的安性和可靠性。 由於人工智慧系統在功能與運作模式上與傳統網路架構及軟體有明顯的不同,因此產生新的資安風險,主要包含以下: 1. 資料投毒(Data Poisoning):在AI系統的訓練資料中蓄意加入有害或錯誤的資料,影響模型訓練結果,導致人工智慧系統產出錯誤推論或決策。 2. 模型混淆(Model Obfuscation):攻擊者有意識地隱藏或掩飾AI模型的內部運作特徵與行為,以增加系統漏洞、引發混亂或防礙資安管理,可能導致AI系統的安全性與穩定性受損。 3. 輸入間接指令(Indirect Prompt Injection):藉由輸入經精心設計的指令,使人工智慧系統的產出未預期、錯誤或是有害的結果。 為了提升實務守則可操作性,實務守則涵蓋了人工智慧生命週期的各階段,並針對相關角色提出指導。角色界定如下: 1. 人工智慧系統開發者(Developers):負責設計和建立人工智慧系統的個人或組織。 2. 人工智慧系統供應鏈(Supply chain):涵蓋人工智慧系統開發、部署、營運過程中的的所有相關個人和組織。 實務守則希望上述角色能夠參考以下資安原則,以確保人工智慧系統的安全性與可靠性: 1. 風險評估(Risk Assessment):識別、分析和減輕人工智慧系統安全性或功能的潛在威脅的過程。 2. 資料管理(Data management):確保AI系統整個資料生命週期中的資料安全及有效利用,並採取完善管理措施。 3. 模型安全(Model Security):在模型訓練、部署和使用階段,均應符合當時的技術安全標準。 4. 供應鏈安全(Supply chain security):確保AI系統供應鏈中所有利益相關方落實適當的安全措施。 「人工智慧網路資安實務守則」藉由清晰且全面的指導方針,期望各角色能有效落實AI系統安全管控,促進人工智慧技術在網路環境中的安全性與穩健發展。

概念驗證中心(Proof of Concept Center, PoCC)

  概念驗證中心(Proof of Concept Center, PoCC)源自美國研究型大學各校為加速大學科研成果商業化,於內部建立的專業型機構。全美第一所PoCC是2001年設立於加州大學聖地牙哥分校的「里比西中心」(the William J. von Liebig)。   為了因應美國大學科研成果商業化過程中所遇到的阻礙,例如:資金與資源缺乏導致研發人員動力不足、研發人員對於市場需求資訊不對等、技術開發提升緩慢以及政府激勵政策不足等問題。PoCC以解決大學與企業之間存在的各種差異與衝突為目標,並透過下列手段強化科技成果商業化動力,提升商業化績效:1、通過種子基金資助,為無法獲得資金支持的早期研究提供經費挹注;2、為大學科研成果商業化提供市場顧問與技術開發諮詢,以及智慧財產權保護等諮商;3、創業人才教育及培訓,促進創業文化並進行創業教育,以增強大學與產業協同創新能力。

簡介美國無線電視所有權限制相關規則之發展

TOP