中國國務院發布AI行動意見,全面推動智慧應用加速現代化建設 資訊工業策進會科技法律研究所 2025年12月10日 隨著人工智慧(下稱AI)技術的快速發展,全球各國政府均積極推動AI在百工百業各領域的應用,以提升國家創新力、產業競爭力與社會治理效能,中國政府亦是如此。同時,受地緣政治及經貿競爭的影響,中國政府為強化國家供應鏈安全與韌性,由政府主導加速現代化建設,以推動智慧社會新型態的發展為目標。 壹、事件摘要 中國國務院於2025年8月26日發布「關於深入實施人工智能+行動的意見」(國發[2025〕11號)(下稱行動意見)[1],旨在全面推動AI應用於各行各業,以提升國內產業生產力與創新量能,並促進人機協作的智慧社會新型態,作為推動「中國式現代化」發展之重要建設。 貳、行動意見重點內容 於該行動意見中,中國國務院提出三項階段性目標,分別為: 一、 2027年前:AI應用普及率達70%以上 推動科技、產業、消費、民生、治理與全球合作的6大核心領域全面結合AI應用,擴大AI使用普及率達70%以上,以達加速公共治理與產業創新之成效。 二、 2030年前:AI應用普及率達90%以上 強化前述6大核心領域,持續擴大AI使用普及率可達90%以上,實現研發成果共享之效益。 三、 2035年前:AI應用普及率達100% 建立全面人機協作之智慧經濟與社會新型態,作為國家現代化建設之重要基礎。 為實現前述三階段目標,中國政府針對6大核心領域提出具體行動方向,重點整理如下: 一、 AI+科學技術 為加速科研進程並推動大模型建設與應用,將強化基礎科學研究平台和重要科技基礎建設的智慧化升級,打造開放式且高品質的共享資料集,以促進AI跨領域的結合發展。同時,亦積極促進AI帶動研發模式創新與效能的提升,以加速技術研發和產品應用落地。 二、 AI+產業發展 鼓勵企業將AI導入內部策略規劃、組織架構與業務流程設計等,以建構創新的商業模式;並在技術、產品與服務體系中推動智慧化應用,強化供應鏈各環節與AI的協作,同時最佳化工業、農業及服務業的生產與服務模式,藉以帶動傳統產業轉型升級,建構新型生態體系並加速整體產能提升。 三、 AI+消費增質 透過推動AI與服務的結合,建立多元及智慧化的服務模式,加速發展智慧消費相關基礎建設;此外,推動AI應用於各類商品與設備,重點發展智慧聯網汽車、智慧機器人、智慧家居、智慧穿戴等終端商品,加速技術融合與產品創新,以提升人民生活的品質。 四、 AI+民生福祉 透過推動人機協作的模式,提供新型的工作、學習與生活型態,建立更具智慧化的社會發展模式。例如,企業雇主可藉由AI協助建立新型組織架構和管理模式,提升傳統職務執行之效率,亦或是透過AI進行技能培訓以因應勞動力短缺之情形;學校教育面向則可推動AI融入教學教材,推動更加多元與互動之學習生態;生活方面則計劃推動AI健康照護、社會服務等領域廣泛應用,全面提升公共服務與生活品質,形成具包容性的智慧化社會。 五、 AI+智慧治理 推動AI全面導入社會治理過程,以促進市政管理、政務服務及公共資源運作的智慧化轉型,並利用AI強化公共安全與網路安全治理能力,完善國家安全防護的機制;於生態層面,將運用AI推動綠色永續與人機協作,強化於環境與碳管理領域的監測、預測及治理能力,促進高效及精準的治理模式。 六、 AI+全球合作 推動AI的普及與共向,建立開放生態系、強化運算能力、資料與人才領域的國際合作,共同提升全球南方AI基礎建設,縮減全球數位落差,協助各國可平等參與智慧化發展過程,共同因應AI應用相關風險,確保技術發展安全且可信賴地發展。 參、事件評析 從上述中國國務院發布之行動意見可知,其目標在於藉由強化安全及可信賴的AI,並促進AI應用於各領域的發展,以建構可持續性的智慧化生態系,提升社會治理效率與全民生活的品質,以利國家經濟與科技的共同發展。 然而,該行動意見雖明確提出國家整體目標及治理方向,為相關領域的智慧化發展提供指引,惟對於各項目標尚未提出可操作性措施、具體政策細節,或對產官學各單位可獲得的政府資源、技術支持與協助等進行明確規範。故後續仍需持續關注相應政策措施及配套資源的發布,以評估其實際推動AI應用之成效。 [1]《国务院关于深入实施“人工智能+”行动的意见》(國發[2025]11号)。
英國發布人工智慧網路資安實務守則英國政府於2025年1月31日發布「人工智慧網路資安實務守則」(Code of Practice for the Cyber Security of AI,以下簡稱「實務守則」),目的是提供人工智慧(AI)系統的網路資安指引。該實務守則為英國參考國際上主要標準、規範後所訂定之自願性指引,以期降低人工智慧所面臨的網路資安風險,並促使人工智慧系統開發者與供應商落實基本的資安措施,以確保人工智慧系統的安性和可靠性。 由於人工智慧系統在功能與運作模式上與傳統網路架構及軟體有明顯的不同,因此產生新的資安風險,主要包含以下: 1. 資料投毒(Data Poisoning):在AI系統的訓練資料中蓄意加入有害或錯誤的資料,影響模型訓練結果,導致人工智慧系統產出錯誤推論或決策。 2. 模型混淆(Model Obfuscation):攻擊者有意識地隱藏或掩飾AI模型的內部運作特徵與行為,以增加系統漏洞、引發混亂或防礙資安管理,可能導致AI系統的安全性與穩定性受損。 3. 輸入間接指令(Indirect Prompt Injection):藉由輸入經精心設計的指令,使人工智慧系統的產出未預期、錯誤或是有害的結果。 為了提升實務守則可操作性,實務守則涵蓋了人工智慧生命週期的各階段,並針對相關角色提出指導。角色界定如下: 1. 人工智慧系統開發者(Developers):負責設計和建立人工智慧系統的個人或組織。 2. 人工智慧系統供應鏈(Supply chain):涵蓋人工智慧系統開發、部署、營運過程中的的所有相關個人和組織。 實務守則希望上述角色能夠參考以下資安原則,以確保人工智慧系統的安全性與可靠性: 1. 風險評估(Risk Assessment):識別、分析和減輕人工智慧系統安全性或功能的潛在威脅的過程。 2. 資料管理(Data management):確保AI系統整個資料生命週期中的資料安全及有效利用,並採取完善管理措施。 3. 模型安全(Model Security):在模型訓練、部署和使用階段,均應符合當時的技術安全標準。 4. 供應鏈安全(Supply chain security):確保AI系統供應鏈中所有利益相關方落實適當的安全措施。 「人工智慧網路資安實務守則」藉由清晰且全面的指導方針,期望各角色能有效落實AI系統安全管控,促進人工智慧技術在網路環境中的安全性與穩健發展。
RFID應用與相關法制問題研析-個人資料在商業應用上的界限 巴西政府與美國藥商達成專利協定經歷十天的談判,巴西政府與美國製藥廠商 Abbott Laboratories終於達成專利協定。在此之前,巴西政府表示將開始製造一種主要抗HIV/AIDS藥物,Kaletra,的學名藥。此舉也造成製藥商的壓力,使其同意在今後六年降低Kaletra的價格,以維持該藥物在巴西的專利權,巴西也將得到Kaletra的下ㄧ代新配方。 巴西目前每年需給付約1.07億美金(約34億台幣)購買Kaletra,並免費提供給國內病患。 Abbort Laboratories 同意在不提高整體費用的前提下治療更多病患,為巴西節省超過2.5億美金。製藥商表示巴西是非洲之外取得最多價格讓步的國家。另外,若此藥物的專利權被破壞,製藥公司也將不敢投資進一步的研究。 此談判受到許多開發中國家的關注,在這些國家約有 3600 萬人感染 HIV 病毒。巴西政府在最後一刻改變心意,同意不破壞專利權的舉動,必定會激怒許多 HIV 遊說團體。這些團體一再敦促巴西政府破壞 Kaletra 之專利權。他們認為,根據世界貿易組織法則( World Trade Organization rules ),破壞該藥物專利權是合法的,並且有助於降低全世界抗逆轉濾過性病毒藥物的價格。