日本內閣官房提出未來投資戰略報告加速機器人實用及活化

  日本內閣官房日本經濟再生總合事務局(内閣官房日本経済再生総合事務局)在2017年6月9日第10次「未來投資會議」中提出未來投資戰略2017報告(未来投資戦略2017~Society 5.0 の実現に向けた改革~),在成長的戰略成果(5)日本第四次產業革命及新經濟的展開中,分別對於機器人實用、物聯網(IOT)、大數據(BIG DATA)、人工智慧(AI)等提出成果及未來計畫。

  機器人加速實用化:首先,機器人廣泛利用在商業設施、機場等日常生活空間,於2016年9月羽田機場設置機器人實驗室「Haneda Robotics Lab」,利用機器人改善服務並補充勞動力。有關打掃清潔、協助移動、查詢服務等17種機器人,將進行實證實驗。而路面協助行走型機器人「RT.1」已經完成,於2015年生活協助型機器人之安全性得到國際認證,其後發展之「RT.2」將使用於長期照顧層面。其次,開發農業使用之自動駕駛拖車,並提供工作實際狀況和土壤狀況之電子管理服務。今年6月開始商業化之自動駕駛顯示器,可以監控自動駕駛耕作機器進行自動耕作等。在物流管理方面,於2018年將於山間部等地區進行無人機的包裹遞送,2020年將在都會區全面無人包裹遞送。預計將與日立等相關公司,進行物流管理系統之開發及活用福島機器人測試場域。

本文為「經濟部產業技術司科技專案成果」

※ 日本內閣官房提出未來投資戰略報告加速機器人實用及活化, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=7846&no=64&tp=1 (最後瀏覽日:2026/02/08)
引註此篇文章
你可能還會想看
國際能源總署發布「二氧化碳封存資源及其開發」手冊,協助能源部門及利害關係人了解地質封存效益、風險及社會經濟相關考量

國際能源總署(International Energy Agency, IEA)於2022年12月發布「二氧化碳封存資源及其開發」手冊(CO2 storage resources and their development: An IEA CCUS Handbook),概述地質封存之效益、風險與社會經濟相關考量,並補充2022年度7月份的碳捕捉、利用及封存(Carbon Capture, Utilization and Storage, CCUS)法律和監管框架。該手冊架構可分為九個章節,重要章節包含:碳封存資源概述、碳封存開發生命週期、評估階段開發、風險管理、商業化、以及提供具體建議予決策者或私營部門。 由於CCUS涉及複雜管理及營運模式,IEA為決策者確立五個總體行動,簡述如下:(1)識別封存資源並提供必要資料:現有的地質資料是寶貴的起點,政府可以將現有資料數位化並建置資料庫,便於私部門獲取資訊。(2)確保法律與管制框架符合CCUS需求:政府應全面盤點既有法制體系是否到位,並應解決下列幾個關鍵問題:碳封存特定責任與風險、建立明確與適當的許可流程、地下孔隙空間的所有權、案場管理要求(如監控、關閉等)。(3)制定支持碳封存的政策:如將CCUS納入國家能源及氣候計畫、制定CCUS路線圖以協調發展策略、進行全面資源評估、制定獎勵措施(如獎勵資金、稅收抵免、可交易的憑證、鼓勵降低成本的創新計畫、風險緩解措施、碳定價等)。(4)支持先驅者並促進投資:產業先驅者時常面臨發展尚未成熟的開發環境或法制體系,因此建議政府得給予先驅者特定的獎勵措施。(5)支持發展CCUS的技術、專業能力:鼓勵石化與天然氣產業朝向CCUS轉型,如提供相關知識並培養相關技術,支持持續就業並避免人才流失等。

開放生物技術淺析

英國發布人工智慧網路資安實務守則

英國政府於2025年1月31日發布「人工智慧網路資安實務守則」(Code of Practice for the Cyber Security of AI,以下簡稱「實務守則」),目的是提供人工智慧(AI)系統的網路資安指引。該實務守則為英國參考國際上主要標準、規範後所訂定之自願性指引,以期降低人工智慧所面臨的網路資安風險,並促使人工智慧系統開發者與供應商落實基本的資安措施,以確保人工智慧系統的安性和可靠性。 由於人工智慧系統在功能與運作模式上與傳統網路架構及軟體有明顯的不同,因此產生新的資安風險,主要包含以下: 1. 資料投毒(Data Poisoning):在AI系統的訓練資料中蓄意加入有害或錯誤的資料,影響模型訓練結果,導致人工智慧系統產出錯誤推論或決策。 2. 模型混淆(Model Obfuscation):攻擊者有意識地隱藏或掩飾AI模型的內部運作特徵與行為,以增加系統漏洞、引發混亂或防礙資安管理,可能導致AI系統的安全性與穩定性受損。 3. 輸入間接指令(Indirect Prompt Injection):藉由輸入經精心設計的指令,使人工智慧系統的產出未預期、錯誤或是有害的結果。 為了提升實務守則可操作性,實務守則涵蓋了人工智慧生命週期的各階段,並針對相關角色提出指導。角色界定如下: 1. 人工智慧系統開發者(Developers):負責設計和建立人工智慧系統的個人或組織。 2. 人工智慧系統供應鏈(Supply chain):涵蓋人工智慧系統開發、部署、營運過程中的的所有相關個人和組織。 實務守則希望上述角色能夠參考以下資安原則,以確保人工智慧系統的安全性與可靠性: 1. 風險評估(Risk Assessment):識別、分析和減輕人工智慧系統安全性或功能的潛在威脅的過程。 2. 資料管理(Data management):確保AI系統整個資料生命週期中的資料安全及有效利用,並採取完善管理措施。 3. 模型安全(Model Security):在模型訓練、部署和使用階段,均應符合當時的技術安全標準。 4. 供應鏈安全(Supply chain security):確保AI系統供應鏈中所有利益相關方落實適當的安全措施。 「人工智慧網路資安實務守則」藉由清晰且全面的指導方針,期望各角色能有效落實AI系統安全管控,促進人工智慧技術在網路環境中的安全性與穩健發展。

歐盟執委會就中國大陸法院頻發禁訴令情形,循WTO爭端解決機制向中國大陸提出諮商請求

  歐盟執委會(European Commission, EC)於2022年2月18日向中國大陸提起諮商請求(request for consultation),此係世界貿易組織(World Trade Organization, WTO)爭端解決機制(Dispute Settlement Mechanism, DSM)之一環,並依照「爭端解決程序與規則瞭解書」(Understanding on Rules and Procedures Governing the Settlement of Disputes, DSU)第4.4條之規定,副知WTO的爭端解決機構(Dispute Settlement Body, DSB)。   EU於此諮商請求中指出,自2020年8月中國大陸最高人民法院就Huawei對 Conversant案此一涉及標準必要專利(Standards-Essential Patents, SEP)之訴訟核發禁訴令(Anti-Suit Injunction, ASI),並裁定違反者將被處以每日100萬人民幣之罰款後,中國大陸各法院即頻以此方式禁止外國專利權人於中國大陸以外之法院提起或續行專利訴訟(例如:Xiaomi對Interdigital案、ZTE對Conversant案、OPPO對Sharp案、Samsung對Ericsson案等)。中國大陸法院此等措施(measures)限制歐盟會員國公司行使專利權,違反「與貿易有關的智慧財產權協定」(The Agreement on Trade-Related Aspects of Intellectual Property Rights, TRIPS);關於此,EU先前已多次與中國大陸政府交涉,例如曾在2021年7月依據TRIPS第63.3條(會員國法律文件透明化要求),發函請求中國大陸公開專利相關判決之進一步資訊,然均未果。故EU此次提出與中國大陸政府諮商之請求。   EU此諮商請求是DSM的第一步;如雙方未能於中國大陸政府收到諮商請求之60日内解決爭端,依照DSU第4.7條,EU得要求DSB組成一專門小組,就此事進行審理,以認定中國大陸多數法院頻發ASI一事是否違反TRIPS第1.1條、第28.1條、第28.2條及第41.1條、第44.1條及第63.1條等。

TOP