數位模擬分身(Digital Twin)

  數位模擬分身(Digital Twin)係指將實體設備或系統資訊轉為數位資訊,使資訊科學或IT專家可藉此在建立或配置實際設備前進行模擬,從而深入了解目標效能或潛在問題。

  於實際運用上,數位模擬分身除可用於實體設備製造前,先行針對產品進行測試,以減少產品缺陷並縮短產品上市時間外,亦可用於產品維護,例如在以某種方式修復物品前,先利用數位模擬分身測試修復效果。此外,數位模擬分身還可用於自駕車及協助落實《一般資料保護規範》(General Data Protection Regulation, 以下簡稱GDPR)規定。在自駕車方面,數位模擬分身可通過雲端運算(cloud computing)和邊緣運算(edge computing)連接,由數位模擬分身分析於雲端運算中涉及自駕系統操作之資訊,包括全部駕駛週期內之資料,如車輛模型在內之製造資料(manufacturing data)、駕駛習慣及偏好等個人隱私資料、感測器所蒐集之環境資料等,協助自駕系統做出決策;在GDPR方面,數位模擬分身可利用以下5大步驟,建立GDPR法規遵循機制以強化隱私保護:1.識別利害關係人與資產,包括外部服務和知識庫;2.漏洞檢測;3.透過虛擬數值替代隱私資料進行個資去識別化;4.解釋結果資料;5.利用資料匿名化以最大限度降低隱私風險,並防止受試者之隱私洩露。

本文為「經濟部產業技術司科技專案成果」

相關連結
※ 數位模擬分身(Digital Twin), 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8257&no=67&tp=5 (最後瀏覽日:2026/05/05)
引註此篇文章
你可能還會想看
日本政府擬建構自動駕駛實驗資料收集和共享體制

  日本內閣下設之日本經濟再生本部(日本経済再生本部),為實現2017年6月於「未來投資戰略2017」所提出之建立實驗資料共享體制政策,於2017年8月31日起舉辦自動駕駛官民協議會(自動走行に係る官民協議会),邀請政府相關部門及民間專家等關係人士,檢討自動駕駛實驗結果、實驗資料之共享,以及根據民間需求進行實驗計畫之工程管理等制度的整備方向,預計於年內針對複雜的駕駛環境制定共通指標,以釐清哪些資料是應收集之實驗資料,建構自動駕駛實驗資訊共享、收集體制。自動駕駛官民協議會預計在未來幾次會議中,針對應收集之實驗資料、標準格式、體制、實驗計畫的進程管理、官民合作事項等進行討論,並將在未來投資會議中報告檢討結果,其結果將與明年度之成長戰略一同反映於「官民ITS‧構想藍圖」(官民ITS構想・ロードマップ)中。

日本公布設立AI安全研究所與著手訂定AI安全性評鑑標準

日本於2023年12月1日舉辦G7數位技術委員會(G7デジタル・技術大臣会合),由日本數位廳、總務省、經濟產業省共同會晤G7會員國代表,基於人工智慧(Artificial Intelligence,下稱AI)可能帶給全球創造性、革命性的轉變,同時也可能伴隨侵害著作權與擴散假訊息的風險,尤其是生成式AI可能對經濟、社會影響甚鉅,因此針對如何妥善使用AI技術,G7全體會員國共同訂定《廣島AI進程》(広島AIプロセス)文件,其聲明內容簡述如下: 1.訂定涵蓋《廣島AI進程》之政策框架(Framework) 2.訂定涵蓋AI設計、系統開發、規劃、提供與使用等所有與AI有關人員,(All AI actors, when and as applicable, and appropriate, to cover the design, development, deployment, provision and use of advanced AI systems)適用之《廣島AI進程》國際標準(Principle) 3.針對開發高階AI系統之組織,訂定可適用之國際行為準則(Code of Conduct) 為此,日本內閣府於2024年2月14日公布,於經濟產業省政策執行機關—獨立行政法人資訊處理推動機構(独立行政法人情報処理推進機構,下稱IPA)轄下設立日本AI安全研究所(Japan AI Safety Institute,下稱AISI),作為今後研擬AI安全性評鑑標準(據以特定或減少AI整體風險)與推動方式之專責機構,以實現安心、安全以及可信賴之AI為目標。AISI所職掌的業務範圍如下: 1.進行AI安全性評鑑之相關調查 2.研擬AI相關標準 3.研擬安全性評鑑標準與實施方式 4.研擬與各國AI專責機關進行國際合作,例如:美國AI安全研究所(U.S. Artificial Intelligence Safety Institute, USAISI) 另一方面,IPA將以內部人才招聘作為AISI成員之任用方式,預計組成約數十人規模的團隊。日本以與G7會員國共識為基礎,採專責機關—AISI進行研究與規劃,並推動日後擬定AI相關使用規範與安全性評鑑標準,據以實現AI應用安全之目標。我國對於AI技術之應用領域,未來應如何訂定使用安全規範,將涉及專業性與技術性事項之整體性規劃,日本因應AI課題而採行的做法值得我國未來持續關注。

因應ChatGPT人工智慧趨勢,為企業提出營業秘密管理建議

2022年11月美國OpenAI公司推出人工智慧大型語言模型ChatGPT,提供全球使用者透過輸入文本方式向ChatGPT提出問題,雖營業秘密不需絕對保密,惟是否會「因向ChatGPT揭露營業秘密而使營業秘密喪失了秘密性」? 依OpenAI公司「非API訪問數據政策」規定,ChatGPT透過OpenAI公司的AI訓練人員審核「使用者上傳至ChatGPT的資訊」,提供ChatGPT反饋,強化ChatGPT進行有效的學習,讓ChatGPT模仿人類語言回覆使用者所提出的問題。在AI訓練人員未將「使用者上傳至ChatGPT的資訊」交由ChatGPT訓練、學習前(上次訓練是在2021年9月),此聊天內容不會成為ChatGPT給其他使用者的回答,此時資訊對於公眾仍具秘密性。依據ChatGPT的使用條款第5(a)條之單方保密義務規定:「OpenAI公司、其子公司及其他第三方公司可能賦予使用者『機密資訊的接觸權限』,但使用者僅限於使用條款所允許的服務中使用該些機密資訊,不得向第三方揭露該機密資訊,且使用者至少應採取合理的注意保護該機密資訊。所謂機密資訊係指OpenAI公司、其子公司及其他第三方公司(1)指定的非公開資訊,或(2)合理情況下,被認定為機密資訊者,比如軟體、規格及其他非公開商業資訊。」。即ChatGPT對於使用者輸入的聊天內容不負保密義務。 公司將程式碼、會議紀錄等敏感資訊與ChatGPT共享,不必然屬於「因揭露營業秘密而使營業秘密喪失秘密性」,考量訓練數據量大,秘密性取決於周遭環境與揭露性質,例如: 1.揭露的資訊類型,比如飲料配方可能會比客戶名單更容易取得。 2.揭露的環境,比如競爭對手、大眾是否能提出具體問題,以致能取得他人聊天內容的營業秘密。 為在ChatGPT的趨勢下確保營業秘密的秘密性,建議企業採取的管理策略如下: 1.透過「資訊分類」以識別可共享的資訊。 2.審核涉及敏感資訊的協議、公司政策及供應商契約。 3.採取實體、數位的資訊保密措施,並留意尊重員工隱私,比如限制接觸某些網站或應用程式,應留意員工的手機是否能繞過此限制。 4.建立公司保密文化,如透過公司培訓、新人入職教育訓練,定期提醒其應負擔的保密義務。 本文同步刊登於TIPS網站(https://www.tips.org.tw)。

何謂「智慧機械」

  智慧機械產業為目前我國五大創新產業政策之一,主要目的是將臺灣從精密機械升級為智慧機械,爰此,行政院於105年7月核定「智慧機械產業推動方案」,整合我國豐沛的新創能量,建立符合市場需求之技術應用與服務能量,以創造我國機械產業下一波成長新動能。   智慧機械之定義係指整合各種智慧技術元素,使其具備故障預測、精度補償、自動參數設定與自動排程等智慧化功能,並具備提供Total Solution及建立差異化競爭優勢之功能;智慧機械的範疇包含建立設備整機、零組件、機器人、智慧聯網、巨量資料、3D列印、網實融合CPS、感測器等產業。而智慧製造係指產業導入智慧機械,建構智慧生產線(具高效率、高品質、高彈性特徵),透過雲端及網路與消費者快速連結,提供大量客製化之產品,形成聯網製造服務體系。   未來我國智慧機械與智慧製造領域仍待研發突破之項目有:工業用等級之視覺/觸覺/力感知等感測模組與驅動控制技術;微型感測元件智慧化;開放性標準網路通訊技術;機器型通訊及安全技術;耐延遲及低耗能機器聯網;健全人機智能介面,提升人機協同安全與效率;智慧聯網共通服務平台、資料分析與效能管理;網實融合智能系統需結合專業分析模型提升準確性及可靠度;機器人智慧整合能力及反應速度;供需產能整合與決策系統等等。

TOP