數位模擬分身(Digital Twin)係指將實體設備或系統資訊轉為數位資訊,使資訊科學或IT專家可藉此在建立或配置實際設備前進行模擬,從而深入了解目標效能或潛在問題。
於實際運用上,數位模擬分身除可用於實體設備製造前,先行針對產品進行測試,以減少產品缺陷並縮短產品上市時間外,亦可用於產品維護,例如在以某種方式修復物品前,先利用數位模擬分身測試修復效果。此外,數位模擬分身還可用於自駕車及協助落實《一般資料保護規範》(General Data Protection Regulation, 以下簡稱GDPR)規定。在自駕車方面,數位模擬分身可通過雲端運算(cloud computing)和邊緣運算(edge computing)連接,由數位模擬分身分析於雲端運算中涉及自駕系統操作之資訊,包括全部駕駛週期內之資料,如車輛模型在內之製造資料(manufacturing data)、駕駛習慣及偏好等個人隱私資料、感測器所蒐集之環境資料等,協助自駕系統做出決策;在GDPR方面,數位模擬分身可利用以下5大步驟,建立GDPR法規遵循機制以強化隱私保護:1.識別利害關係人與資產,包括外部服務和知識庫;2.漏洞檢測;3.透過虛擬數值替代隱私資料進行個資去識別化;4.解釋結果資料;5.利用資料匿名化以最大限度降低隱私風險,並防止受試者之隱私洩露。
本文為「經濟部產業技術司科技專案成果」
美國國會於2022年12月22日通過《2022年保護美國智慧財產法》(Protecting American Intellectual Property Act of 2022),經美國總統拜登(Joe Biden)於2023年1月5日簽署後正式生效。鑒於近年來美國營業秘密外洩事件頻傳,中國大陸和駭客透過各類方式竊取美國的智慧財產,對美國的經濟和國家安全產生重大危害。因此,共和黨參議員Ben Sasse與民主黨參議員Chris Van Hollen於2020年6月共同提出本法,並於2021年4月提出修正版本,期待美國政府進一步採取保護美國營業秘密的具體措施。 本法授權美國政府對涉及營業秘密重大竊盜的外國人及外國實體(foreign entity)實施制裁。重點包含: 1.要求美國總統每年應向國會提出報告,且第一份報告應於本法正式施行後6個月內提出,報告應列出符合以下條件之外國人、外國實體名稱及外國實體的執行長或董事會成員: (1)故意竊取美國營業秘密,且其行為很可能或已經對美國國家安全、外交、經濟、金融構成重大威脅者; (2)對上述故意竊取美國營業秘密之行為提供重要的財務、物質、技術、商品、服務等支援,或從中獲得利益者。 2.實施制裁 (1)針對外國實體,本法授權美國政府得實施的制裁手段有12項,包含根據國際緊急經濟權力法(International Emergency Economic Powers Act)凍結其資產、將該實體列入美國商務部的出口管制名單(Entity List)、禁止美國金融機構對該實體提供貸款、拒絕向該實體採購、禁止該實體的外匯交易、禁止美國人投資該實體的股票或債券、限制該實體成員入境、將該實體成員驅逐出境等。美國總統應針對名單中的對象實施至少5項制裁,並可對該外國實體之高層實施上述制裁。 (2)針對外國人,制裁手段包含凍結資產、拒絕入境、撤銷簽證等 3.豁免 總統若認為符合美國國家利益,得豁免對外國人及外國實體之制裁,但應於15天內向國會提交豁免的理由。 本法施行後,美國除了既有的《保護營業秘密法》(Defend Trade Secrets Act of 2016)外,將透過上述的制裁手段強化營業秘密的保護力道。 本文同步刊登於TIPS網站(https://www.tips.org.tw)
美國基改食品標示新發展-強制標示與否的拔河 歐盟執委會通過「歐洲創新議程」,加速深度技術創新並資助新創事業歐盟執委會(European Commission, EC)於2022年7月5日通過「新歐洲創新議程」(New European Innovation Agenda,下稱創新議程),藉由引領創新,特別是在「深度技術」(Deep Tech),例如AI、量子科學、光子技術等領域之創新,強化歐洲在綠色轉型和數位轉型的中心角色,並為氣候變遷及網路威脅等迫切的社會問題,提供創新的解決方案,以減少能源依賴、改善民眾健康,並繁榮歐洲經濟。創新議程包括以下5項旗艦項目: (1)資助新創公司(start-ups):使歐洲私人機構及其他私人投資者更願意投資於「深度技術」之新創公司。除此之外,簡化上市規則,使公司上市成本減少,以增加公司上市意願,更易於向公眾募集資金。 (2)重視實驗場域及創新採購:讓創新的企業可藉由「監理沙盒」(Regulatory Sandbox)等實驗場域(experimentation spaces)驗證其概念,政府則加強對創新產品和服務的公共採購(public procurement),促進創新研發。 (3)打造歐洲創新生態系(European Innovation Ecosystems):支持包括低度開發地區在內的區域,建立多個「區域創新谷」(regional innovation valleys),以強化歐洲創新者間的連結,並促進會員國投入至少100億歐元於各區域創新谷包含「深度技術」在內的創新專案。 (4)育才、攬才及留才:確保「深度技術」的人才能來到歐盟國家,並在歐盟國家間流動及發展,當中包括針對新創公司的創新實習生計畫、幫助新創公司尋找非歐盟人才的歐盟人才資料庫(talent pool)計畫、女性創業和領導計畫、新創公司員工有認股權(stock option)等。 (5)優化政策制定之流程及架構,促進歐盟內部協調一致:藉由開發可供各國比對的資料集(data set),以及對於新創公司設立階段(start-up)及成長階段(scale-up)之共通定義,提升並強化政策的傳播及落實,並確保在歐洲創新理事會論壇(European Innovation Council)有更好的政策協調。
德國向歐盟提交《人工智慧白皮書-歐洲卓越與信任概念》及《人工智慧,物聯網和機器人技術對安全和責任之影響報告》意見德國聯邦政府於2020年6月29日,針對歐盟執委會於2020年2月19日公布的《人工智慧白皮書-歐洲卓越與信任概念》(Weißbuch zur Künstlichen Intelligenz – ein europäisches Konzept für Exzellenz und Vertrauen)及《人工智慧,物聯網和機器人技術對安全和責任之影響報告》(Bericht über die Auswirkungen künstlicher Intelligenz, des Internets der Dinge und der Robotik in Hinblick auf Sicherheit und Haftung) 提交意見,期能促進以負責任、公益導向、以人為本的人工智慧開發及使用行為,並同時提升歐盟的競爭力及創新能力。 歐盟執委會所發布的人工智慧的白皮書及人工智慧對安全和責任的影響報告,一方面可促進人工智慧使用,另一方面則藉此提醒相關風險。本次意見主要集結德國聯邦經濟與能源部、教育與研究部、勞動與社會事務部、內政、建築及社區部以及司法與消費者保護部之意見。德國政府表示,投資人工智慧為重要計畫之一,可確保未來的創新和競爭力,以及應對諸如COVID-19疫情等危機。最重要的是,可透過人工智慧的應用扶持中小型公司。然而在進行監管時,必須注意應促進技術發展而非抑制創新。 在《人工智會白皮書-歐洲卓越與信任概念》中指出,人工智慧發展應在充分尊重歐盟公民的價值觀和權利的前提下,實現AI的可信賴性和安全發展之政策抉擇,並於整體價值鏈中實現「卓越生態系統」(Ökosystem für Exzellenz),並建立適當獎勵機制,以加速採用AI技術為基礎之解決方案。未來歐洲AI監管框架將創建一個獨特的「信任生態系統」(Ökosystem für Vertrauen),並確保其能遵守歐盟法規,包括保護基本權利和消費者權益,尤其對於在歐盟營運且具有高風險的AI系統更應嚴格遵守。此外,應使公民有信心接受AI,並提供公司和公共組織使用AI進行創新之法律確定性。歐盟執委會將大力支持建立以人為本之AI開發方法,並考慮將AI專家小組制定的道德準則投入試行階段。德國政府指出,除了要制定並遵守歐洲AI的監管政策外,應特別注重保護人民之基本權,例如個人資料與隱私、消費者安全、資料自決權、職業自由、平等待遇等,並呼籲國際間應密切合作,運用人工智慧技術克服疫情、社會和生態永續性等挑戰。另外,德國政府亦支持將人工智慧測試中心與真實實驗室(監理沙盒場域)相結合,以助於加速企業實際運用,也將帶頭促進AI在公部門之運用。 在《人工智慧,物聯網和機器人技術對安全和責任之影響報告》中則指出,歐洲希望成為AI、IoT和機器人技術的領導者,將需要清楚、可預測的法律框架來應對技術的挑戰,包括明確的安全和責任框架,以確保消費者保護及企業合法性。AI、IoT和機器人技術等新數位技術的出現,將對產品安全性和責任方面出現新挑戰,而在當前的產品安全法規上,缺乏相關規範,特別是在一般產品的安全指令,機械指令,無線電設備指令等,未來將以一致地在各框架內針對不同法律進行調修。在責任方面,雖然原則上現有法令尚仍可應對新興技術,但人工智慧規模的的不斷變化和綜合影響,將可能增加對受害者提供賠償的困難度,導致不公平或效率低下的情形產生,為改善此一潛在不確定性,可考慮在歐盟層級調修產品責任指令和國家責任制度,以顧及不同AI應用所帶來的不同風險。德國政府除了支持歐盟作法,在創新與監管取得平衡,更強調應不斷檢視產品安全和產品責任法是否可滿足技術發展,尤其是對重要特定產業的要求,甚至修改舉證責任。並可透過標準化制定,加速人工智慧相關產品與服務的開發。另外,應依照風險高低擬定分類方法,並建議創建高風險AI系統之註冊與事故報告義務,以及相關數據保存、記錄及資料提供之義務,針對低風險AI應用則採自願認證制度。