「歐盟網實整合藍圖與政策」

  歐盟在歐盟執委會的支持之下,致力於網實整合的發展,2015年6月歐盟提出以五項關鍵領域作為發展方向,包含交通、能源、健康、生產、以及基礎設施等。其中在智慧製造部分,主要為從大量生產到彈性、個別客製化生產,以及在生產以及產線自動化之下,增加市場競爭力。但針對此等發展,歐盟也提出未來將面臨幾點挑戰:
1.科學:網實整合系統應特別考量社會技術層面、使不同學科整合、結合相關系統理論,以及建構複式領域模型等
2.技術:由於不同的技術方法,因此應建立互通性平台系統、使自動化設計與執行更加成熟、減少資料隱私問題、整合安全性、建立系統方式處理無法確定之資訊等。
3.經濟:透過網實整合,從產品到服務,可建立新的商業模式。
4.教育:網實整合之應用需具備充分的條件,因此,可透過教育及訓練體制來增加對相關應用的認識。
5.法律:減少網實整合系統建立產生的障礙,消除法規解釋不清楚之部分,並且改善以確認整合系統應用正確性。
6.社會:網實整合應用對公共、產業以及政治等層面產生之改變與風險管理。

  網實整合在生產力4.0的發展當中,屬於最為核心之部分,目前歐盟所舉出可能產生的面向與問題,值得作為未來政策法制方向之參考。

本文為「經濟部產業技術司科技專案成果」

※ 「歐盟網實整合藍圖與政策」, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=7315&no=64&tp=1 (最後瀏覽日:2025/12/01)
引註此篇文章
你可能還會想看
法國高等教育暨研究部宣布額外投資新創企業培育計畫,強化產業競爭力與發展深度技術

為強化產業競爭力與發展深度技術,法國高等教育暨研究部(Ministère de l'enseignement supérieur et de la recherche)於2023年1月9日宣布將額外投資5億歐元,以培育更多的研究型新創企業。 基於2021年10月12日法國總統宣布的《法國2030投資計畫》(France 2030),法國政府將於五年內投入540億歐元於新創相關事務,且目前已於2022年達到成立25間獨角獸公司的中期目標。為進一步提高學研機構以研發成果衍生新創之數量,讓新創公司數量成長2倍,法國高等教育暨研究部部長Sylvie Retacleau與法國產業部(Ministre chargé de l'Industrie)部長Roland Lescure提出以下三大行動,並額外投資5億歐元執行: (1)建立25個大學創新中心(Pôles Universitaires d'Innovation, PUI):法國政府將投入1.6億歐元,在大學網站上提供創新戰略、單一治理及敏捷方法,藉此激發研發團隊潛力及創意。PUI將在不額外增設法律規範之情況下,與現有政策結合推動上述措施。 (2)透過既有措施推動深度科技:透過i-Lab、法國科技新興獎學金、深度技術發展援助計畫等現有措施,以及增設法國科技實驗室獎學金,加速深度技術發展計畫。此外,未來也將提供6500萬歐元的補助。 (3)加強推廣研究工作及專題研究計畫(Programmes et équipements prioritaires de recherché, PEPR)成果:未來法國政府將投入2.75億歐元,挑選17項研究成果,建立評估研發成果之檢測及支援能力,並依領域性質,研究各領域專利證書、標準化和相關法規。

歐盟執委會公布「數位金融包裹」法案

  為鼓勵金融產業之創新,同時使其遵循應有之責任,並讓歐盟金融消費者與商業機構享有更多之利益,歐盟執委會於2020年10月24日提出數位金融包裹法案(Digital Finance Package),並提出以下2項數位金融立法提案: 一、加密資產立法提案(Proposal for Markets in Crypto-assets)   為促進金融創新並同時保有金融穩定性與保護投資人,歐盟執委會提出加密資產管制框架立法提案,並將加密資產分為已受監管與未受監管兩類,前者將持續依據既有規範進行管理。而針對尚未管制之加密資產,該提案針對加密資產發行人與加密資產服務供應商建立嚴格限制,要求取得核准後始可提供服務。具體而言之,立法提案包含以下項目: (一)針對加密資產、加密資產發行人等金融商品名詞進行定義。並建立加密資產服務供應商與發行人營運上、組織架構與資產發行程序之透明度與揭露制度。 (二)針對向公開市場提供加密資產進行管制,例如,依據提案第4條,供應商應為法人,第5條則要求供應商應製作加密資產白皮書,並將其提供給主管機關後始可於公開市場提供相關服務。 (三)針對代幣資產發行人以及其加密資產之審核程序,依據提案第15條,代幣發行者必須為歐盟境內之法律實體。另外,該法要求加密資產發行人應誠實、公平且專業,並完成加密資產白皮書之出版與制定市場溝通規則。 (四)針對加密資產之收購,該法第4章亦設有相關規範,於第37條及38條規定收購之評估機制。 (五)針對加密資產服務供應商之授權與營運條件,該法第5章規定歐盟證券及市場管理局應建立加密資產服務供應商之登記制度。 (六)針對市場秩序維護之部分,該法於第6章規範相關預防市場濫用之禁止事項與要求,並於第7章賦予歐盟成員國各主管機關相關權力,例如第94條之監督與懲處權限。 二、歐盟數位營運韌性管制框架立法提案(Proposal for Digital Operational Resilience)   數位化總伴隨資安風險,歐盟執委會於包裹法案內亦提出歐盟數位營運韌性管制框架立法提案,以確保相關企業可應對所有與通訊技術有關之干擾與威脅,另外,銀行、證券交易所、票據交換所以及金融科技公司將需遵循嚴格之標準以預防並降低ICT資安事件所產生之衝擊,另外亦將針對金融機構雲端運算服務供應商進行監管。具體規範包含: (一)ICT風險管理要求:該立法提案參照相關國際標準,於第5至第14條制訂相關ICT風險管理要求,惟未要求應遵循具體國際標準。 (二)ICT相關事件報告:該提案於第15至20條規範相關報告義務,將整合歐盟金融機構之ICT相關事件報告與監測程序。 (三)數位運作韌性測試:該提案於第21至第24條要求ICT風險管理框架應定期進行測試,惟具體方法可依據組織之規模、風險側寫與商務模式進行調整。 (四)第三方單位風險:該提案於第25至39條規範組織應對ICT第三方供應商風險進行監測,例如,第25條要求金融機構委外執行業務仍應隨時遵循所有金融服務規範,另外,ICT風險管理框架之內容亦應包含第三方ICT風險之監督策略。

Serenex控訴員工竊取癌症新藥商業機密資料

  美國公司Serenex,指控兩位離職的舊員工,竊取實驗用癌症藥物,並賣給中國公司。Serenex控訴先前聘僱的化學家黃雲生是國際商業間諜,黃雲生偷竊Serenex的商業機密,並用偷來的資料來提供給海外尋找專利的公司。員工竊取機密已經是個日趨嚴重的問題,尤其是對全球型的企業,以及智慧財產為主的公司。   Serenex擁有30個員工,目前正進行實驗性癌症藥物的人體測試。根據報告Serenex自2001年設立後,所募得的風險資本已從2千6百萬美元提升至8千1百萬美元。為此,Serenex在威克高等法院提起訴訟,同時也將北京國藥龍立科技公司、基爾生物科技公司以及負責人Tongxiang Zhang列為被告。   Serenex的律師Jonathan Sasser表示,Serenex以提出訴訟的方式來保護他們的產品,並且希望調查是被百分之百確信,沒有人會去提出偽造的主張,並在起訴書上陳述,黃雲生在竊取機密後,Serenex於二月時將他解雇,但是黃雲生的律師Walter Schmidlin抗辯說明黃雲生自願離職,並且否認有做任何不法情事。Schmidlin同時表示Serenex並不能提出任何證據證明黃雲生拿了商業機密資料。

人權組織向法國最高行政法院提交申訴,要求政府停止使用歧視性演算法

.Pindent{text-indent: 2em;} .Noindent{margin-left: 2em;} .NoPindent{text-indent: 2em; margin-left: 2em;} .No2indent{margin-left: 3em;} .No2Pindent{text-indent: 2em; margin-left: 3em} .No3indent{margin-left: 4em;} .No3Pindent{text-indent: 2em; margin-left: 4em} 國際特赦組織(Amnesty International)與法國數位隱私權倡議團體La Quadrature du Net(LQDN)等組織於2024年10月15日向法國最高行政法院提交申訴,要求停止法國國家家庭津貼基金機構(Caisse nationale des allocations familiales,CNAF)所使用的歧視性風險評分演算法系統。 CNAF自2010年起即慣於使用此系統識別可能進行福利金詐欺的對象,該系統演算法對獲取家庭與住房補助的對象進行0至1之間的風險評分,分數越接近1即越可能被列入清單並受調查,政府當局並宣稱此系統將有助於提升辨識詐欺與錯誤的效率。 LQDN取得該系統的原始碼,並揭露其帶有歧視性質。該等組織說明,CNAF所使用的評分演算法自始即對社會邊緣群體如身心障礙者、單親家長,與低收入、失業、居住於弱勢地區等貧困者表現出懷疑態度,且可能蒐集與系統原先目的不相稱的資訊量,這樣的方向直接違背了人權標準,侵犯平等、非歧視與隱私等權利。 依據歐盟《人工智慧法》(Artificial Intelligence Act,下稱AIA),有兩部分規定: 1. 用於公機關評估自然人是否有資格獲得基本社會福利或服務,以及是否授予、減少、撤銷或收回此類服務的人工智慧系統;以及用於評估自然人信用或建立信用評分的人工智慧系統,應被視為高風險系統。 2. 由公機關或私人對自然人進行社會評分之人工智慧系統可能導致歧視性結果並排除特定群體,從此類人工智慧總結的社會分數可能導致自然人或其群體遭受不當連結或程度不相稱的不利待遇。因此應禁止涉及此類不可接受的評分方式,並可能導致不當結果的人工智慧系統。 然而,AIA並未針對「社會評分系統」明確定義其內涵、組成,因此人權組織同時呼籲,歐盟立法者應針對相關禁令提供具體解釋,惟無論CNAF所使用的系統為何種類型,因其所具有的歧視性,公機關皆應立即停止使用並審視其具有偏見的實務做法。

TOP