歐盟報告提出工業4.0帶來的三大變遷

  歐盟執委會下設機構策略與評估服務中心(CSES)在2016年2月向歐洲議會提出歐洲落實工業4.0政策執行分析報告,指出執行工業4.0帶來的科技、社會、以及商業環境變遷:
(1)科技變遷
數位化將對中小企業帶來挑戰,其中涉及之法律議題包括:促進數位安全致生之企業成本或風險、智慧財產權保護、個人資料與隱私、環境保護、健康和安全等。
(2)社會變遷
企業應用工業4.0技術時將面臨工作方式上之調整,整體工業4.0技術分佈不均則有可能導致集中化競爭的情形增加。
(3)商業環境變遷
隨著中小企業參與供應鏈,將帶來成本、風險、缺乏彈性、缺乏政策性的單獨運作等各方面挑戰,而重點在於藉由標準化串起整體產業,與其他的企業競爭。

  我國在2016年7月通過「智慧機械產業推動方案」,以精密機械之推動成果及我國資通訊科技能量為基礎,導入智慧化相關技術,建構智慧機械產業新生態體系,並且預期能打通供需生產資訊鏈,提升人均製造力,同時併以連結在地、連結未來、連結國際為推動策略主軸,其中相關的法律議題、以及對於社會或商業環境帶來的變遷影響評估,自屬重要。

本文為「經濟部產業技術司科技專案成果」

※ 歐盟報告提出工業4.0帶來的三大變遷, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=7668&no=67&tp=5 (最後瀏覽日:2026/02/24)
引註此篇文章
你可能還會想看
美國簽署晶片和科技法案,全球科技業將掀起波瀾

  美國近日為防堵中國、其他受關注國家如俄羅斯等國掌握半導體等高科技行業關鍵技術,遂致力於加強培養其本土之半導體及高科技通訊產業。於美國時間2022年8月9日美國總統拜登簽署 「2022年晶片和科技法案」 (CHIPS and Science Act 2022),該法案除可作為2021年頒布之「美國電信法案」之補助資金來源,發展開放式無線電接取網路(Open Radio Access Network, ORAN)外,亦有望大幅度提升美國本土晶片生產量。   本法案提高美國聯邦政府對科學技術研究及開發專案之授權,除授權美國商務部(Department of Commerce , DOC)、國防部(Department of Defense, DOD)外,還結合國務院(Department of State, DOS)透過資金補助之方式,發展影響美國競爭力及國家安全至關重要之半導體製造等高科技產業、人工智慧、量子計算等科學研究,本法案整體編列之預算高達2800億美元,至2027年時,授權金額預計將達1740億美元,而其中將挹注超過520億美元之資金用於發展美國本土晶片之生產及研發。   此外,該法案設有靜態限制,禁止接受補助之半導體企業投資以電子設計自動化(Electronic design automation, EDA)工具設計或製造晶片之中國公司,換句話言,即受補助之企業不得於十年內投資或擴大生產中國製低於28奈米之先進晶片。本法案亦提供25%之稅收優惠予於美國建造、裝設晶片廠之業者,以鼓勵企業進駐美國藉以提升美國生產之晶片總量,同時藉由企業之投資帶動美國各地經濟發展,提高就業率。   藉由本法案之制定,有望降低美國對其他國家晶片之依賴,並得藉此發展科技研究,對未來全球高科技產業供應鏈將造成偌大影響,值得持續關注。

何謂「權利懈怠原則」?

  美國專利法中,權利懈怠原則係指當事人構成怠於行使權利之情形時,可作為專利侵權之防禦抗辯事由。目前美國專利法282條(b)款(1)項已將權利懈怠抗辯成文法化,聯邦最高法院相關判決之見解認為權利懈怠原則之目的為填補法律缺陷(filling the gap),主要針對法律條文並未明確規範時效時之特殊情況,考量到專利法第286條之規定以及聯邦最高法院曾於2014年Petrella v. Metro-Goldwyn-Mayer一案中判決權利懈怠不得作為美國著作權法第507條(b)款訴訟時效限制之抗辯理由。因此美國專利法上的權利懈怠原則並非訴訟時效限制(statute of limitations),而是侵權賠償時效限制(damage limitations)。此外,不會產生類似衡平禁反言之誤導當事人及造成該方後續損失之結果,基於兩者此一性質不同,也不會直接排除當事人持續權利金之權利資格。

奈米技術之瞻性規劃-以美國推行綠色奈米為中心

英國發布人工智慧網路資安實務守則

英國政府於2025年1月31日發布「人工智慧網路資安實務守則」(Code of Practice for the Cyber Security of AI,以下簡稱「實務守則」),目的是提供人工智慧(AI)系統的網路資安指引。該實務守則為英國參考國際上主要標準、規範後所訂定之自願性指引,以期降低人工智慧所面臨的網路資安風險,並促使人工智慧系統開發者與供應商落實基本的資安措施,以確保人工智慧系統的安性和可靠性。 由於人工智慧系統在功能與運作模式上與傳統網路架構及軟體有明顯的不同,因此產生新的資安風險,主要包含以下: 1. 資料投毒(Data Poisoning):在AI系統的訓練資料中蓄意加入有害或錯誤的資料,影響模型訓練結果,導致人工智慧系統產出錯誤推論或決策。 2. 模型混淆(Model Obfuscation):攻擊者有意識地隱藏或掩飾AI模型的內部運作特徵與行為,以增加系統漏洞、引發混亂或防礙資安管理,可能導致AI系統的安全性與穩定性受損。 3. 輸入間接指令(Indirect Prompt Injection):藉由輸入經精心設計的指令,使人工智慧系統的產出未預期、錯誤或是有害的結果。 為了提升實務守則可操作性,實務守則涵蓋了人工智慧生命週期的各階段,並針對相關角色提出指導。角色界定如下: 1. 人工智慧系統開發者(Developers):負責設計和建立人工智慧系統的個人或組織。 2. 人工智慧系統供應鏈(Supply chain):涵蓋人工智慧系統開發、部署、營運過程中的的所有相關個人和組織。 實務守則希望上述角色能夠參考以下資安原則,以確保人工智慧系統的安全性與可靠性: 1. 風險評估(Risk Assessment):識別、分析和減輕人工智慧系統安全性或功能的潛在威脅的過程。 2. 資料管理(Data management):確保AI系統整個資料生命週期中的資料安全及有效利用,並採取完善管理措施。 3. 模型安全(Model Security):在模型訓練、部署和使用階段,均應符合當時的技術安全標準。 4. 供應鏈安全(Supply chain security):確保AI系統供應鏈中所有利益相關方落實適當的安全措施。 「人工智慧網路資安實務守則」藉由清晰且全面的指導方針,期望各角色能有效落實AI系統安全管控,促進人工智慧技術在網路環境中的安全性與穩健發展。

TOP