英國商業、能源及產業策略部要求中資公司出售其於英國所收購晶圓公司的股份

  英國商業、能源及產業策略部(Department for Business, Energy and Industrial Strategy, BEIS)於2022年11月16日發布行政命令,以國家安全為由要求登記於荷蘭的中資公司Nexperia BV出售其於2021年7月收購之Nexperia Newport Limited(NNL)(原Newport Wafer Fab)至少86%的股份。

  NNL擁有英國最大的晶圓製造工廠,其每月生產約32,000片晶圓,並大多出口至亞洲用以生產半導體。今(2022)年5月英國政府發現中國政府擁有Nexperia BV的母公司聞泰科技大約30%之股份後,即依《2021年國家安全與投資法》(National Security and Investment Act)第26條調查Nexperia BV於2021年7月收購NNL之行為,並認為該行為恐使NNL的半導體生產技術與知識(technological expertise and know-how)外流至中國,進而損害英國利益。同時,該行政命令亦提及NNL工廠位置靠近英國重要之南威爾斯半導體產業聚落,若讓Nexperia BV繼續經營該工廠,將使Nexperia BV能輕易的接觸相關生產技術與知識,佐以Nexperia BV母公司與中國政府的關係,恐有危害英國國家安全之虞。

  Nexperia BV表示將提出訴願以推翻該行政命令。惟英國下議院外交事務專責委員會(Foreign Affairs Select Committee)主席表示,英國不會將關鍵基礎設施轉移給一家與中國政府有明確往來的公司,以確保其戰略資產不會因短期利益而落入獨裁國家手中;並補充說明,此一決定亦代表英國政府將更重視國家安全,同時避免具有領先地位的科技公司與研究落入競爭對手。

本文為「經濟部產業技術司科技專案成果」

相關連結
你可能會想參加
※ 英國商業、能源及產業策略部要求中資公司出售其於英國所收購晶圓公司的股份, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8920&no=57&tp=1 (最後瀏覽日:2025/12/09)
引註此篇文章
科法觀點
你可能還會想看
美國聯邦航空總署針對特殊類型無人航空器提出新的適航性準則

  美國聯邦航空總署(Federal Aviation Administration, FAA)於2020年11月23日針對10種特殊類型(special class)無人航空器提出新的適航性準則(airworthiness criteria),以納入更多聯邦法規第107篇(14 CFR Part 107)所無法涵蓋之複雜無人航空器應用類型,包括包裹運送(package delivery)。   FAA目前正針對其所提出之適航性準則蒐集公眾之意見,故將相關特殊類型之無人機應用申請案公告於聯邦公報(Federal Register)中,提供30天予公眾針對該申請案之適航性表示意見,後續正式公布該適航性準則時亦會將相關意見納入考量。   該適航性準則將成為特殊類型無人航空器之安全標準,並能夠為相關特殊類型之無人航空器取得型式安全審驗合格證明(type certificate)建立之參考準則之一。   該適航性準則主要適用於重量在5-89磅之電動定翼(fixed wing)與旋翼(rotorcraft)無人機。FAA說明,該特殊類型無人航空器若通過此準則,僅表示其符合該適航性準則所規範之類型,惟其是否能夠執行飛行任務,尚須檢視有否符合FAA相關操作規範,包括操作人員是否取得許可證、操作之空域是否為禁限航區等。

簡介美國FTC垃圾電郵法制施行成效報告

產業競爭力強化法新發展-以企業實證特例制度實例為中心

美國情報體系發布「情報體系運用人工智慧倫理架構」

  美國國家情報體系(United States Intelligence Community)係於1981年依據行政命令第12333號(Executive Order 12333)所建立,其任務為蒐集、分析與提供外國情報與反情報資訊美國國家領導人,服務對象包含美國總統、執法單位以及軍事單位。其於2020年6月提出「情報體系人工智慧倫理架構」(Artificial Intelligence Ethics Framework for the Intelligence Community),為人工智慧系統與訓練資料、測試資料之採購、設計、研發、使用、保護、消費與管理提出指引,並指出人工智慧之利用須遵從以下事項: 一、於經過潛在風險評估後,以適當且符合目的之方法利用; 二、人工智慧之使用應尊重個人權利與自由,且資料取得應合法且符合相關政策與法規之要求; 三、應於利用程序內結合人類判斷與建立問責機制,以因應AI產品之風險並確保其決策之適當性。 四、於不破壞其功能與實用性之前提下,盡可能確認、統計以及降低潛在之歧視問題。 五、AI進行測試時應同時考量其未來利用上可預見之風險。 六、持續維持AI模型之迭代(Iteration)、版本與改動之審查。 七、AI之建立目的、限制與設計之輸出項目,應文件化。 八、盡可能使用可解釋與可理解之方式,讓使用者、審查者與公眾理解為何AI會產出相關決策。 九、持續不定期檢測AI,以確保其符合當初建置之目的。 十、確認AI於產品循環中各階段之負責人,包含其維護相關紀錄之責任。

TOP