美國商務部產業安全局對半導體成熟節點晶片的使用進行評估調查

美國產業安全局(Bureau of Industry and Security,下稱BIS)於2024年1月18日,針對直接或間接支持美國國家安全和關鍵基礎設施,全面評估供應鏈中成熟節點半導體設備的使用情況。本次調查將根據《1950年國防生產法》(Defense Production Act of 1950)第705條進行,以評估在美國關鍵產業(如電信、汽車、醫療設備和國防工業基地)的供應鏈中使用由中國公司生產的成熟節點晶片的程度和影響力。

BIS同時提供常見問答予各界參考,主要包括如下內容:

(1)本次評估調查為一次性的資訊蒐集;不排除未來也可能依指示再次進行類似的評估。

(2)本次評估將提供後續政策制定的參考,以加強半導體供應鏈,促進傳統晶片生產的公平競爭,並降低中國對美國帶來的國家安全風險。

(3)自1986年以來,BIS已就造船、戰略性材料、太空和航空、火箭推進、彈藥和半導體等廣泛項目進行過約60多項評估以及150多項調查。

(4)商務部可能會公開一份主要調查結果的摘要說明。

(5)本次評估並非根據《2021年國防授權法案》(National Defense Authorization Act for Fiscal Year 2021,即俗稱之《晶片法》)第9902節規定進行。個別對調查的答覆不會影響申請《晶片法》或其他政府資助的資格或考量。

(6)本次評估並非BIS對於高階運算晶片規範的一部分,而是著重成熟節點或傳統晶片的舊技術。

本文為「經濟部產業技術司科技專案成果」

相關連結
你可能會想參加
※ 美國商務部產業安全局對半導體成熟節點晶片的使用進行評估調查, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=9168&no=0&tp=1 (最後瀏覽日:2025/08/20)
引註此篇文章
你可能還會想看
美國平等就業機會委員會發布「評估就業篩選程序中使用軟體、演算法及AI之不利影響」技術輔助文件

美國平等就業機會委員會(Equal Employment Opportunity Commission, EEOC)於2023年5月18日發布「根據 1964 年《民權法》第七章評估就業篩選程序中使用軟體、演算法和AI之不利影響」(Assessing Adverse Impact in Software, Algorithms, and Artificial Intelligence Used in Employment Selection Procedures Under Title VII of the Civil Rights Act of 1964)之技術輔助文件(下簡稱「技術輔助文件」),以防止雇主使用自動化系統(automated systems)對求職者及員工做出歧視決定。 該技術輔助文件為EEOC於2021年推動「AI與演算法公平倡議」(Artificial Intelligence and Algorithmic Fairness Initiative)計畫的成果之一,旨在確保招募或其他就業決策軟體符合民權法要求,並根據EEOC 1978年公布之「受僱人篩選程序統一指引」(Uniform Guidelines on Employee Selection Procedures, UGESP),說明雇主將自動化系統納入就業決策所應注意事項。 當雇主對求職者與員工做出是否僱用、晉升、終止僱傭,或採取類似行動之決定,是透過演算法決策工具(algorithmic decision-making tool),對特定種族、膚色、宗教、性別、國籍或特定特徵組合(如亞洲女性),做出篩選並產生不利影響時,除非雇主能證明該決策與職位工作內容有關並符合業務需求,且無其他替代方案,否則此決策將違反《民權法》第七章規定。 針對如何評估不利影響,雇主得依UGESP「五分之四法則」(four-fifths rule),初步判斷演算法決策工具是否對某些族群產生顯著較低的篩選率。惟EEOC提醒五分之四法則推導出之篩選率差異較高時,仍有可能導致不利影響,雇主應依個案考量,使用實務常見的「統計顯著性」(statistical significance)等方法進一步判斷。 其次,當演算法決策工具係由外部供應商所開發,或由雇主授權管理人管理時,雇主不得以信賴供應商或管理人陳述為由規避《民權法》第七章,其仍應為供應商開發與管理人管理演算法決策工具所產生之歧視結果負責。 最後,EEOC鼓勵雇主應對演算法決策工具進行持續性自我評估,若發現該工具將產生不利影響,雇主得採取措施以減少不利影響或選擇不同工具,以避免違反《民權法》第七章。

歐盟執委會提出醫藥品管理整體配套方案,保障歐盟境內大眾用藥安全

  為確保歐洲民眾於健康醫療方面之利益,歐洲製藥工業協會聯合會(European Federal Pharnaceutical Industrial Association;簡稱EFPIA)於2009年2月17日,向歐洲議會(European Parliament)提出建議,並敦促其應儘速通過歐盟執委會(European Commission)於去年年底所提出一項關於醫藥品安全、創新與易近用性之議案。而一位業界代表Günter Verheugen於當(17)日會面後指出:「此次會面,主要是希望能就新近執委會所提交之醫藥品管理整體配套方案(Pharmaceutical Package),進行初步意見之交換與討論」。   由於保障歐盟境內民眾之健康安全,實乃歐盟決策者(Decision-makers)所應掮負之重要責任,故EFPIA總幹事Brian Ager於此次會面交流之前,亦曾高聲向歐洲議會與各會員國家呼籲,應優先將病患安全(Patient Safety)議題納入考量,並採取果斷之行動;同時,其也指明,歐洲醫藥各界為尋求各種可能落實之方法,先前早已經歷過各個階段,並遲延了決策做成之時機;故,此次會面,除要為執委會提案之審查,奠定啟動之基外,亦盼能再次集聚並挹注歐洲醫藥各界之能量,於保護歐洲人民健康安全相關之行動當中。   關於歐盟執委會於去(2008)年底所提出之議案,由於其中有多項內容對歐洲醫藥各界之影響實廣且深;因此,該項提案目前業已廣泛地受到EFPIA與業者之重視。此外,就此項醫藥品管理整體配套方案中擬採行之具體立法規範措施,實包含如後3個面向:首先,是欲透過規範擬提昇藥物警戒(Pharmacovigilance)方法之現代化;其次,強化管制規範以減少假藥滲入歐洲整體醫藥品供應鏈之機會;最後,則是要要提供高品質之健康與醫藥品相關資訊給有需要之病患或大眾近用(Access)等。   由此可知,未來歐盟整體醫藥品管理立法方向,將分由3個不同之角度出發;並同時朝「改善歐洲大眾用藥安全」之目標前進;不過,在進一步進行條文化之前,前述由執委會所提出之醫藥品管理整體配套方案,將會先交由歐洲議會與歐盟理事會官員共同進行初步之討論。

論政府資料探勘應用之個人資料保護爭議

歐盟提出人工智慧法律框架草案

  歐盟執委會於2020年2月公布《人工智慧白皮書》(AI White Paper)後,持續蒐集各方意見並提出新的人工智慧規範與行動。2021年4月針對人工智慧法律框架提出規範草案(Proposal for a Regulation on a European approach for Artificial Intelligence),透過規範確保人民與企業運用人工智慧時之安全及基本權利,藉以強化歐盟對人工智慧之應用、投資與創新。   新的人工智慧法律框架未來預計將統一適用於歐盟各成員國,而基於風險規範方法將人工智慧系統主要分為「不可接受之風險」、「高風險」、「有限風險」及「最小風險」四個等級。「不可接受之風險」因為對人類安全、生活及基本權利構成明顯威脅,故將被禁止使用,例如:政府進行大規模的公民評分系統;「高風險」則是透過正面例舉方式提出,包括:可能使公民生命或健康處於危險之中的關鍵基礎設施、教育或職業培訓、產品安全、勞工與就業、基本之私人或公共服務、可能會干擾基本權之司法應用、移民與庇護等面向,而高風險之人工智慧在進入市場之前須要先行遵守嚴格之義務,並進行適當風險評估及緩解措施等。「有限風險」則是指部分人工智慧應有透明度之義務,例如當用戶在與該人工智慧系統交流時,需要告知並使用戶意識到其正與人工智慧系統交流。最後則是「最小風險」,大部分人工智慧應屬此類型,因對公民造成很小或零風險,各草案並未規範此類人工智慧。   未來在人工智慧之治理方面,歐盟執委會建議各國現有管理市場之主管機關督導新規範之執行,且將成立歐洲人工智慧委員會(European Artificial Intelligence Board),推動人工智慧相關規範、標準及準則之發展,也將提出法規沙盒以促進可信賴及負責任之人工智慧。

TOP