歐盟執委會發布《歐盟晶片調查報告》提出四點發現以利未來晶片法相關計畫制定

  歐盟執委會(European Commission)於2022年8月2日發布《歐盟晶片調查報告》(European Chips Survey Report,下稱調查報告),調查結果顯示業界至2030年為止,對晶片之需求將倍數成長。調查報告於2022年2月啟動,其目的在收集有關晶片和晶圓(wafer)現行及未來需求的初步資訊,作為了解晶片供應危機對歐盟產業影響的第一步。調查報告總共收到141份來自半導體供需雙方廠商之回饋意見,其中有54.9%來自大型企業、17.3%來自中型企業、19.5%來自小型企業、8.3%來自微型企業。調查報告對上述意見進行分析,以提供來自半導體價值鏈洞察與預測的觀點。

  調查報告主要包括以下四點:
  (1) 預計2022年至2030年間晶片需求將倍增,未來對領先半導體技術的需求將顯著增加。
  (2) 在選擇製造地點時,建立新晶片製造設施的公司將著重合格的勞工及遵循政府法令。
  (3) 供應危機影響所有生態系統,預計至少會持續到2024年,迫使企業採取代價較高的緩解措施。
  (4) 半導體研發資金主要與供應方相關,但補助計畫(support initiatives)也與需求方相關。

  2022年2月8日歐盟執委會提出《歐盟晶片法草案》,旨在處理半導體短缺以及加強歐洲技術領先地位。隨著歐洲半導體專家小組開始研究監控與盤點架構,調查報告的結果可以協助制定《歐盟晶片法草案》與相關計畫。

本文為「經濟部產業技術司科技專案成果」

你可能會想參加
※ 歐盟執委會發布《歐盟晶片調查報告》提出四點發現以利未來晶片法相關計畫制定, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8880&no=55&tp=1 (最後瀏覽日:2026/02/18)
引註此篇文章
你可能還會想看
維吉尼亞州最高法院判定該州之垃圾郵件法規違憲

  維吉尼亞州最高法院以維吉尼亞州電腦犯罪法(Virginia Computer Crimes Act)中關於垃圾郵件之條文違反美國憲法第一修正案對言論自由之保護,於2008年9月12日判定該條文違憲。   2003年時,維吉尼亞州檢方為追查垃圾郵件發送人,而搜索居住於加州地區之Jeremy Jaynes,據信Jeremy Jaynes透過發送垃圾郵件每月可獲利達75萬美元。在該次搜索過程中,維吉尼亞州檢方發現Jeremy Jaynes持有大量電子郵件位址資訊以及上百萬美國線上公司(AOL)用戶之電子郵件帳號及其他個人資訊,檢方便以維吉尼亞州電腦犯罪法中關於垃圾郵件之規範起訴他。Jeremy Jaynes在一審及二審均被判有罪,然其抗辯維吉尼亞州電腦犯罪法中關於垃圾郵件規範之條文違反美國憲法第一修正案所保障之言論自由。   維吉尼亞州最高法院認為,電腦犯罪法中關於垃圾郵件之規範並不以商業性電子郵件為限,則包含政治性言論以及宗教性言論之非商業性電子郵件亦將受到此一條文之限制。有鑑於發表匿名言論乃是美國憲法第一修正案所保護之言論自由的一環,該法條即必須通過嚴格審查標準,亦即該管制規範必須係為達州之重大公共利益之侵害最輕微的手段,電腦犯罪法之該條文並無法通過此一審查標準之檢驗,故而判定違憲。

美國國家標準暨技術研究院發布「人工智慧風險管理框架:生成式AI概況」

  美國國家標準暨技術研究院(National Institute of Standard and Technology, NIST)2024年7月26日發布「人工智慧風險管理框架:生成式AI概況」(Artificial Intelligence Risk Management Framework: Generative Artificial Intelligence Profile),補充2023年1月發布的AI風險管理框架,協助組織識別生成式AI(Generative AI, GAI)可能引發的風險,並提出風險管理行動。GAI特有或加劇的12項主要風險包括: 1.化學、生物、放射性物質或核武器(chemical, biological, radiological and nuclear materials and agents, CBRN)之資訊或能力:GAI可能使惡意行為者更容易取得CBRN相關資訊、知識、材料或技術,以設計、開發、生產、使用CBRN。 2.虛假內容:GAI在回應輸入內容時,常自信地呈現錯誤或虛假內容,包括在同一情境下產出自相矛盾的內容。 3.危險、暴力或仇恨內容:GAI比其他技術能更輕易產生大規模煽動性、激進或威脅性內容,或美化暴力內容。 4.資料隱私:GAI訓練時需要大量資料,包括個人資料,可能產生透明度、個人資料自主權、資料違法目的外利用等風險。 5.環境影響:訓練、維護和運行GAI系統需使用大量能源而影響碳排放。 6.偏見或同質化(homogenization):GAI可能加劇對個人、群體或社會的偏見或刻板印象,例如要求生成醫生、律師或CEO圖像時,產出女性、少數族群或身障人士的比例較低。 7.人機互動:可能涉及系統與人類互動不良的風險,包括過度依賴GAI系統,或誤認GAI內容品質比其他來源內容品質更佳。 8.資訊完整性:GAI可能無意間擴大傳播虛假、不準確或誤導性內容,從而破壞資訊完整性,降低公眾對真實或有效資訊的信任。 9.資訊安全:可能降低攻擊門檻、更輕易實現自動化攻擊,或幫助發現新的資安風險,擴大可攻擊範圍。 10.智慧財產權:若GAI訓練資料中含有受著作權保護的資料,可能導致侵權,或在未經授權的情況下使用或假冒個人身分、肖像或聲音。 11.淫穢、貶低或虐待性內容:可能導致非法或非自願性的成人私密影像或兒童性虐待素材增加,進而造成隱私、心理、情感,甚至身體上傷害。 12.價值鏈和組件整合(component integration):購買資料集、訓練模型和軟體庫等第三方零組件時,若零組件未從適當途徑取得或未經妥善審查,可能導致下游使用者資訊不透明或難以問責。   為解決前述12項風險,本報告亦從「治理、映射、量測、管理」四大面向提出約200項行動建議,期能有助組織緩解並降低GAI的潛在危害。

什麼是「美國CFIUS」?

  美國CFIUS又稱為美國外資投資委員會(Committee on Foreign Investment in the United States),其依據1950年國防製造法(Defense Production Act of 1950)第721款The Exon-Florio修正案,授權組成的政府委員會。   美國外資投資委員會CFIUS的主要任務,在於審查外資併購交易,以防外國人透過跨國企業併購方式,控制美國企業,危及國家經濟與軍事安全並導致本國高科技技術外流。   美國在2007年簽署「外國投資和國家安全法」(The Foreign Investment and National Security Act of 2007,簡稱FINSA),該法案針對外國投資安全審查項目,包括加強國家安全概念、完善CFIUS審查與監督職責等。   近期,新的立法提案方向為「外國投資風險審查現代化法案」(the Foreign Investment Risk Review Modernization Act of 2017,簡稱FIRRMA)。此法案目標是推展CFIUS現代化改革,限制外資對美國科技公司和基礎設施的投資,以維護國家安全。該法案將帶給國會、外商投資及CFIUS的監管環境顯著改變,具體內容包括擴大CFIUS管轄權與權力、擴大對美國關鍵技術與基礎設施投資審查、增加國家安全風險考量因素等。

歐盟第29條工作小組發布「自動化個人決策和分析指引」處理個人資料自動化決策與資料剖析風險問題

  歐盟第29條工作小組於2017年10月3日為因應歐盟一般資料保護規則(GDPR)第22條規定發布「自動化個人決策和分析指引」(Guidelines on Automated individual decision-making and Profiling for the purposes of Regulation 2016/679,2018年2月6日進一步修正,下稱指引),處理對個人資料自動化決策(automated decision-making)和個人檔案剖析(Profiling)的建立。   指引分為五個部分與最佳實踐建議,旨在幫助資料控制者(controller)合乎GDPR對個人資料自動化決策和分析的要求,內容包括下幾點:1.定義自動化決策和分析,以及GDPR對這些概念的處理方法;2.對GDPR第22條中關於自動化決策的具體規定;3.對自動決策和分析的一般規定;4.兒童和個人檔案剖析(Profiling)的建立;5.資料保護影響評估。   指引的主要內容包括:   個人檔案剖析(Profiling),意謂收集關於個人(或一群個人)的資料,並分析他們的特徵或行為模式,加以分類或分群,放入特定的類別或組中,和/或進行預測或評估(例如,他們執行任務的能力,興趣或可能的行為)。   禁止對個人資料完全自動化決策,包括有法律上法或相類重大影響的檔案剖析,但規則也有例外。應有措施保障資料主體的權利,自由和合法利益。   GDPR第22條第二項a之例外規定,(履行契約所必需的),自動化個人決策時,應該作狹義解釋。資料控制者必須能夠提出分析、自動化個人決策的必要性,同時考慮是否可以採取侵害隱私較少之方法。   工作小組澄清,關於在要求提供有關自動化決策所涉及的邏輯上有意義的資料時,控制者應以簡單的方法,告訴資料主體其背後的理由或依據的標準,而不得總是以自動化決策所使用算法進行複雜的解釋或者公開完整的算法為之。所提供的資料應該對資料當事人有意義。   對資料主體提供關於處理自動化決策上有關重要性和預期後果的資料,其意義在於必須提供關於該資料之用途或資料未來處理以及自動化決策如何影響資料主體的重要訊息。例如,在信用評等的情況下,應有權知道其資料處理的基礎,資料主體並能對其作出正確與否的決定,而不僅僅是關於決策本身的資料。   「法律效果」是指對某人的法律權利有影響,或者影響到個人法律關係或者其契約上權利。   工作組並未將GDPR前言71段視為絕對禁止純粹與兒童有關的自動決定,指出僅在某些情況下才有其適用(例如,保護兒童的福利)。   在基於自動化處理(包括分析)以及基於哪些決策產生法律效應或類似顯著效果的基礎上對個人方面進行系統和廣泛評估的情況下,進行資料保護影響評估並不局限於「單獨」自動化處理/決定。

TOP