美國新發布加強軍商二用科技產品管理行動

  美國政府近年來為預備恐怖活動積極部署國家安全相關措施,包括運用出口管理規則(Export Administration Regulations)監控軍商二用技術及產品(dual-use items)之輸出;然而在維護國家安全的同時,美國仍然希望能持續鞏固其經濟及技術領先地位,以及避免全球高科技及市場遭到稀釋。美國總統因此於今(2008)年初,提出一系列有關軍商二用出口管制之行政新措施,欲藉此強化軍商二用出口管制制度(dual-use export control system)。其主要目標如下:

 

(1)適當管制外國終端用戶(Foreign End-Users):美國政策作法是,未來軍商二用出口管制制度將要著重在美國高科技產品外國終端用戶之管理,除了保持其拒絕將敏感性科技輸給武器擴散份子、國際恐怖分子和習慣進行違背美國國家安全及外交政策與利益之國家對象之宗旨外,美國一方面將擴大受管制實體清單(Entity List)對象範圍,嚴格審查曾從事違背美國國家安全和外交政策及利益活動之外國夥伴;另方面,美國則將妥善使用所謂正當使用者計畫(Validated End User(VEU) program),免除這些受信賴之使用對象在輸出產品時受制於嚴格的出口申請程序。例如港商Manufacturing International Corporation(SMIC)最近即被納入VEU初始清單。

(2)增進國家競爭能力:美國將以維持經濟競爭力和創新研發為目標,建立一道檢討受管制軍商二用標的之常規程序,藉此重新評估並適時修正商業控制清單(Commerce Control List)所列產品及對象。

(3)透明化:為求達到資訊公開、共同促進國家安全及競爭之目的,美國商業部還會在網站上公開受到高度審查之外國夥伴清單。

 

  最後,美國行政主管機關亦表示,為了有利於行政機關有效執行國家軍商二用出口管制政策,高度支持透過出口管理法(Export Administration Act)修正之再授權,更新違法之刑罰規定,並提升行政機關之執行權限。

本文為「經濟部產業技術司科技專案成果」

相關連結
相關附件
※ 美國新發布加強軍商二用科技產品管理行動, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=2716&no=67&tp=1 (最後瀏覽日:2026/02/16)
引註此篇文章
你可能還會想看
動物實驗顯示吸入奈米微粒會損害肺部與循環系統

  三月上旬甫於美國新奧爾良舉行的毒物學學會研討會,多數的論文將重點放在肺部暴露於奈米微粒的影響。例如來自美國太空總署休士頓太空中心的John T. James與其同僚,將奈米微粒噴入老鼠的呼吸道,於一週與三個月後再進行檢驗,結果發現儘管類似煤煙的碳奈米球狀物不會造成傷害,可是相當質量的商品化碳奈米管卻會顯著的損及肺部組織,甚至殺死幾隻老鼠。研究人員發現巨噬細胞(macrophages)會困住奈米管,不過隨之死亡。James認為研究小組所使用的劑量並不是非常不切實際,他估計在目前的美國聯邦碳吸入量法規限制下,相對於人體重量,工作人員在17天之內會吸入相等的劑量。    美國西維吉尼亞州國家職業安全與健康協會的Petia Simeonova與其同事,也觀察到接受類似劑量碳奈米管的老鼠會產生富含微粒的肺肉芽腫(granulomas),研究人員也對心臟與主動脈的粒線體DNA進行損害檢查,粒線體傷害為發生動脈硬化(atherosclerosis)的先兆。    日本鳥取大學 (Tottori University )Akinori Shimada報告了首例奈米微粒從肺部移動到血液的系列圖像,碳奈米管一接觸到老鼠肺部極細小的氣管,即湧入穿過表面細胞的微小間隙,並且鑽入毛細血管,Shimada推測此會造成凝集甚至血栓。    羅徹斯特大學Alison Elder報告兔子吸入碳奈米球之後,增大了血液凝塊的敏感性。為了模擬糟糕的都市空氣污染,研究人員給予兔子每立方米包含70微克奈米球體微粒的空氣超過三小時,再觀察發生血液凝塊的時間,結果呼吸奈米微粒的兔子,一天之內即發生血液凝塊現象。因為發生的很快,所以Alison Elder認為奈米微粒是從肺部移動進入血流,而非從肺部送出凝血劑(clotting agents )。

金融穩定委員會報告指出金融領域採用AI之模型、資料品質與治理風險

.Pindent{text-indent: 2em;} .Noindent{margin-left: 2em;} .NoPindent{text-indent: 2em; margin-left: 2em;} .No2indent{margin-left: 3em;} .No2Pindent{text-indent: 2em; margin-left: 3em} .No3indent{margin-left: 4em;} .No3Pindent{text-indent: 2em; margin-left: 4em} 金融穩定委員會(Financial Stability Board, FSB)於2024年11月14日發布《人工智慧對金融穩定的影響》報告,探討人工智慧(Artificial Intelligence, AI)在金融領域的應用進展及對全球金融穩定的影響,分析相關風險並提出建議。 報告指出AI具有提升效率、加強法規遵循、提供個人化金融產品及進階資料分析等益處,但同時可能加劇某些金融部門的脆弱性(Vulnerability),進而構成金融穩定風險。報告特別提出之脆弱性包括:「第三方依賴及服務供應商集中化」、「市場相關性」、「資安風險」,以及「模型風險、資料品質和治理」。 在模型風險、資料品質與治理中,廣泛應用AI可能導致模型風險上升,因某些模型難以驗證、監控及修正,且模型的複雜性與透明性不足將增加尋找具獨立性和專業知識的驗證者的挑戰。此外,在大型語言模型(Large Language Model, LLM),大規模非結構化資料的使用及訓練資料來源的不透明性,使資料品質評估更加困難。特別是在預訓練模型(Pre-trained Model)中,金融機構對眾多資料來源的評估方式不熟悉,進一步增加管理難度。 若金融機構未建立健全的治理架構以審查AI的使用及其資料來源,模型風險與資料品質問題將難以控制。金融機構有責任應對與AI相關的模型風險和資料品質挑戰,包含對模型進行驗證、持續監控、執行結果分析和評估資料品質的預期要求。 報告呼籲各國金融主管機關加強對AI發展的監測,評估現行金融政策框架是否充分,並增強監管能力。建議可定期或不定期調查AI應用情形,並透過報告及公開揭露制度獲取相關資訊。此外,主管機關可考慮利用監督科技(SupTech)及監管科技(RegTech)等AI驅動工具強化監管效能,以應對AI在金融領域帶來的挑戰與風險。

通用人工智慧的透明揭露標準--歐盟通用人工智慧模型實踐準則「透明度 (Transparency)」章

通用人工智慧的透明揭露標準--歐盟通用人工智慧模型實踐準則「透明度 (Transparency)」章 資訊工業策進會科技法律研究所 2025年08月06日 歐盟人工智慧辦公室(The European AI Office,以下簡稱AIO) 於2025年7月10日提出《人工智慧法案》(AI Act, 以下簡稱AIA法案)關於通用型人工智慧實作的準則[1] (Code of Practice for General-Purpose AI Models,以下簡稱「GPAI實踐準則」),並於其中「透明度 (Transparency)」章節[2],針對歐盟AIA法案第53條第1項(a)、(b)款要求GPAI模型的提供者必須準備並提供給下游的系統整合者 (integrator) 或部署者 (deployer) 足夠的資訊的義務,提出模型文件(Model Documentation)標準與格式,協助GPAI模型提供者制定並更新。 壹、事件摘要 歐盟為確保GPAI模型提供者遵循其AI法案下的義務,並使AIO能夠評估選擇依賴本守則以展現其AI法案義務合規性的通用人工智慧模型提供者之合規情況,提出GPAI實踐準則。當GPAI模型提供者有意將其模型整合至其AI系統的提供者(以下稱「下游提供者」)及應向AIO提供相關資訊,其應依透明度章節要求措施(詳下述)提出符合內容、項目要求的模型文件,並予公開揭露且確保已記錄資訊的品質、安全性及完整性 (integrity)。 由於GPAI模型提供者在AI價值鏈 (AI value chain) 中具有特殊角色和責任,其所提供的模型可能構成一系列下游AI系統的基礎,這些系統通常由需要充分了解模型及其能力的下游提供者提供,以便將此類模型整合至其產品中並履行其AIA法案下的義務。而相關資訊的提供目的,同時也在於讓AIO及國家主管機關履行其AI法案職責,特別是高風險AI的評估。 AIO指出完整填寫與定期更新模型文件,是履行AIA法案第53條義務的關鍵步驟。GPAI模型提供者應建立適當的內部程序,確保資訊的準確性、時效性及安全性。模型文件所含資訊的相關變更,包括同一模型的更新版本,同時保留模型文件的先前版本,期間至模型投放市場後10年結束。 貳、重點說明 一、制定並更新模型文件(措施1.1) 透明度 (Transparency)章節提供模型文件的標準表格,做為GPAI實踐準則透明度章節的核心工具,協助GPAI模型提供者有系統性的整理並提供AIA法案所要求的各項資訊。表格設計考量了不同利害關係人的資訊需求,確保在保護商業機密的同時,滿足監管透明度的要求。 前揭記錄資訊依其應提供對象不同,各欄位已有標示區分該欄資訊係用於AI辦公室 (AIO)、國家主管機關 (NCAs) 或下游提供者 (DPs)者。適用於下游提供者的資訊,GPAI模型提供者應主動提供(公開揭露),其他則於被請求時始須提供(予AIO或NCAs)。 除基本的文件最後更新日期與版本資訊外,應提供的資訊分為八大項,內容應包括: (一)、一般資訊General information 1.模型提供者法律名稱(Legal name) 2.模型名稱(Model name):模型的唯一識別碼(例如 Llama 3.1-405B),包括模型集合的識別碼(如適用),以及模型文件涵蓋之相關模型公開版本的名稱清單。 3.模型真實性(Model authenticity):提供明確的資訊例如安全雜湊或URL端點,來幫助使用者確認這個模型的來源 (Provenance)、是否真實性未被更動 (Authenticity)。 4.首次發布日(Release date)與首次投放歐盟市場的日期(Union market release date)。 5.模型依賴(Model dependencies):若模型是對一個或多個先前投放市場的GPAI模型進行修改或微調的結果,須列出該等模型的名稱(及相關版本,如有多個版本投放市場)。 (二)、模型屬性(Model properties) 1.Model architecture 模型架構:模型架構的一般描述,例如轉換器架構 (transformer architecture)。 2.Design specifications of the model 模型設計規格:模型主要設計規格的一般描述,包括理由及所作假設。 3.輸出/入的模式與其最大值(maximum size):說明係文字、影像、音訊或視訊模式與其最大的輸出/入的大小。 4.模型總參數量(model size)與其範圍(Parameter range):提供模模型參數總數,記錄至少兩個有效數字,例如 7.3*10^10 參數,並勾選參數(大小)所在範圍的選項,例如:☐>1T。 (三)、發佈途徑與授權方式(Methods of distribution and licenses) 1.發佈途徑Distribution channels:列舉在歐盟市場上使用模型的採用法,包括API、軟體套裝或開源倉庫。 2.授權條款License:附上授權條款鏈結或在要求時提供副本;說明授權類型如: 開放授權、限制性授權、專有授權;列出尚有提供哪些相關資源(如訓練資料、程式碼)與其存取方式、使用授權。 (四)、模型的使用(Use) 1.可接受的使用政策Acceptable Use Policy:附上可接受使用政策連結或副本或註明無政策。 2.預期用途或限制用途Intended uses:例如生產力提升、翻譯、創意內容生成、資料分析、資料視覺化、程式設計協助、排程、客戶支援、各種自然語言任務等或限制及/或禁止的用途。 3.可整合AI系統之類型Type and nature of AI systems:例如可能包括自主系統、對話助理、決策支援系統、創意AI系統、預測系統、網路安全、監控或人機協作。 4.模型整合技術方式Technical means for integration:例如使用說明、基礎設施、工具)的一般描述。 5.所需軟硬體資源Required hardware與software:使用模型所需任何軟硬體(包括版本)的描述,若不適用則填入「NA」。 (五)、訓練過程(Training process) 1.訓練過程設計規格(Design specifications of the training process):訓練過程所涉主要步驟或階段的一般描述,包括訓練方法論及技術、主要設計選擇、所作假設及模型設計最佳化目標,以及不同參數的相關性(如適用)。例如:「模型在人類偏好資料集上進行10個輪次的後訓練,以使模型與人類價值觀一致,並使其在回應使用者提示時更有用」。 2.設計決策理由(Decision rationale):如何及為何在模型訓練中做出關鍵設計選擇的描述。 (六)、用於訓練、測試及驗證的資料資訊(Information on the data used for training, testing, and validation) 1.資料類型樣態Data type/modality:勾選樣態包括文字、影像、音訊、視訊或說明有其他模態。 2.資料來源Data provenance:勾選來源包括網路爬蟲、從第三方取得的私人非公開資料集、使用者資料、公開資料集、透過其他方式收集的資料、非公開合成(Synthetic )資料等。 3.資料取得與選取方式(How data was obtained):取得及選擇訓練、測試及驗證資料使用方法的描述,包括用於註釋資料的方法及資源,以及用於生成合成資料的模型及方法。從第三方取得的資料,如果權利取得方式未在訓練資料公開摘要中披露,應描述該方式。 4.資料點數量Number of data points:說明訓練、測試及驗證資料的大小(資料點數量),連同資料點單位的定義(例如代幣或文件、影像、視訊小時或幀)。 5.資料範疇與特性(Scope and characteristics):指訓練、測試及驗證資料範圍及主要特徵的一般描述,如領域(例如醫療保健、科學、法律等)、地理(例如全球、限於特定區域等)、語言、模式涵蓋範圍。 6.資料清理處理方法(Data curation methodologies):指將獲取的資料轉換為模型訓練、測試及驗證資料所涉及的資料處理一般描述,如清理(例如過濾不相關內容如廣告)、資料擴增。 7.不當資料檢測措施(Measures for unsuitability):在資料獲取或處理中實施的任何方法描述(如有),以偵測考慮模型預期用途的不適當資料源,包括但不限於非法內容、兒童性虐待材料 (CSAM)、非同意親密影像 (NCII),以及導致非法處理的個人資料。 8.可識別偏誤檢測措施(Measures to detect identifiable biases):描述所採取的偵測與矯正訓練資料存在偏誤的方法。 (七)、訓練期間的計算資源(Computational resources (during training)) 1.訓練時間(Training time):所測量期間及其時間的描述。 2.訓練使用的計算量(Amount of computation used for training):說明訓練使用的測量或估計計算量,以運算表示並記錄至其數量級(例如 10^24 浮點運算)。 3.測量方法論(Measurement methodology):描述用於測量或估計訓練使用計算量的方法。 (八)、訓練及推論的能源消耗(Energy consumption (during training and inference)) 1.訓練耗能(Amount of energy used for training)及其計量方法:說明訓練使用的測量或估計能源量,以百萬瓦時表示(例如 1.0x10^2 百萬瓦時)。若模型能源消耗未知,可基於所使用計算資源的資訊估計能源消耗。若因缺乏計算或硬體提供者的關鍵資訊而無法估計訓練使用能源量,提供者應披露所缺乏的資訊類型。 2.推論運算耗能的計算基準 (Benchmarked amount of computation used for inference1)及其方法:以浮點運算表示方式(例如 5.1x10^17 浮點運算)說明推論運算的基準計算量,並提供計算任務描述(例如生成100000個代幣Token)及用於測量或估計的硬體(例如 64個Nvidia A100)。 二、提供GPAI模型相關資訊(措施1.2) 通用人工智慧模型投放市場時,應透過其網站或若無網站則透過其他適當方式,公開揭露聯絡資訊,供AIO及下游提供者請求取得模型文件中所含的相關資訊或其他必要資訊,以其最新形式提供所請求的資訊。 於下游提供者請求時,GPAI模型提供者應向下游提供者提供最新模型文件中適用於下游提供者的資訊,在不影響智慧財產權及機密商業的前提下,對使其充分了解GPAI模型的能力及限制,並使該等下游提供者能夠遵循其AIA法案義務。資訊應在合理時間內提供,除特殊情況外不得超過收到請求後14日。且該資訊的部分內容可能也需要以摘要形式,作為GPAI模型提供者根據AIA法案第53條第1項(d)款必須公開提供的訓練內容摘要 (training content summary) 的一部分。 三、確保資訊品質、完整性及安全性(措施1.3) GPAI模型提供者應確保資訊的品質及完整性獲得控制,並保留控制證據以供證明遵循AIA法案,且防止證據被非預期的變更 (unintended alterations)。在制定、更新及控制資訊及記錄的品質與安全性時,宜遵循既定協議 (established protocols) 及技術標準 (technical standards)。 參、事件評析 一、所要求之資訊完整、格式標準清楚 歐盟AGPAI實踐準則」的「透明度 (Transparency)」提供模型文件的標準表格,做為GPAI實踐準則透明度章節的核心工具,從名稱、屬性、功能等最基本的模型資料,到所需軟硬體、使用政策、散佈管道、訓練資料來源、演算法設計,甚至運算與能源消秏等,構面完整且均有欄位說明,而且部分欄位直接提供選項供勾選,對於GPAI模型提供者提供了簡明容易的AIA法案資訊要求合規做法。 二、表格設計考量不同利害關係人的資訊需求 GPAI實踐準則透明度章節雖然主要目的是為GPAI模型提供者對由需要充分了解模型及其能力的下游提供者提供資訊,以便其在產品履行AIA法案下的義務。但相關資訊的提供目的,同時也在於讓AIO及國家主管機關履行其AI法案職責,特別是高風險AI的評估。因此,表格的資訊標示區分該欄資訊係用於AI辦公室 (AIO)、國家主管機關 (NCAs) 或下游提供者 (DPs)者,例如模型的訓練、資料清理處理方法、不當內容的檢測、測試及驗證的資料來源、訓練與運算的能秏、就多屬AIO、NCAs有要求時始須提供的資料,無須主動公開也兼顧及GPAI模型提供者的商業機密保護。 三、配套要求公開並確保資訊品質 該準則除要求GPAI模型提供者應記錄模型文件,並要求於網站等適當地,公開提供下游提供者請求的最新的資訊。而且應在不影響智慧財產權及機密商業的前提下,提供其他對使其充分了解GPAI模型的能力及限制的資訊。同時,為確保資訊的品質及完整性獲得控制,該準則亦明示不僅應落實且應保留證據,以防止資訊被非預期的變更。 四、以透明機制落實我國AI基本法草案的原則 我國日前已由國科會公告人工智慧基本草案,草案揭示「隱私保護與資料治理」、「妥善保護個人資料隱私」、「資安與安全 」、「透明與可解釋 」、「公平與不歧視」、「問責」原則。GPAI實踐準則透明度章節,已提供一個重要的啟示—透過AI風險評測機制,即可推動GPAI模型資訊的揭露,對相關資訊包括訓練資料來源、不當內容防止採取做一定程度的揭露要求。 透過相關資訊揭露的要求,即可一定程度促使AI開發提供者評估認知風險,同時採取降低訓練資料、生成結果侵權或不正確的措施。即便在各領域作用法尚未能建立落實配套要求,透過通過評測的正面效益,運用AI風險評測機制的資訊提供要求,前揭草案揭示的隱私、著作、安全、問責等原則,將可以立即可獲得一定程度的實質落實,緩解各界對於AI侵權、安全性的疑慮。 本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。 本文同步刊登於TIPS網站(https://www.tips.org.tw) [1]The European AI Office, The General-Purpose AI Code of Practice, https://digital-strategy.ec.europa.eu/en/policies/contents-code-gpai 。(最後閱覽日:2025/07/30) [2]The European AI Office, Code of Practice for General-Purpose AI Models–Transparency Chapter, https://ec.europa.eu/newsroom/dae/redirection/document/118120 。(最後閱覽日:2025/07/30)

德國因應歐盟一般資料保護規則(GDPR)之通過,即將進行該國資料保護法(BDSG)修正

  德國聯邦資訊技術,電信和新媒體協會(bitkom)於2016年9月2日釋出將以歐盟新制定之一般資料保護規則(GDPR)內容為基礎,調整德國聯邦資料保護法(BDSG)之修法動向。   德國政府正在緊鑼密鼓地調整德國的資料保護立法,使之與歐盟GDPR趨於一致。已知未來將由“一般聯邦資料保護法”取代現行的聯邦法律。草案內容雖尚未定稿,但修正方向略有以下幾點:   首先,德國未來新法不僅參考GDPR、也試圖將該法與GDPR及歐盟2016年5月4日公告之歐盟資訊保護指令Directive(EU)2016/680相互連結。該指令係規範對主管機關就自然人為預防,調查,偵查等訴追刑事犯罪或執行刑事處罰目的,處理個人資料時的保護以及對資訊自由流通指令。   其次,新法將遵循GDPR的結構,並利用一些除外規定,如:在資料處理時企業應指派九人以上資料保護官(DPO)的義務。某些如通知當事人的義務規定,亦有可能在存有更高的利益前提下,限縮其履行範圍。此意味某些通知義務有可能得不適用,例如履行該義務需要過於龐大人力、資金支出、耗費過多等因素。   第三,聯邦法律將保留一些規定,如上傳給信用調查機構的條款、雇傭契約中雇用方面處理個人資料的條款,以及在公眾開放地區使用電子光學裝置監視的條款等。   最後,立法修正動向值得注意的重點尚有,(1)未來德國立法者將如何應對新的歐洲資料保護委員會(EDPB)中德國代表的地位(represe。由於EDPB將發布具有約束力的決定,針對爭議內容的決定意見,德國內部顯然應該統一意見。蓋因迄今為止的德國聯邦資料保護監察官(17個)經常提出不同的見解。此外,(2)還應該觀察聯邦資料保護監察官是否應該賦予權限,向法院提出對歐盟爭議決定或法律救濟,使案件進入德國法院,以爭執歐盟執委會所為之決定是否具備充足理由。前此,德國聯邦參議院(代表十六邦)2016年5月已要求聯邦政府引進新規定,使資訊監察保護官有請求法院救濟之權。這項源於安全港協議判決的討論,將來有可能提供德國資料保護監察官,挑戰隱私盾協議的可能性。但新法案是否會解決這一問題,這還有待觀察。   可預見在2017年9月下一屆德國聯邦議會選舉前,將通過法案。

TOP