IBM同意中國大陸政府檢視部份產品原始碼

  近年來中國大陸政府為了資安考量,制訂相關法規要求外國科技公司進入中國大陸市場時必須提供程式原始碼,避免他方非法(例如利用病毒)透過電腦軟體進入中國大陸的系統和資料。

  IBM公司近日發表聲明,允許特定國家在其嚴格的監控下,檢視其部份產品的軟體原始碼,確保產品沒有資訊安全的漏洞,中國大陸也在這些特定國家之列。這是美國重要的科技大廠,首次公開同意遵守中國大陸政府對於外國技術的資訊安全審查,然而此舉讓美國政府與其他矽谷科技公司頗有微詞。

  IBM開放檢視其程式碼的對象為中華人民共和國工業與信息化部。IBM在聲明中表示,原始碼的檢視必須在IBM公司內,於無網路連線並受IBM安全應用程式監控的環境下進行,並保證這些軟體原始碼不會被釋出、被複製,或以任何方式改作。在嚴格的環境和時間限制下,IBM不會讓中國大陸政府有機會接觸其客戶資料庫,也不會涉及後門程式(back door)。至於會提供哪些產品的原始碼檢視,或中國大陸官方可檢視的時間有多長,IBM尚無明確說明。事實上IBM並非唯一提供程式碼的科技公司,微軟公司早在2003年即允許中國大陸、俄國、英國等國家檢視微軟Windows部分產品的原始碼。

  有市場分析公司指出,IBM為降低智慧財產權被複製的風險,所釋出的原始碼可能只涉及基本功能,不包含專有的演算碼,且像IBM此類的公司,應該擁有閉源軟體(closed-source)或特別的軟體以嚴密地維護底層的原始碼,避免中國大陸政府藉由檢視原始碼執行反向工程(Reverse Engineering)。

  IBM公司願意提供中國大陸政府檢視部分產品原始碼,目的在於展示其產品安全性,試圖擴展IBM在中國大陸的商業版圖。IBM旗下的雲端運算平台Bluemis未來將與中國大陸的數據中心服務公司—北京世紀互聯寬帶數據中心有限公司合作。該公司同時也是微軟在中國大陸的合作夥伴。

相關連結
※ IBM同意中國大陸政府檢視部份產品原始碼, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=7041&no=55&tp=1 (最後瀏覽日:2026/01/18)
引註此篇文章
你可能還會想看
加州針對18歲以下兒童通過兒童隱私保護法

加州州長Gavin Newsom 早先簽署了《加利福尼亞州適齡設計法》(California Age-Appropriate Design Code Act AB 2273,以下簡稱該法),2023年4月28日,倡議團體與聯邦政府官員提交一份意見陳述以支持該法,預計於2024年7月1日生效;針對提供線上服務、產品給18歲以下加州兒童的企業進行管制。 該法的適用範圍: 1. 倘若企業提供的線上服務、產品或功能符合以下條件,則受該法所規範: (1) 提供服務的對象為兒童(年齡於13歲以下的孩童)之網路服務商。 (2) 所提供之服務包括兒童經常瀏覽的網站,或者確定是廣泛被兒童使用的線上服務、產品或功能。 2. CPRA(California Privacy Rights Act)所規範之「企業」,是位於加州並蒐集加州居民個人資料的營利性組織,其須滿足以下條件之一: (1) 年度總收入超過 25,000,00美元,或是每年單獨或聯合購買、出售或共享100,000名以上加州居民或家庭的個人資料,或者年收入的50%以上來自出售或共享加州居民的個人資料。 (2) 該法不適用於網路寬頻服務、電信服務或實體買賣行為。 一. 規範內容 1. 資料保護影響評估:企業針對所營事業須完成資料保護評估,且必須每兩年自主進行資料安全確認。 2. 最高級別隱私權設置:企業對於兒童使用者,須預設最高等級之隱私權設置及保護。 3. 隱私政策和條款:企業必須簡明的提供隱私政策、服務條款和明確標準,並使用與兒童年齡相符的清晰語言,以便兒童理解語意。  (1) 將兒童依據年紀分為:0至5歲為「早期識字階段」、6至9歲為「核心小學階段」、10至12歲為「過渡階段」、13歲以上為「早期成年階段」。  (2) 定位服務:要求企業在兒童的活動或位置受到父母、監護人或其他消費者的監控或追蹤時,向兒童明確提醒。 該法針對兒童制定嚴謹的法規予以保護,確保兒童個人資料不會在沒有認知的情況下,因使用服務而被蒐集、處理及利用。該法特殊的地方為,對於未成年人進一步區分不同年齡段,若有明確區分出並針對各年齡段進行不同的告知事項設計,將更易使閱讀之未成年人明確了解個資告知內容,應值贊同。

韓國公共行政安全部制定《公部門AI倫理原則》草案,以提升民眾對公部門應用AI之信任

2025年11月,韓國公共行政安全部(Ministry of the Interior and Safety,下稱MOIS)於新聞稿宣布制定《公部門AI倫理原則》草案,追求公益、公平無歧視、透明、問責明確、安全性及隱私保護等六大核心價值,旨於促進創新、提升民眾對公部門應用AI之信任。 一、適用範圍 《公部門AI倫理原則》草案適用對象為公部門,包含中央、地方政府機關等,其性質為不具強制力的指引。 二、檢核表分三階段漸進式管理 《公部門AI倫理原則》草案依AI 應用的複雜程度分為三階段漸進式管理,設計最高達90個細項的檢核表(Checklist),惟目前尚未公開詳細內容: (一)第一階段:基礎導入(AI基礎應用) 針對技術引進的初步活用階段,共包含31個檢核項目,旨在建立基礎的倫理合規防線。 (二)第二階段:進階應用(AI決策支援) 適用於AI提供資料分析與建議以輔助人員進行行政決策的情境。隨著影響力提升,檢核項目擴增至74個,強化透明性與責任性的審查。 (三)第三階段:深度融合(AI自主決策) 針對AI具備高度自主決策權的高風險情境(如自主化服務或複雜判斷),執行最嚴密的倫理檢查,共達90個檢核項目。 建議公部門依檢核表自行檢查,並依結果建立「調整與回饋」的循環機制,以因應不斷變化的技術環境。 MOIS部長指出,未來將進一步蒐集學界意見以完備倫理原則,並開發一套AI倫理原則之培訓課程,確保一線能落實執行這90個檢核項目,保障人權與基本權利。 由於目前未見90個檢核項目內容,值得持續追蹤後續進展。 本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。 本文同步刊登於TIPS網站(https://www.tips.org.tw)

新加坡網路安全局發布人工智慧系統安全指南,以降低AI系統潛在風險

新加坡網路安全局(Cyber Security Agency of Singapore, CSA)於2024年10月15日發布人工智慧系統安全指南(Guidelines on Securing AI Systems),旨在強化AI系統安全,協助組織以安全之方式運用AI,降低潛在風險。 該指南將AI系統生命週期分成五個關鍵階段,分別針對各階段的安全風險,提出相關防範措施: (1)規劃與設計:提高AI安全風險認知能力,進行安全風險評估。 (2)開發:提升訓練資料、模型、應用程式介面與軟體庫之供應安全,確保供應商遵守安全政策與國際標準或進行風險管理;並辨識、追蹤及保護AI相關資產(例如模型、資料、輸入指令),以確保AI開發環境安全。 (3)部署:適用標準安全措施(例如存取控制、日誌記錄),並建立事件管理程序。 (4)運作與維護:持續監控AI系統的輸入和輸出,偵測異常與潛在攻擊,並建立漏洞揭露流程。 (5)壽命終期:應根據相關行業標準或法規,對資料與模型進行適當之處理、銷毀,防止未經授權之存取。 CSA期待該指南發布後,將有助於預防供應鏈攻擊(supply chain attacks)、對抗式機器學習攻擊(Adversarial Machine Learning attacks)等安全風險,確保AI系統的整體安全與穩定運行。

ENUM架構之初步研究-以奧地利ENUM Trial為例

TOP