美國司法部宣布德國SAP公司承認違法將美國軟體產品出口至伊朗,雙方達成不起訴協議

  美國司法部於2021年4月29日宣布,德國SAP全球軟體公司承認從2010年1月至2017年9月,因未能識別用戶下載軟體的地理位置,導致美國原產技術和軟體在未經許可下,透過雲端伺服器和入口網站提供給伊朗用戶,已違反美國《出口管制規則》(Export Administration Regulations, EAR)和《伊朗交易和制裁條例》(Iranian Transaction and Sanction Regulation, ITSR)。SAP向美國司法部、商務部和財政部支付800萬美元罰款並配合調查與補救,雙方達成不起訴協議。

  美國司法部指出,SAP違規行為主要為以下兩種。首先,SAP及其海外合作夥伴向伊朗用戶輸出超過20,000次的美國軟體產品,其方式包括軟體的更新、升級和修補程式。SAP及總部位於美國的供應商,均未使用地理位置過濾器來識別並阻止伊朗用戶下載,且多年來SAP並未採取任何措施解決此問題,導致伊朗用戶下載後,絕大多數美國軟體再流向土耳其、阿聯酋及多家伊朗跨國公司。其次,SAP旗下的雲端企業Cloud Business Group companies(簡稱CBGs)允許約2,360名用戶在伊朗使用美國的雲端運算服務。從2011年開始SAP陸續收購多家雲端服務供應商成為其CBGs,透過收購前的盡職調查及收購後的出口管制特種審計,清楚了解到這些CBGs缺乏足夠的出口管制與制裁合規程序,但SAP仍允許CBGs被收購後繼續作為獨立實體營運,且未能將CBGs完全整合至SAP自身的出口管制規劃中。

  美國司法部指出,為確保軟體等美國敏感技術產品,不會非法出口至伊朗等禁運地,公司除必須識別用戶來源外,也有責任確保供應鏈下游與之為產品交易的外國子公司能識別產品輸出地,並且同樣遵守美國經濟制裁政策與出口管制法規,維護美國外交政策與國家安全,防止美國敏感技術落入競爭對手手中。

本文為「經濟部產業技術司科技專案成果」

相關連結
你可能會想參加
※ 美國司法部宣布德國SAP公司承認違法將美國軟體產品出口至伊朗,雙方達成不起訴協議, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8699&no=64&tp=1 (最後瀏覽日:2025/12/10)
引註此篇文章
你可能還會想看
何謂芬蘭「SHOKs」?

  2006年芬蘭研究創新委員會在其創新政策倡議中指出,為結合產學研就重大發展領域進行長期合作,加速該國公私合作投入創新過程 Public-Private Partnerships (PPP),故以非營利性有限公司型態成立科學技術創新策略中心(Strategic Centres for Science, Technology and Innovation, SHOKs)。   SHOKs的計畫經費主要由芬蘭技術處(Tekes)提供補助,惟政府補助比例上限:最高上限75%,必要時Tekes可減少補助以符合上述比例。2008年到2014年用於補助研究計畫金額總和為5.45億歐元。   SHOKs科研計畫成果智財權歸屬及運用規定概述如下: 一、既有智慧財產權歸屬及運用: 1.參與者共同執行研究計畫不影響其既有智慧財產權之歸屬。 2.參與者之既有智慧財產權,若屬其他共同參與者執行計畫有必要者,應依無償或FRAND原則對其他共同執行研究計畫之參與者進行授權。 3.與執行計畫目的無關之既有智慧財產權使用,應另行協商授權事宜。 二、計畫成果智慧財產權歸屬: 1.歸屬於產出成果之一方,但如成果是多方參與者共同產出,原則上共有,但可另約定僅歸屬一方。 2.非SHOKs股東對研發成果產出有重大貢獻者,該研發成果亦可歸屬於該非SHOKs股東。 三、計畫成果智慧財產權之運用: 1.參與者為研究機構者,應向欲運用其研發成果之企業參與者進行移轉或授權時,收取相當於市場價格的補償金。 2.研究計畫參與者得無償取得相同及全球範圍之成果使用權,但除研究機構外不得再授權。

舊金山監事會通過決議禁止政府使用臉部辨識

  美國舊金山監事會(San Francisco Board of Supervisors,編按:監事會是舊金山市的立法部門,性質類似議會)於2019年05月通過停止秘密監察條例(Stop Secret Surveillance Ordinance),並將其訂入行政法規(San Francisco Administrative Code)條文,包括增訂第19B章及修訂第2A.20節、第3.27節、第10.170-1節和第21.07節。根據行政法規第19B章,舊金山政府及執法機構未來將不能使用臉部辨識科技,也不能處理或利用任何自臉部辨識科技取得的資訊。   易言之,在公共場所安裝具備臉部辨識科技的監視器,或暗自使用臉部辨識科技尋找嫌疑犯都構成違法行為。然而,法規的修訂不代表舊金山內所有臉部辨識系統將全面停止。由於舊金山機場及港口屬美國聯邦政府管轄,不受地方政府法律所規範,仍可使用臉部辨識科技;而民眾及私人企業並非修訂條文的規範對象,亦可繼續採用。   此次法規的修訂引發高度關注,各界也熱烈討論。反對者表示,法規的修訂使執法機關打擊犯罪的努力付之一炬,危害民眾安全;贊成者則認為,臉部辨識科技過分侵害人民的隱私權和自由權,應對其有所限制。畢竟,臉部辨識科技並非萬無一失,尤其當受辨識者為女性或深膚色人種時,準確率往往下降許多,而有歧視的疑慮。舊金山首開先例立法,成為全美第一個限制政府使用臉部辨識科技的城市,其他城市或國家未來是否會仿效而相繼立法,值得繼續關注。

英國資訊委員辦公室表示個人資料之處理應遵循GDPR,公務機關也不例外

  自西元2017年1月以來,英國稅務海關總署(Her Majesty's Revenue and Customs, HMRC)開始要求英國民眾使用線上語音方式進行身分認證,而民眾的聲音檔案亦被儲存至英國稅務海關總署的語音資料庫內。英國資訊委員辦公室(Information Commissioner's Office, ICO)深入調查後發現英國稅務海關總署的語音身分認證系統存在下列兩種違法情形: 未能向民眾充分揭露、告知民眾其語音、聲紋等生物識別資料如何被處理等資訊。 蒐集民眾的生物識別資料時,未能給予民眾自由行使同意或拒絕權利的機會。   英國資訊委員辦公室認為英國稅務海關總署前開情形已經違反了歐盟一般資料保護規則(General Data Protection Regulation, GDPR),根據歐盟一般資料保護規則,英國稅務海關總署在蒐集、處理或利用民眾個人資料時,必須合法、公正及透明,並應取得民眾的明確同意。英國資訊委員辦公室後續將要求英國稅務海關總署應刪除違法蒐集的生物識別資料。   本次英國資訊委員辦公室的執法行動是基於2018年5月25日生效的歐盟一般資料保護規則與英國2018年資料保護法(The Data Protection Act 2018),英國資訊委員辦公室強調創新的數位服務雖有助於民眾的生活更輕鬆,但絕不能以犧牲民眾的隱私為代價,同時也隱約透露著:「沒有一個組織(包含政府機關)能夠凌駕於法律之上。」。

世界經濟論壇發布《人工智慧公平性和包容性藍圖》白皮書

  世界經濟論壇(World Economic Forum, WEF)於2022年6月29日發布《人工智慧公平性和包容性藍圖》白皮書(A Blueprint for Equity and Inclusion in Artificial Intelligence),說明在AI開發生命週期和治理生態系統中,應該如何改善公平性和強化包容性。根據全球未來人類AI理事會(Global Future Council on Artificial Intelligence for Humanity)指出,目前AI生命週期應分為兩個部分,一是管理AI使用,二是設計、開發、部署AI以滿足利益相關者需求。   包容性AI不僅是考量技術發展中之公平性與包容性,而是需整體考量並建立包容的AI生態系統,包括(1)包容性AI基礎設施(例如運算能力、資料儲存、網路),鼓勵更多技術或非技術的人員有能力參與到AI相關工作中;(2)建立AI素養、教育及意識,例如從小開始開啟AI相關課程,讓孩子從小即可以從父母的工作、家庭、學校,甚至玩具中學習AI系統對資料和隱私的影響並進行思考,盡可能讓使其互動的人都了解AI之基礎知識,並能夠認識其可能帶來的風險與機會;(3)公平的工作環境,未來各行各業需要越來越多多元化人才,企業需拓寬與AI相關之職位,例如讓非傳統背景人員接受交叉培訓、公私協力建立夥伴關係、提高員工職場歸屬感。   在設計包容性方面,必須考慮不同利益相關者之需求,並從設計者、開發者、監督機關等不同角度觀察。本報告將包容性AI開發及治理整個生命週期分為6個不同階段,期望在生命週期中的每個階段皆考量公平性與包容性: 1.了解問題並確定AI解決方案:釐清為何需要部署AI,並設定希望改善的目標變量(target variable),並透過制定包容性社會參與框架或行為準則,盡可能實現包容性社會參與(特別是代表性不足或受保護的族群)。 2.包容性模型設計:設計時需考慮社會和受影響的利益相關者,並多方考量各種設計決策及運用在不同情況時之公平性、健全性、全面性、可解釋性、準確性及透明度等。 3.包容性資料蒐集:透過設計健全的治理及隱私,確定更具包容性的資料蒐集路徑,以確保所建立之模型能適用到整體社會。 4.公平和包容的模型開發及測試:除多元化開發團隊及資料代表性,組織也應引進不同利益相關者進行迭代開發與測試,並招募測試組進行測試與部署,以確保測試人群能夠代表整體人類。且模型可能隨著時間發展而有變化,需以多元化指標評估與調整。 5.公平地部署受信任的AI系統,並監控社會影響:部署AI系統後仍應持續監控,並持續評估可能出現新的利益相關者或使用者,以降低因環境變化而可能產生的危害。 6.不斷循環發展的生命週期:不應以傳統重複循環過程看待AI生命週期,而是以流動、展開及演變的態度,隨時評估及調整,以因應新的挑戰及需求,透過定期紀錄及審查,隨時重塑包容性AI生態系統。   綜上,本報告以包容性AI生態系統及生命週期概念,期望透過基礎設施、教育與培訓、公平的工作環境等,以因應未來無所不在的AI社會與生活,建立公司、政府、教育機構可以遵循的方向。

TOP