普利司通公司就安裝在美國汽車中之零組件價格壟斷乙案認罪,並同意支付4億2仟5佰萬美元刑事罰金

  美國司法部宣布日商普利司通(Bridgestone Corp.)股份有限公司,就其共謀操縱安裝於汽車中並銷售至美國及其他國家之汽車防震橡膠零組件價格乙案認罪,並同意支付4億2仟5佰萬美元之刑事罰金。

  根據俄亥俄州(Ohio)地方法院所提起的一項重罪控訴,該公司於美國及其他國家共謀參與分配銷售、操縱報價及壟斷、提高並維持其出售予豐田(Toyota)、日產(Nissan)汽車公司、富士重工業(Fuji Heavy Industries)公司、鈴木(Suzuki Motor)公司、五十鈴(Isuzu Motors)汽車公司及其某些子公司、加盟和供應商之汽車防震橡膠零組件價格。除了刑事罰金外,普利司通公司並同意配合司法部進行後續之汽車零組件案調查。本認罪協議(plea agreement),業經法院批准。

  在2011年10月,普利司通公司即因「海洋軟管」(marine hose)乙案涉嫌壟斷價格及違反「海外貪污防治法」(Foreign Corrupt Practices Act)而遭控訴,經認罪協議並支付2仟8佰萬美元罰金。但於是案答辯中,該公司並未就其同時涉及防震橡膠零組件共謀操縱價格乙情,主動為揭露。該公司未主動揭露上情,乃是本次罰金高達4億2仟5佰萬美元原因之一。

  美國司法部副助理部長Brent Snyder表示:「美國司法部反托拉斯署將針對屢犯卻未主動揭露其他反競爭行為者,採取強硬態度。本案之鉅額罰金,即重申該署致力於令企業就其傷害美國消費者之行為,負起責任。」普利司通公司遭指控因價格壟斷違反謝爾曼法案,依法最重可處1億美元之刑事罰金。如企業因犯罪所獲利益之兩倍數額,或犯罪被害人所受損失之兩倍數額,其一逾前開法定最高罰金時,得加重至該數額。

相關連結
※ 普利司通公司就安裝在美國汽車中之零組件價格壟斷乙案認罪,並同意支付4億2仟5佰萬美元刑事罰金, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=6507&no=0&tp=1 (最後瀏覽日:2026/02/22)
引註此篇文章
你可能還會想看
防制洗錢金融行動工作組織針對虛擬資產與其服務提供業者發布進一步監理指引

  防制洗錢金融行動工作組織(Financial Action Task Force on Money Laundering, FATF)為因應虛擬資產(Virtual Assets)對於打擊洗錢與資恐主義措施所帶來的衝擊,協助各國建立可供遵循的一致性標準,於2018年10月修改FATF建議書(The FATF Recommendations),定義「虛擬資產」與「虛擬資產服務提供業者」(Virtual Asset Service Providers, VASPs),將其納入國際洗錢防制之範疇。   為使各國監管機關依據FATF相關建議,正確評估與降低虛擬資產與VASPs所可能涉及的洗錢與資恐風險,有效進行管理並建立公平競爭的虛擬資產產業體系,FATF於2019年6月21日,針對建議書中第15點-新科技所可能隱藏的洗錢隱憂,加入解釋性說明,列出FATF對於虛擬資產和VASPs的應用標準,包含建議監管機關採取註冊或許可制度,以利進行監督與審查,而非透過自律組織方式進行督導,並與他國進行國際合作。以及為防止不法份子與其同夥擁有對VASPs的控股權(controlling interest)或管理職能(management function),各國主管機關須採取必要的法律或監管措施。另監管機構應有足夠權力監督並確保VASP遵守打擊洗錢和恐怖主義融資的要求,包括進行檢查,強制公開資訊和實施金融制裁。   FATF同時公布「虛擬資產與虛擬資產服務商之風險基礎指引」(Guidance for a Risk-Based Approach to Virtual Assets and Virtual Asset Service Providers),指導各司法管轄區如何應用風險基礎方法,針對虛擬資產相關活動與服務商,進行洗錢與資恐防制。相關主管機構在進行風險評估時,應考量特定的虛擬資產類型或VASP活動,了解其具體架構與運作在金融體系和國家經濟的作用,以及對洗錢與資恐防制的影響,將類似風險的產品或服務應用類似的監理原則處理,並針對虛擬資產的匿名性加強客戶識別機制。隨著VASP活動發展,主管機關亦應審視其他監管措施(如消費者保護、資訊安全、稅務等)與洗錢與資恐防制之間的關聯,進行短期與長期的政策擬定,以制定全面性的監管框架。   FATF預計於2020年6月開始啟動上述新審查機制,為期12個月,檢視各國對於前述具體要求之落實情況。以及持續與民間企業合作,共同探討虛擬資產的基礎技術、使用類型、相關業務模式。

日本政府怎樣對公部門管制DeepSeek?

日本政府怎樣對公部門管制DeepSeek? 資訊工業策進會科技法律研究所 2025年07月07日 2025年2月3日,日本個人情報保護委員會(Personal Information Protection Commission,簡稱PPC)發布新聞稿指出[1],DeepSeek所蒐集的資料,將會儲存在中國的伺服器裡,且為中國《國家情報法》的適用對象[2]。這可能將導致個人資料遭到中國政府調用或未經授權的存取。作為中國開發的生成式AI,DeepSeek雖以優異的文本能力迅速崛起,卻也引發資安疑慮。 身處地緣政治敏感區的日本對此高度警覺,成為率先提出警告的國家之一。台灣與日本面臨相似風險,因此日本的應對措施值得借鏡。本文將從PPC新聞稿出發,探討日本如何規範公部門使用DeepSeek。 壹、事件摘要 DeepSeek作為中國快速崛起之生成式AI服務,其使用範圍已快速在全球蔓延。然而,日本PPC發現該公司所公布之隱私政策,內容說明其所蒐集之資料將存儲於中國伺服器內,並依據中國《國家情報法》之適用範圍可能遭到中國政府調用或未經授權之存取。 日本PPC因而於2025年2月3日發布新聞稿,隨後日本數位廳於2月6日發函給各中央省廳,強調在尚未完成風險評估與資安審查之前,政府機關不應以任何形式將敏感資訊輸入DeepSeek,並建議所有業務使用應先諮詢內閣資安中心(内閣サイバーセキュリティセンター,NISC)與數位廳(デジタル庁)意見,才能判定可否導入該類工具[3]。數位大臣平將明亦在記者會中強調:「即使不是處理非機密資料,各機關也應充分考量風險,判斷是否可以使用。」(要機密情報を扱わない場合も、各省庁等でリスクを十分踏まえ、利用の可否を判断する)[4]。 本次事件成為日本對於生成式AI工具採取行政限制措施的首次案例,也引發公私部門對資料主權與跨境平台風險的新一輪討論。 貳、重點說明 一、日本對於人工智慧的治理模式 日本在人工智慧治理方面採取的是所謂的「軟法」(soft law)策略,也就是不依賴單一、強制性的法律來規範,而是以彈性、分散的方式,根據AI的實際應用場景與潛在風險,由相關機關分別負責,或透過部門之間協作因應。因此,針對DeepSeek的管理行動也不是由某一個政府部門單獨推動,而是透過跨部會協作完成的綜合性管控,例如: (一)PPC的警示性通知:PPC公開說明DeepSeek儲存架構與中國法規交錯風險,提醒政府機關與公務人員謹慎使用,避免洩漏資料。 (二)數位廳的行政指引:2025年2月6日,日本數位廳針對生成式AI的業務應用發布通知,明列三項原則:禁止涉密資料輸入、限制使用未明確審查之外部生成工具、導入前應諮詢資安機構。 (三)政策溝通與政治聲明:平將明大臣在記者會上多次強調DeepSeek雖未明列於法條中禁用,但其高風險屬性應視同「潛在危害工具」,需列入高敏感度審查項目。 二、日本的漸進式預防原則 對於DeepSeek的管制措施並未升高至法律層級,日本政府亦沒有一概禁止DeepSeek的使用,而是交由各機關獨自判斷[5]。這反映出了日本在AI治理上的「漸進式預防原則」:先以行政指引建構紅線,再視實際風險與民間回饋考慮是否立法禁用。這樣的作法既保留彈性,又讓官僚系統有所依循,避免「先開放、後收緊」所帶來的信任危機。 三、日本跟循國際趨勢 隨著生成式AI技術迅速普及,其影響已不再侷限於產業應用與商業創新,而是逐漸牽動國家資安、個資保護以及國際政治秩序。特別是生成式AI在資料存取、模型訓練來源及跨境資料流通上的高度不透明,使其成為國家安全與數位主權的新興挑戰。在這樣的背景下,各國對生成式AI工具的風險管理,也從原先聚焦於產業自律與技術規範,提升至涉及國安與外交戰略層面。 日本所採取的標準與國際趨勢相仿。例如韓國行政安全部與教育部也在同時宣布限制DeepSeek使用,歐盟、美國、澳洲等國亦有不同程度的封鎖、審查或政策勸導。日本雖然和美國皆採取「軟法」(soft law)的治理策略,然而,相較於美國以技術封鎖為主,日本因其地緣政治的考量,對於中國的生成式AI採取明確防範的態度,這一點與韓國近期禁止政府機構與學校使用中國AI工具、澳洲政府全面禁止政府設備安裝特定中國應用程式類似。 參、事件評析 這次日本政府對於DeepSeek的應對措施,反映出科技治理中的「資料主權問題」(data sovereignty):即一個國家是否有能力控制、保存與使用其管轄範圍內所生產的資料。尤其在跨境資料傳輸的背景下,一個國家是否能保障其資料不被外國企業或政府擅自使用、存取或監控,是資料主權的核心問題。 生成式AI不同於傳統AI,其運作依賴大規模訓練資料與即時伺服器連接,因此資料在輸入的瞬間可能已被收錄、轉存甚至交付第三方。日本因而對生成式AI建立「安全門檻」,要求跨境工具若未經審核,即不得進入政府資料處理流程。這樣的應對策略預示了未來國際數位政治的發展趨勢:生成式AI不只是科技商品,它已成為跨國治理與地緣競爭的核心工具。 中國通過的《國家情報法》賦予政府調閱私人企業資料的權力,使得中國境內所開發的生成式AI,儼然成為一種資訊戰略利器。若中國政府藉由DeepSeek滲透他國公部門,這將對國家安全構成潛在威脅。在此背景下,日本對公部門使用DeepSeek的管制,可被解讀為一種「數位防衛行為」,象徵著日本在數位主權議題上的前哨部署。 值得注意的是,日本在處理DeepSeek事件時,採取了「不立法限制、但公開警示」的方式來應對科技風險。此舉既避免激烈封鎖引發爭議,又對於資料的運用設下邊界。由於法令規範之制定曠日費時,為避免立法前可能產生之風險,日本先以軟性之限制與推廣手段以防止危害擴大。 台灣雖與日本同處地緣政治的敏感地帶,資料主權議題對社會影響深遠,為使我國可在尚未有立法規範之狀態下,參考日本所採之行政命令內控與公開說明外宣雙向並行之策略,對台灣或許是一種可行的借鏡模式。 本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。 本文同步刊登於TIPS網站(https://www.tips.org.tw) [1]個人情報保護委員会,DeepSeekに関する情報提供,https://www.ppc.go.jp/news/careful_information/250203_alert_deepseek/ (最後瀏覽日:2025/05/06)。 [2]《中华人民共和国国家情报法》第7条第1项:「任何组织和公民都应当依法支持、协助和配合国家情报工作,保守所知悉的国家情报工作秘密。」 [3]デジタル社会推進会議幹事会事務局,DeepSeek等の生成AIの業務利用に関する注意喚起(事務連絡),https://www.digital.go.jp/assets/contents/node/basic_page/field_ref_resources/d2a5bbd2-ae8f-450c-adaa-33979181d26a/e7bfeba7/20250206_councils_social-promotion-executive_outline_01.pdf (最後瀏覽日:2025/05/06)。 [4]デジタル庁,平大臣記者会見(令和7年2月7日),https://www.digital.go.jp/speech/minister-250207-01 (最後瀏覽日:2025/05/06)。 [5]Plus Web3 media,日本政府、ディープシークを一律禁止せず 「各機関が可否を判断する」,https://plus-web3.com/media/500ds/?utm_source=chatgpt.com (最後瀏覽日:2025/05/06)。

歐盟理事會修正《第428/2009號歐盟理事會規章》,提升歐洲軍民兩用出口管制力度

  歐盟理事會與歐洲議會於2020年12月14日,針對歐洲軍民兩用出口管制法規《第428/2009號歐盟理事會規章》(COUNCIL REGULATION (EC) No 428/2009)達成修正協議,並獲得歐盟理事會下設常駐代表委員會(Committee of Permanent Representatives, COREPER)認可後正式通過。《規章428/2009》用以規範歐盟軍民兩用出口管制,監管歐盟涉及「軍民兩用」敏感貨品、服務、軟體和技術的對外出口、內部轉口及過境貿易。因兩用貨品包含軍事用途及商用用途,故此次歐盟調整軍民兩用出口管制的相關規則,主要考量面向包括:英國脫歐對歐洲出口管制的影響;如何確保歐盟出口管制條例與國際反武器擴散制度相一致;以及解決網路監管和新興技術帶來的安全威脅等。本次歐洲軍民兩用出口管制修正重點如下: 提升出口管制力度,防止濫用網路監管等新興技術:管制項目具備監視、取得、蒐集或分析資通訊系統資料功能者,因涉及國家內部鎮壓或嚴重違反國際人權和國際人道法(International Humanitarian Law),即使未明列在歐盟軍民兩用法規的附件中,也應加強管制。 新增兩項歐盟一般出口許可證(EU General Export Authorisations, EU GEAs):包括集團內部技術轉讓(EU007)及加密(EU008),允許軍民兩用貨品出口至特定目的地。 統一歐盟軍民兩用貨品規則:例如技術協助屬於特定軍事用途且與軍民兩用相關者須經授權,歐盟成員國得配合擴張軍民兩用貨品清單。 強化企業調查和報告義務,遵守並適用出口管制規則:實施出口及授權作業的出口商,應落實內部合規計劃,確保企業遵守出口管制的政策和程序。 歐盟成員國間加強合作機制:促進資訊交流、政策調整和執法行動。

美國白宮發佈「AI應用監管指南」十項原則

  美國白宮科技政策辦公室(Science and Technology Policy, OSTP)在2020年1月6日公布了「人工智慧應用監管指南(Guidance for Regulation of Artificial Intelligence Applications)」,提出人工智慧(AI)監管的十項原則,此份指南以聯邦機構備忘錄(Memorandum for the Heads of Executive Departments and Agencies)的形式呈現,要求政府機關未來在起草AI監管相關法案時,必須遵守這些原則。此舉是根據美國總統川普在去(2019)年所簽署的行政命令「美國AI倡議」(American AI Initiative)所啟動的AI國家戰略之一,旨在防止過度監管,以免扼殺AI創新發展,並且提倡「可信賴AI」。   這十項原則分別為:公眾對AI的信任;公眾參與;科學誠信與資訊品質;風險評估與管理;效益與成本分析;靈活性;公平與非歧視;揭露與透明;安全保障;跨部門協調。旨在實現三個目標: 一、增加公眾參與:政府機關在AI規範制定過程中,應提供公眾參與之機會。 二、限制監管範圍:任何AI監管法規實施前,應進行成本效益分析,且機關間應溝通合作,建立靈活的監管框架,避免重複規範導致限制監管範圍擴大。 三、推廣可信賴的AI:應考慮公平性、非歧視性、透明性、安全性之要求,促進可信賴的AI。   這份指南在發佈後有60天公開評論期,之後將正式公布實施。白宮表示,這是全球第一份AI監管指南,以確保自由、人權、民主等價值。

TOP