AI データセンター向けチップ一覧(用途・設計企業・製品)

AI データセンター向けチップ一覧

PU 種類主用途(AI DC 視点)設計企業代表的製品(AI チップ含む)
CPU一般計算・制御・前処理・軽量推論・I/O 制御Intel, AMD, Ampere, AWSIntel Xeon(Sapphire Rapids)、AMD EPYC(Genoa/Bergamo)、Ampere Altra、AWS Graviton
GPU大規模並列処理・AI 訓練・推論の主力NVIDIA, AMDNVIDIA H100 / H200, NVIDIA Blackwell B200 / GB200, A100, L40S、AMD Instinct MI300X/MI300A
NPU(推論特化)省電力推論・エッジも含むが DC 用途も増加Intel, AMD, Qualcomm, AWSIntel Gaudi 2 / Gaudi 3(※NPU的アクセラレータ位置づけ)、AWS Inferentia / Trainium、AMD XDNA(推論 NPU)
TPU大規模行列演算・機械学習訓練・推論GoogleGoogle TPU v4 / v5e / v5p
IPU超並列モデル(GNN 等)向け。密行列ではなく疎行列処理が得意GraphcoreGraphcore IPU Mk2 / Bow IPU
XPU(統合型概念)CPU/GPU/NPU を統合した混合ワークロード処理Intel(概念提唱), AMD, NVIDIAIntel XPU(OneAPI 概念)、AMD APU 系、NVIDIA Grace Hopper(CPU+GPU)
DSA(Data-center Specific ASIC)特定 AI タスクに最適化した ASICAWS, Google, Meta 等AWS Inferentia, Trainium、Google TPU シリーズ、Meta MTIA

AI データセンターで特に扱う「AI チップ」まとめ

GPU/TPU/専用 ASIC領域に絞って補足

NVIDIA(GPU の事実上の標準)

  • H100:2023–24 世代の標準。FP8 世代の基盤を作った。
  • H200:H100 の HBM3e 増強版。メモリ帯域と容量が大幅増。
  • Blackwell B200:2025 世代 GPU。本体 2 チップ構成(推測では 208B→208B TP の合算で 4,000 TOPS クラス)。
  • Blackwell GB200(Grace + Blackwell):Grace CPU と Blackwell GPU を NVLink-C2C で直結した AI スーパー POD 用。

AMD(GPU アーキテクチャを再構築した勢力)

  • Instinct MI300X(HBM 大量搭載)
  • Instinct MI300A(CPU+GPU の APU 型)

Google(ASIC / TPU)

  • TPU v4:巨大クラスタ前提の ML 専用ハード。
  • TPU v5e / v5p:推論〜訓練までクラウド向け最適化。

AWS(専用 ASIC)

  • Trainium:AI 訓練最適化。クラウド内製の代表。
  • Inferentia:推論最適化。

Graphcore

  • IPU(Intelligence Processing Unit):ニューラルネット構造そのものを演算グラフとして実行。


Scroll to Top