AI データセンター向けチップ一覧
| PU 種類 | 主用途(AI DC 視点) | 設計企業 | 代表的製品(AI チップ含む) |
|---|---|---|---|
| CPU | 一般計算・制御・前処理・軽量推論・I/O 制御 | Intel, AMD, Ampere, AWS | Intel Xeon(Sapphire Rapids)、AMD EPYC(Genoa/Bergamo)、Ampere Altra、AWS Graviton |
| GPU | 大規模並列処理・AI 訓練・推論の主力 | NVIDIA, AMD | NVIDIA H100 / H200, NVIDIA Blackwell B200 / GB200, A100, L40S、AMD Instinct MI300X/MI300A |
| NPU(推論特化) | 省電力推論・エッジも含むが DC 用途も増加 | Intel, AMD, Qualcomm, AWS | Intel Gaudi 2 / Gaudi 3(※NPU的アクセラレータ位置づけ)、AWS Inferentia / Trainium、AMD XDNA(推論 NPU) |
| TPU | 大規模行列演算・機械学習訓練・推論 | Google TPU v4 / v5e / v5p | |
| IPU | 超並列モデル(GNN 等)向け。密行列ではなく疎行列処理が得意 | Graphcore | Graphcore IPU Mk2 / Bow IPU |
| XPU(統合型概念) | CPU/GPU/NPU を統合した混合ワークロード処理 | Intel(概念提唱), AMD, NVIDIA | Intel XPU(OneAPI 概念)、AMD APU 系、NVIDIA Grace Hopper(CPU+GPU) |
| DSA(Data-center Specific ASIC) | 特定 AI タスクに最適化した ASIC | AWS, Google, Meta 等 | AWS Inferentia, Trainium、Google TPU シリーズ、Meta MTIA |
AI データセンターで特に扱う「AI チップ」まとめ
GPU/TPU/専用 ASIC領域に絞って補足
NVIDIA(GPU の事実上の標準)
- H100:2023–24 世代の標準。FP8 世代の基盤を作った。
- H200:H100 の HBM3e 増強版。メモリ帯域と容量が大幅増。
- Blackwell B200:2025 世代 GPU。本体 2 チップ構成(推測では 208B→208B TP の合算で 4,000 TOPS クラス)。
- Blackwell GB200(Grace + Blackwell):Grace CPU と Blackwell GPU を NVLink-C2C で直結した AI スーパー POD 用。
AMD(GPU アーキテクチャを再構築した勢力)
- Instinct MI300X(HBM 大量搭載)
- Instinct MI300A(CPU+GPU の APU 型)
Google(ASIC / TPU)
- TPU v4:巨大クラスタ前提の ML 専用ハード。
- TPU v5e / v5p:推論〜訓練までクラウド向け最適化。
AWS(専用 ASIC)
- Trainium:AI 訓練最適化。クラウド内製の代表。
- Inferentia:推論最適化。
Graphcore
- IPU(Intelligence Processing Unit):ニューラルネット構造そのものを演算グラフとして実行。

小学生のとき真冬の釣り堀に続けて2回落ちたことがあります。釣れた魚の数より落ちた回数の方が多いです。
テクノロジーの発展によってわたしたち個人の創作活動の幅と深さがどういった過程をたどって拡がり、それが世の中にどんな変化をもたらすのか、ということについて興味があって文章を書いています。その延長で個人創作者をサポートする活動をおこなっています。