AMD Instinct™ MI300 シリーズ アクセラレータ

リーダーシップの生成 AI アクセラレータとデータセンター APU

6/30
まで

MI300の最新情報ペーパー無料ダウンロードの方から抽選でAmazonギフト券100名、PlayStation5を1名様へプレゼント!

Amazonギフト券
1,000円分 100

PlayStation5
1

ダウンロードはこちら

AI と HPC を大幅に強化

AMD Instinct™ MI300 シリーズ アクセラレータは、最も要求の厳しい AI や HPC のワークロード処理に高度に特化し、卓越した演算能力、高メモリ集積度、広帯域幅メモリ、特殊なデータ形式へのサポートを提供します。

Alt テキストの追加

内部のテクノロジ

AMD Instinct MI300 シリーズ アクセラレータは、マトリックス コア テクノロジを提供する AMD CDNA™ 3 アーキテクチャに基づいて構築されており、高効率の INT8 および FP8 (AI 向けスパース性への対応を含む) から HPC 向けの最も要求の厳しい FP64 まで、幅広い精度をサポートしています。

シリーズの紹介

AMD Instinct MI300X アクセラレータ、AMD Instinct MI300X プラットフォーム、AMD Instinct MI300A APU をご紹介します。

AMD Instinct MI300X アクセラレータ

AMD Instinct MI300X シリーズ アクセラレータは、生成 AI ワークロードおよび HPC アプリケーション向けにリーダーシップ パフォーマンスを提供するように設計されています。

304 CU

304 個の GPU 演算ユニット

192GB

192GB HBM3 メモリ

5.3TB/s

5.3TB/s ピーク理論メモリ帯域幅

仕様比較

AI パフォーマンス (ピーク TFLOPs)

競合アクセラレータと比較して最大 1.3 倍の AI パフォーマンス3

TF32 (スパース性あり)
989.6
1307.4
0
1000
2000
3000
4000
5000
6000
7000
H100 SXM5
MI300X OAM
FP16/BF16 (スパース性あり)
1978.9
2614.9
0
1000
2000
3000
4000
5000
6000
7000
H100 SXM5
MI300X OAM
FP8 (スパース性あり)
3957.8
5229.8
0
1000
2000
3000
4000
5000
6000
7000
H100 SXM5
MI300X OAM

HPC 性能 (ピーク TFLOPs)

競合アクセラレータと比較して最大 2.4 倍の HPC 性能4

FP64 (Vector)
33.5
81.7
0
20
40
60
80
100
120
140
160
180
H100 SXM5
MI300X OAM
FP64 (Tensor/Matrix)
66.9
163.4
0
20
40
60
80
100
120
140
160
180
H100 SXM5
MI300X OAM
FP32 (Vector)
66.9
163.4
0
20
40
60
80
100
120
140
160
180
H100 SXM5
MI300X OAM

メモリの容量と帯域幅

競合アクセラレータと比較して 2.4 倍のメモリ容量と 1.6 倍のピーク理論メモリ帯域幅5

メモリ容量
80
192
0GB
50GB
100GB
150GB
200GB
250GB
300GB
H100 SXM5
MI300X OAM
メモリ帯域幅
3.4
5.3
0TB/s
1TB/s
2TB/s
3TB/s
4TB/s
5TB/s
6TB/s
7TB/s
H100 SXM5
MI300X OAM

AMD Instinct MI300X プラットフォーム

AMD Instinct MI300X プラットフォームは、完全に接続された 8 個の MI300X GPU OAM モジュールを、第 4 世代 AMD Infinity Fabric™ リンクを介して業界標準の OCP 設計に統合し、低レイテンシの AI 処理向けに最大 1.5 TB の HBM3 容量を提供します。すぐに導入可能なこのプラットフォームは、既存の AI ラックやサーバー インフラに MI300X アクセラレータを追加することで、タイム トゥ マーケットの時間を短縮し、開発コストを削減できます。

8 MI300X

8 MI300X GPU OAM モジュール

1.5TB

合計 1.5TB HBM3 メモリ

42.4TB/s

ピーク理論集約メモリ帯域幅 42.4 TB/s

AMD Instinct MI300A APU

AMD Instinct MI300A アクセラレーテッド プロセッシング ユニット (APU) は、AMD Instinct アクセラレータと AMD EPYC™ プロセッサの性能を共有メモリと組み合わせることで、効率性、柔軟性、プログラマビリティを向上させます。AI と HPC の集約を加速し、研究の進展と新たな発見の推進を支援するよう設計されています。

228 CU

228 個の GPU 演算ユニット

24

24 個の "Zen 4" x86 CPU コア

128GB

128 GB の統合された HBM3 メモリ

5.3TB/s

5.3TB/s ピーク理論メモリ帯域幅

仕様比較

AI パフォーマンス (ピーク TFLOPs)8

TF32 (スパース性あり)
989.6
980.6
0
500
1000
1500
2000
2500
3000
3500
4000
4500
5000
H100 SXM5
MI300A APU
FP16/BF16 (スパース性あり)
1978.9
1961.2
0
500
1000
1500
2000
2500
3000
3500
4000
4500
5000
H100 SXM5
MI300A APU
FP8 (スパース性あり)
3957.8
3922.3
0
500
1000
1500
2000
2500
3000
3500
4000
4500
5000
H100 SXM5
MI300A APU

HPC 性能 (ピーク TFLOPs)

競合アクセラレータと比較して最大 1.8 倍の HPC 性能9

FP64 (Vector)
33.5
61.3
0
20
40
60
80
100
120
140
160
H100 SXM5
MI300A APU
FP64 (Tensor/Matrix)
66.9
122.6
0
20
40
60
80
100
120
140
160
H100 SXM5
MI300A APU
FP32 (Vector)
66.9
122.6
0
20
40
60
80
100
120
140
160
H100 SXM5
MI300A APU

メモリの容量と帯域幅

競合アクセラレータと比較して 2.4 倍のメモリ容量と 1.6 倍のピーク理論メモリ帯域幅10

メモリ容量
80
128
0GB
20GB
40GB
60GB
80GB
100GB
120GB
140GB
160GB
H100 SXM5
MI300A APU
メモリ帯域幅
3.4
5.3
0TB/s
1TB/s
2TB/s
3TB/s
4TB/s
5TB/s
6TB/s
7TB/s
H100 SXM5
MI300A APU

エクサスケールのコンピューティングの推進

AMD Instinct アクセラレータは、ローレンス リバモア国立研究所の El Capitan システムなど、世界トップクラスのスーパーコンピューターに搭載されています。この 2 エクサスケールのスーパーコンピューターが、AI を利用してどのように史上初のシミュレーションを実行し、科学研究を前進させているのかをご覧ください。

AMD ROCm™ ソフトウェア

AMD ROCm™ ソフトウェアには、AMD Instinct アクセラレータをターゲットとする AI モデルおよび HPC ワークロード向けのプログラミング モデル、ツール、コンパイラ、ライブラリ、ランタイムの幅広いセットが含まれています。

ケース スタディ

ソリューションの検索

AMD Instinct アクセラレータ ベースのソリューションを提供するパートナーの検索

リソース

資料

AMD Instinct アクセラレータのソリューションの概要、ホワイトペーパー、プログラマ リファレンス、その他の資料をご覧ください。

最新情報を入手する

サインアップして、最新のデータセンター ニュースとサーバー コンテンツを受信します。

6/30
まで

MI300の最新情報ペーパー無料ダウンロード

AI 向け新GPU製品 Instinct MI300X および Instinct MI300Aの詳細をご紹介します。

情報ペーパー無料ダウンロードの方から抽選でAmazonギフト券100名、PlayStation5を1名様へプレゼント!

Amazonギフト券
1,000円分 100

PlayStation5
1

ダウンロードはこちら

MI300の最新情報ペーパーをダウンロードする

1. 世界最速の HPC と AI データセンター・アクセラレーター¹:AMD Instinct™ MI250X は、世界最速のデータセンター向け GPU です。 2021年9月15日に AMDパフォーマンスラボで以下のシステムを使用してテストを実施しました。AMD Instinct™ MI250X(128 GB HBM2e OAM モジュール)アクセラレーターを 1,700 MHz のピーク・ブースト・エンジンクロックで計測したところ、結果は以下のようになりました。95.7 TFLOPS のピーク理論倍精度(FP64 マトリックス)、47.9 TFLOPS のピーク理論倍精度(FP64)、95.7 TFLOPS のピーク理論単精度(FP32 マトリックス)、47.9 TFLOPSのピーク理論単精度(FP32)、383.0 TFLOPS のピーク理論半精度(FP16)、383.0 TFLOPSのピーク理論 Bfloat16 形式精度(BF16)浮動小数点演算パフォーマンス。

go to top