NVIDIAの次世代GPUアーキテクチャ「Blackwell(ブラックウェル)」は、AI半導体の新たな王者です。B100、B200、GB200などの製品ラインナップ、前世代H100からの進化点、性能・価格・入手方法まで徹底解説。AI開発者・企業が知っておくべき最新情報をまとめました。
NVIDIA Blackwellとは

Blackwell(ブラックウェル)は、NVIDIAが2024年3月に発表した次世代GPUアーキテクチャです。前世代のHopper(H100)を大幅に上回る性能を実現し、大規模言語モデル(LLM)の学習・推論において新たな基準を打ち立てました。
名前の由来
Blackwellは、統計学者デイビッド・ブラックウェル(David Blackwell)にちなんで命名されています。アフリカ系アメリカ人初の米国科学アカデミー会員で、ベイズ統計学への貢献で知られています。NVIDIAは歴代アーキテクチャに科学者の名前を付けており、前世代のHopperはグレース・ホッパーにちなんでいます。
発表・発売時期
Blackwellアーキテクチャは2024年3月のGTC 2024で発表されました。2024年後半から主要クラウドプロバイダー(AWS、Google Cloud、Azure等)での提供が開始され、2025年には物理的な出荷も本格化しています。
Blackwell製品ラインナップ

Blackwellアーキテクチャを採用した主要製品を紹介します。
B100
Blackwellの標準モデル。H100の後継として、データセンターでの汎用AI処理に使用されます。
- プロセス:TSMC 4NP(4nm)
- トランジスタ数:2,080億個
- メモリ:HBM3e 192GB
- FP8性能:約20ペタFLOPS
- TDP:700W
B200
Blackwellの最高性能モデル。最も要求の厳しいAI学習タスクに対応します。
- プロセス:TSMC 4NP(4nm)
- トランジスタ数:2,080億個
- メモリ:HBM3e 192GB
- FP8性能:約20ペタFLOPS
- TDP:1,000W
- 特徴:液冷必須、最高クロックで動作
GB200 NVL72
72基のBlackwell GPUと36基のGrace CPUを組み合わせたスーパーコンピューター級システム。
- 構成:72 x B200 GPU + 36 x Grace CPU
- 総メモリ:13.5TB HBM3e
- FP8性能:1.4エクサFLOPS
- 相互接続:NVLink、130TB/sの帯域幅
- 用途:GPT-4超規模のモデル学習
H100からの進化点

前世代Hopper(H100)からBlackwellへの主要な進化点を解説します。
性能向上
- 学習性能:H100比で約2.5倍の高速化
- 推論性能:H100比で約5倍の高速化(特にLLM推論で顕著)
- トランジスタ数:800億個(H100)→ 2,080億個(約2.6倍)
新機能
- 第2世代Transformerエンジン:LLM処理に最適化された専用回路
- FP4サポート:4ビット浮動小数点演算で推論効率を大幅向上
- デュアルダイ構成:2つのダイを1パッケージに統合し、大規模化を実現
- NVLink 5.0:GPU間接続帯域が1.8TB/sに向上
電力効率
絶対的な消費電力は増加(700W〜1,000W)していますが、性能あたりの電力効率は大幅に改善。同じ処理を行う場合、H100比で約25倍の電力効率を実現しています。
Blackwell vs H100:性能比較

BlackwellとH100の詳細な比較表です。
| 項目 | H100 | B100 | B200 |
|---|---|---|---|
| アーキテクチャ | Hopper | Blackwell | Blackwell |
| プロセス | TSMC 4N | TSMC 4NP | TSMC 4NP |
| トランジスタ数 | 800億 | 2,080億 | 2,080億 |
| メモリ | HBM3 80GB | HBM3e 192GB | HBM3e 192GB |
| メモリ帯域 | 3.35TB/s | 8TB/s | 8TB/s |
| FP8性能 | 3.9 PFLOPS | ~20 PFLOPS | ~20 PFLOPS |
| TDP | 700W | 700W | 1,000W |
| 推定価格 | $30,000〜 | $30,000〜 | $40,000〜 |
Blackwellの価格と入手方法

Blackwell製品の価格と入手方法を解説します。
価格帯
- B100:約30,000〜35,000ドル(約450〜525万円)
- B200:約40,000〜50,000ドル(約600〜750万円)
- GB200 NVL72:約200〜300万ドル(約3〜4.5億円)
※価格は需給状況により変動。H100同様、入手困難で プレミアム価格となるケースも。
入手方法
- 直接購入:NVIDIAパートナー(Dell、HPE、Supermicro等)経由で発注。大口顧客優先で、リードタイムは数ヶ月〜1年以上
- クラウド利用:AWS、Google Cloud、Azure、Oracle Cloud等で時間課金利用が可能。2024年後半から順次提供開始
- コロケーション:CoreWeave、Lambda Labs等のAI特化クラウドでも利用可能
Blackwellを活用するユースケース

Blackwellが特に威力を発揮するユースケースを紹介します。
大規模言語モデル(LLM)の学習
GPT-4やGemini規模のLLM学習には、数千〜数万基のGPUが必要です。Blackwellの性能向上により、同じモデルをH100の半分以下の時間・コストで学習可能に。GB200 NVL72のようなシステムで、さらに大規模なモデルの学習が現実的になります。
リアルタイム推論
ChatGPTのようなAIサービスでは、ユーザーの質問に即座に応答する必要があります。Blackwellの推論性能向上(H100比5倍)により、より高速な応答、またはより高品質な回答(より大きなモデルの使用)が可能になります。
マルチモーダルAI
テキスト、画像、動画、音声を統合的に処理するマルチモーダルAIは、膨大な計算リソースを必要とします。Blackwellの大容量メモリ(192GB HBM3e)により、複雑なマルチモーダルモデルの実行が容易になります。
デジタルツイン・シミュレーション
NVIDIAが推進するOmniverse(デジタルツインプラットフォーム)での物理シミュレーションにもBlackwellが活用されます。製造業、自動車、建設など産業用途での採用が進んでいます。
Blackwellの競合製品

Blackwellの主な競合製品を紹介します。
AMD MI300X
AMDのAI向けGPU。192GBの大容量HBM3メモリを搭載し、特にメモリ容量が重要なLLM推論で競争力を持ちます。価格はH100より安価とされ、コストパフォーマンスで勝負。
Google TPU v5p
Googleの自社開発AI半導体。Google Cloud経由でのみ利用可能ですが、TensorFlow/JAXとの親和性が高く、Google環境では有力な選択肢。
Intel Gaudi 3
IntelのAIアクセラレータ。H100対抗を狙うが、エコシステム(CUDAに相当するソフトウェア)の成熟度が課題。価格競争力で勝負を挑む。
よくある質問

Q. H100を持っていますが、Blackwellに買い替えるべきですか?
ワークロードによります。LLM推論が中心なら、Blackwellの5倍の性能向上は魅力的です。ただし、H100でも十分な場合は、減価償却が終わるまで使い続けるのも合理的な選択です。
Q. Blackwellはいつ頃入手しやすくなりますか?
2026年時点でも需要が供給を大きく上回っており、入手困難な状況が続いています。クラウド利用が最も現実的な選択肢で、直接購入は大口顧客優先です。
Q. 個人でBlackwellを購入できますか?
理論上は可能ですが、価格(数百万円〜)と入手難易度から現実的ではありません。個人開発者はクラウドGPU、または消費者向けのRTX 5090(Blackwellアーキテクチャ採用予定)を待つのが賢明です。
Q. BlackwellとRTX 50シリーズの関係は?
RTX 50シリーズ(RTX 5090など)もBlackwellアーキテクチャを採用予定ですが、データセンター向けのB100/B200とは異なる製品ラインです。ゲーミング・コンシューマ向けにチューニングされています。
Q. Blackwell以降の次世代アーキテクチャは?
NVIDIAは「Rubin(ルービン)」という次世代アーキテクチャを2026年に発表予定と報じられています。HBM4メモリ採用など、さらなる性能向上が期待されています。
まとめ

NVIDIA Blackwellは、AI半導体の新たな王者として君臨しています。H100から約2.5倍の学習性能、5倍の推論性能を実現し、大規模AIモデルの開発・運用に不可欠な存在となっています。
B100、B200、GB200 NVL72など、用途に応じた製品ラインナップが揃っており、クラウド経由での利用も拡大中。AI開発に携わる企業・開発者は、Blackwellの活用を前提とした計画立案が求められます。
https://ainow.jp/ai-semiconductor-guide/
https://ainow.jp/physical-ai/


OpenAI
Google
ChatGPT
Bard
Stable Diffusion
Midjourney
