ログアウト
donwloadimg

アプリをダウンロード

ログイン後利用可能
トップに戻る
GTC 2024: Will NVIDIA hit the $1,000 mark?
閲覧 940K コンテンツ 383

NvidiaがGTCで発表した「世界最強のAIチップ」について知るべきこと

avatar
Analysts Notebook がディスカッションに参加しました · 03/19 07:00
$エヌビディア(NVDA.US)$不可欠なH100 AIチップは、企業価値を数兆ドルに押し上げ、巨大企業の価値を超える可能性があります。 $アルファベット A(GOOGL.US)$ $アマゾン ドット コム(AMZN.US)$競合他社が追いつくために奮闘している中、Nvidiaは高度なBlackwell B200 GPUとパワフルなGB200「スーパーチップ」のローンチで支配力を更に強化することが可能です。Hopperは素晴らしいですが、もっと大きなGPUが必要です」とNvidia CEOジェンソン・ファングは、カリフォルニアの同社の開発者会議で月曜日に述べました。
新しいGB200スーパーチップ
Nvidiaの新しいB200 GPUは、2080億のトランジスタを搭載し、最大20ペタフロップのFP4パフォーマンスを発揮し、
2つのB200 GPUを単一のGrace CPUにペアリングしたGB200「スーパーチップ」は、LLM推論ワークロードにおいて、前のモデルと比較して最大30倍のパフォーマンスを提供し、かつ大幅に効率的で、H100よりも25倍以上のコストとエネルギーを削減します。1.8兆個のパラメータを持つAIモデルをトレーニングする場合、8,000のHopper GPUが15メガワットの電力を必要としていたのに対し、わずか4メガワットを使用する2,000のBlackwell GPUが必要です。GB200は、1750億個のパラメータを持つGPT-3 LLMベンチマークで7倍のパフォーマンスと4倍のトレーニング速度を提供します。Nvidiaは、新しい技術によって、GPU間通信に費やす時間を大幅に短縮することで、より実際のコンピューティングを可能にしていることを強調しています。コストとエネルギーをH100よりも25倍以上削減し、以前のモデルと比較してLLM推論ワークロードで最大30倍のパフォーマンスを提供するGB200。1.8兆のパラメータを持つAIモデルをトレーニングする場合、以前は8,000のHopper GPUが必要でしたが、現在は2,000のBlackwell GPUで済みます。GB200は、1750億個のパラメータを持つGPT-3 LLMベンチマークで7倍のパフォーマンスと4倍のトレーニング速度を提供するだけでなく、コストとエネルギーをH100よりも25倍以上削減できます。Nvidiaは、新しい技術によって、GPU間通信に費やす時間を大幅に短縮することで、より実際のコンピューティングを可能にしていることを強調しています。
こちらがGB200の様子です:2つのGPU、1つのCPU、そして1つのボード;引用元:Nvidia
こちらがGB200の様子です:2つのGPU、1つのCPU、そして1つのボード;引用元:Nvidia
Nvidiaは、GB200 NVL72などの大規模設定を導入し、これらのGPUの大量購入を目指しており、36個のCPUと72個のGPUを単一の液冷ラックに統合したもので、AIトレーニングで最大720ペタフロップ、推論能力で1.4エクサフロップ(1,440ペタフロップ)を提供します。このラックは、2マイル近くのケーブルと5000個の個々のケーブルで満たされ、最大27兆のパラメータモデルをサポートできます。Amazon、Google、その他主要なクラウドサービスプロバイダーは、これらのNVL72ラックを提供に含める予定ですが、彼らの購入数量は明確にされていません。 $マイクロソフト(MSFT.US)$ $オラクル(ORCL.US)$
アナリストの見解
Nvidiaは、GB200 Grace Blackwell Superchipsを搭載した最新のAIスーパーコンピューター、DGX SuperPODによって、人工知能の最前線を拡張しています。このAIスーパーコンピューターは、FP4精度で驚異的な11.5エクサフロップの計算能力を誇り、高度な液冷アーキテクチャを備えており、エネルギー効率の高いAIソリューションへのNvidiaのコミットメントを示しています。スーパーPODは、数兆のパラメータを持つモデルの処理が可能になり、AI研究や開発を再定義することで、AIを革新することになります。NvidiaのDGX SuperPODは、基盤技術の提供者として、AIイノベーションで中心的なプレーヤーであり、AIトレーニングスペースでのリーダーの地位を確立していますが、競争はますます激化しています。DGX SuperPODの導入により、Nvidiaは、複雑なAIモデルの需要の増加に対応する戦略を強化し、高性能コンピューティングのトッププロバイダーとしての地位を維持します。
Nvidiaは、新しく導入されたGB200またはそれを組み込んだシステムの価格を公開していませんが、HSBCはFY26のラック数を35,000と予測し、売上高潜在額は397億ドルとなると発表しました。FY25からGH200 AIプラットフォームへの焦点を移したことで、GB200プラットフォームはGrace Hopper ArmベースのCPUを内蔵し、2つのB200 AI GPUを組み合わせ、従来のH100 AIプラットフォームよりも高い平均販売価格(ASP)でよりコスト効果の高い代替品を提供します。この新しい構成は、チップコスト全体を削減するだけでなく、GB200用にはモジュールあたり8つのGPUが必要だった要件から、2つだけで済むようにして、顧客により大きな柔軟性を提供します。
Nvidiaの戦略には、ラックベースのプラットフォームへの移行も含まれる可能性があり、ラックあたりの収益が著しく増加し、GB200プラットフォームからの総売上高の大幅な増加につながる可能性があります。感度分析によると、AIラックの増加はFY26の売上高および利益の4%から11%の上昇をもたらす可能性があり、PERが30倍の目標価格収益率を想定した場合、より高いEPS範囲および評価を示します。
GH200 AIプラットフォームからFY25で焦点を移して、GB200プラットフォームは、2つのB200 AI GPUを内蔵した内部Grace Hopper ArmベースのCPUを統合し、従来のH100 AIプラットフォームよりも高い平均販売価格(ASP)のよりコスト効果の高い代替品を提供します。この新しい構成は、全体的なチップコストを削減するだけでなく、GB200用にモジュールあたり8枚必要だったGPUの要件を2枚だけに減らすことで、顧客により大きな柔軟性を提供します。Nvidiaの戦略には、ラックベースのプラットフォームへの移行も含まれる可能性があり、ラックあたりの収益が著しく増加し、GB200プラットフォームからの総売上高の大幅な増加につながる可能性があります。感度分析によると、AIラックの増加はFY26の売上高および利益の4%から11%の上昇をもたらす可能性があり、PERが30倍の目標価格収益率を想定した場合、より高いEPS範囲および評価を示します。HSBCによると、GB200またはそれを組み込んだシステムの価格は明らかにされていませんが、FY26のラック数は35,000台に達し、売上高潜在額は397億ドルになると予測されています。
NVDA AIロードマップ;引用元:HSBC
NVDA AIロードマップ;引用元:HSBC
Nvidia Inference Microservice(NIM)
Nvidiaは、エンタープライズソフトウェアサブスクリプションラインナップにNvidia Inference Microservice(NIM)を導入し、既存のNvidia GPUを推論タスクに使用することを簡素化するよう設計されました。それは、新しいAIモデルをトレーニングするよりも計算需要が少ないAIソフトウェアを実行することです。このサービスにより、OpenAIなどの企業からAIの結果を購入する代わりに、組織はすでに所有している大量のNvidia GPUを活用して独自のAIモデルを運用することができます。
同社の戦略は、Nvidiaベースのサーバーを持つ顧客が1枚あたり年間4,500ドルの料金でNvidiaエンタープライズに登録することを促進することに関わるものです。Nvidiaは、MicrosoftやHugging FaceなどのAI企業と協力して、Nvidiaチップ用にAIモデルを最適化し、互換性のあるハードウェア全体でスムーズな動作を保証する予定です。開発者はNIMを使用して、これらのモデルを自分たちのローカルサーバーまたはNvidiaのクラウドサーバーにより効率的にデプロイし、複雑なセットアップ手順を回避することができます。Nvidiaによると、このソフトウェアは、GPU搭載のラップトップでのAIアプリケーションも容易にしてくれます。これにより、クラウドサーバーへの依存から脱却することができます。
出典:The Verge、Nvidia、HSBC、CNBC、Forbes、Tech Crunch
免責事項:このコンテンツは、Moomoo Technologies Incが情報交換及び教育目的でのみ提供するものです。 さらに詳しい情報
54
1
4
1
+0
1
原文を見る
報告
235K 回閲覧
コメント
サインインコメントをする