![$エヌビディア (NVDA.US)$ まとめ – CES 2026 では、AI コストの主な要因として推論がトレーニングを追い越す中、Nvidia が効率、オーケストレーション、パワー、信頼性を優先していることが示されました。 – AI インフラストラクチャの決定は、ますますソフトウェア、ネットワーク、運用のロックインを反映するようになり、Nvidia はハードウェアのみの場合よりも永続的な切り替えコストの利点を獲得しています。 – CoreWeave との提携により、需要の可視性、現実世界の推論データ、より深いシステムレベルのプラットフォーム ロックインが提供され、Nvidia の推論戦略が実証されます。 – 予想PER40倍にもかかわらず、NvidiaのPEG1.0~1.1は、強力な可視性と持続的なAI経済性を考えると、保守的な収益期待を示唆しています。 gorodenkoff/iStock via Getty Images NVIDIA([リンク: NVDA])はもはや最速チップで[リンク: AIに勝利しているのではなく、大規模AIの経済性でAIに勝利している。CES 2026はこの主張を裏付けた。ルービン氏はFLOPSではなく、効率性、消費電力、オーケストレーション、信頼性について議論していた]。大規模AIのコスト...](https://sgsnsimg.moomoo.com/sns_client_feed/182331612/20260205/41e31254cfb8e9957d4364fa01852873.jpg/big?area=105&is_public=true&imageMogr2/ignore-error/1/format/webp)
まとめ
– CES 2026 では、AI コストの主な要因として推論がトレーニングを追い越す中、Nvidia が効率、オーケストレーション、パワー、信頼性を優先していることが示されました。
– AI インフラストラクチャの決定は、ますますソフトウェア、ネットワーク、運用のロックインを反映するようになり、Nvidia はハードウェアのみの場合よりも永続的な切り替えコストの利点を獲得しています。
– CoreWeave との提携により、需要の可視性、現実世界の推論データ、より深いシステムレベルのプラットフォーム ロックインが提供され、Nvidia の推論戦略が実証されます。
– 予想PER40倍にもかかわらず、NvidiaのPEG1.0~1.1は、強力な可視性と持続的なAI経済性を考えると、保守的な収益期待を示唆しています。
![$エヌビディア (NVDA.US)$ まとめ – CES 2026 では、AI コストの主な要因として推論がトレーニングを追い越す中、Nvidia が効率、オーケストレーション、パワー、信頼性を優先していることが示されました。 – AI インフラストラクチャの決定は、ますますソフトウェア、ネットワーク、運用のロックインを反映するようになり、Nvidia はハードウェアのみの場合よりも永続的な切り替えコストの利点を獲得しています。 – CoreWeave との提携により、需要の可視性、現実世界の推論データ、より深いシステムレベルのプラットフォーム ロックインが提供され、Nvidia の推論戦略が実証されます。 – 予想PER40倍にもかかわらず、NvidiaのPEG1.0~1.1は、強力な可視性と持続的なAI経済性を考えると、保守的な収益期待を示唆しています。 gorodenkoff/iStock via Getty Images NVIDIA([リンク: NVDA])はもはや最速チップで[リンク: AIに勝利しているのではなく、大規模AIの経済性でAIに勝利している。CES 2026はこの主張を裏付けた。ルービン氏はFLOPSではなく、効率性、消費電力、オーケストレーション、信頼性について議論していた]。大規模AIのコスト...](https://sgsnsimg.moomoo.com/sns_client_feed/182331612/20260205/web-1770285640379-n4IGZ9jgpT.jpeg?area=105&is_public=true&imageMogr2/ignore-error/1/format/webp)
gorodenkoff/iStock via Getty Images
NVIDIA(NVDA)はもはや最速チップでAIに勝利しているのではなく、大規模AIの経済性でAIに勝利している。CES 2026はこの主張を裏付けた。ルービン氏はFLOPSではなく、効率性、消費電力、オーケストレーション、信頼性について議論していた。大規模AIのコスト要因は学習ではなく推論になりつつあるからだ。これが根本的な変化だ。
AIインフラに関する意思決定は、もはやハードウェアに関するものではなく、ソフトウェアと運用に関するコミットメントに関する意思決定であり、オーケストレーション、ネットワーク、信頼性レイヤーにおける高い切り替えコストも考慮されています。NVIDIAはこのモデルを念頭に設計を行い、トークンあたりのコスト優位性を確保しています。
CoreWeave(CRWV)との提携は、需要、推論データ、そしてロックインに関して、この仮説を裏付けるもう一つの証拠です。株価収益率(PE)倍率では割高かもしれませんが、株価収益率(PEG)倍率と収益の持続性を考えると、現在の期待値はすでに保守的です。NVIDIAは、同社を上回る必要はなく、ただ成果を出すだけで十分です。
OpenAIの推論多様化がNVIDIAにとって脅威にならない理由
OpenAIがNvidiaのチップの代替品を検討しているというロイターの最近の報道は、不安を煽るかもしれないが、過度に単純化されていると思う。OpenAIはNvidiaを見捨てているわけではない。この議論は、NvidiaがOpenAIへの200億ドルの戦略的投資を発表する数日前に浮上しており、両社の関係が弱まるどころか、むしろ強化されていることを示唆している。
実際の議論は推論に関するもので、 OpenAIの計算ワークロードの約80%を占めています。推論はメモリ依存の問題であり、計算性能よりも応答性が重要です。OpenAIはCodexのような製品のレイテンシを微調整しているだけで、Nvidiaを放棄しているわけではないと私は考えています。
OpenAIはレイテンシを微調整するために、推論ワークロードのごく一部、つまり10%を、Cerebras、AMD、Google TPUといったオンチップSRAMを多く搭載した異なるチップで実行することを検討しています。投資家として、私は全く懸念していません。Nvidiaは推論市場を独占しており、トークンあたりのコストを低下させています。また、推論需要はNvidiaの長期的な成長ストーリーに影響を与えることなく、この多様化を吸収できるほど急速に成長しています。
Maia 200はNvidiaキラーではない
マイクロソフトはAIコンピューティング戦争における賭け金を静かに引き上げており、その影響はチップ単体にとどまりません。マイクロソフトのMaia 200の発売は、ハイパースケーラーがコスト抑制とNVIDIAの供給力および価格決定力への依存軽減を目指し、社内の推論チップを高速化している30日周期のパターンの一例です。マイクロソフトは、アイオワ州とアリゾナ州でのMaia 200の展開に加え、OpenAIと共同開発したTritonベースのパッケージで、NVIDIAのソフトウェアにおける優位性獲得を目指しています。
しかし、これは単純な仕様の問題ではありません。Maia 200は、Microsoftの社内データセンターとワークロードプロファイル向けのソリューションであり、まず社内向けソリューション、次により広範なソリューションです。ここで重要なのはヘテロジニアスコンピューティングです。ハイパースケーラーは複数のコンピューティングパスを使用しているからです。NVIDIAは、NVIDIAが得意とする分野(フロンティアトレーニング、価値実現までの時間)に、社内シリコンは経済性が重視される分野(定常推論)に使用します。NVIDIAの問題は、長期的な混合問題であり、現時点での置き換え問題ではありません。
つまり、これはハイパースケーラーが推論経済のより多くの部分を所有するという現実的で永続的な傾向ですが、AI インフラストラクチャの中心における Nvidia の長期的な役割を置き換えるのではなく、強化するものです。
![$エヌビディア (NVDA.US)$ まとめ – CES 2026 では、AI コストの主な要因として推論がトレーニングを追い越す中、Nvidia が効率、オーケストレーション、パワー、信頼性を優先していることが示されました。 – AI インフラストラクチャの決定は、ますますソフトウェア、ネットワーク、運用のロックインを反映するようになり、Nvidia はハードウェアのみの場合よりも永続的な切り替えコストの利点を獲得しています。 – CoreWeave との提携により、需要の可視性、現実世界の推論データ、より深いシステムレベルのプラットフォーム ロックインが提供され、Nvidia の推論戦略が実証されます。 – 予想PER40倍にもかかわらず、NvidiaのPEG1.0~1.1は、強力な可視性と持続的なAI経済性を考えると、保守的な収益期待を示唆しています。 gorodenkoff/iStock via Getty Images NVIDIA([リンク: NVDA])はもはや最速チップで[リンク: AIに勝利しているのではなく、大規模AIの経済性でAIに勝利している。CES 2026はこの主張を裏付けた。ルービン氏はFLOPSではなく、効率性、消費電力、オーケストレーション、信頼性について議論していた]。大規模AIのコスト...](https://sgsnsimg.moomoo.com/sns_client_feed/182331612/20260205/web-1770285640547-xW4ak5M1nP.png?area=105&is_public=true&imageMogr2/ignore-error/1/format/webp)
microsoft.com/maia-200/
ルービンがNVIDIAの次の堀を示唆する理由
CESで最も興味深かったのは、Rubinの位置付けでした。それはピークFLOPSやピークパフォーマンスではなく、導入、パワー、オーケストレーション、そしてシステムの信頼性に焦点が当てられていました。これは、AIの経済性が根本的に変化したためです。かつてのAIの世界はパフォーマンスが重視されていました。しかし、私たちが今まさに足を踏み入れようとしている新しいAIの世界は、効率性、信頼性、そして所有コストが重視されるのです。
確かにトレーニングは重要ですが、AIが概念実証から実稼働へと移行するにつれて、推論がコストの要因になりつつあります。CES 2026は、NVIDIAがこの新しい世界に向けて設計を進めているという現実を改めて示すものでした。多くのハードウェア比較が全体像を捉えきれていないのは、この点です。AIインフラの移行はハードウェアの購入ではなく、ソフトウェアと運用の購入です。プラットフォームの変更は複雑なプロセスです。オーケストレーション層、ネットワークアーキテクチャ、可観測性、信頼性モデル、そしてプラットフォームに深く組み込まれた多くのソフトウェアと運用要素が必要です。これは数四半期単位ではなく、数年単位のプロセスです。
CES 2026は、NVIDIAがこの現実を念頭に置いて開発を進めていることを改めて強調するものでした。目標はパフォーマンスの向上ではなく、AIシステムのライフサイクル全体を通して推論の経済性を確保することです。だからこそ、プラットフォームの切り替えコストはプラットフォーム自体のコストよりも桁違いに高いのです。切り替えは可能です。ただし、時間がかかり、費用がかかり、運用上のリスクを伴うプロセスです。
![$エヌビディア (NVDA.US)$ まとめ – CES 2026 では、AI コストの主な要因として推論がトレーニングを追い越す中、Nvidia が効率、オーケストレーション、パワー、信頼性を優先していることが示されました。 – AI インフラストラクチャの決定は、ますますソフトウェア、ネットワーク、運用のロックインを反映するようになり、Nvidia はハードウェアのみの場合よりも永続的な切り替えコストの利点を獲得しています。 – CoreWeave との提携により、需要の可視性、現実世界の推論データ、より深いシステムレベルのプラットフォーム ロックインが提供され、Nvidia の推論戦略が実証されます。 – 予想PER40倍にもかかわらず、NvidiaのPEG1.0~1.1は、強力な可視性と持続的なAI経済性を考えると、保守的な収益期待を示唆しています。 gorodenkoff/iStock via Getty Images NVIDIA([リンク: NVDA])はもはや最速チップで[リンク: AIに勝利しているのではなく、大規模AIの経済性でAIに勝利している。CES 2026はこの主張を裏付けた。ルービン氏はFLOPSではなく、効率性、消費電力、オーケストレーション、信頼性について議論していた]。大規模AIのコスト...](https://sgsnsimg.moomoo.com/sns_client_feed/182331612/20260205/web-1770285640814-fWWmUXdIEv.png?area=105&is_public=true&imageMogr2/ignore-error/1/format/webp)
www.nvidia.com/en-us/データセンター/テクノロジー/rubin/
P/Eは高いが、重要な部分では安い
バリュエーションの観点から見ると、NVIDIAは割高です。予想株価収益率(PER)は40倍、EV売上高倍率(EV/売上高)は21倍を超えており、相対的に低いバリュエーション格付けを正当化しています。単体で見ると、これは確かに理解できます。
しかし、このフレームワークには欠けている部分があります。ここで適切なフレームワークはPERではなくPEGであると私は考えています。NVIDIAのフォワードPEGは1.0~1.1の範囲にあり、これはセクター全体のPEG中央値1.6を大きく下回り、過去5年間の平均も下回っています。これは、市場がすでに利益成長の急激な減速を織り込みつつあることを示しています。
![$エヌビディア (NVDA.US)$ まとめ – CES 2026 では、AI コストの主な要因として推論がトレーニングを追い越す中、Nvidia が効率、オーケストレーション、パワー、信頼性を優先していることが示されました。 – AI インフラストラクチャの決定は、ますますソフトウェア、ネットワーク、運用のロックインを反映するようになり、Nvidia はハードウェアのみの場合よりも永続的な切り替えコストの利点を獲得しています。 – CoreWeave との提携により、需要の可視性、現実世界の推論データ、より深いシステムレベルのプラットフォーム ロックインが提供され、Nvidia の推論戦略が実証されます。 – 予想PER40倍にもかかわらず、NvidiaのPEG1.0~1.1は、強力な可視性と持続的なAI経済性を考えると、保守的な収益期待を示唆しています。 gorodenkoff/iStock via Getty Images NVIDIA([リンク: NVDA])はもはや最速チップで[リンク: AIに勝利しているのではなく、大規模AIの経済性でAIに勝利している。CES 2026はこの主張を裏付けた。ルービン氏はFLOPSではなく、効率性、消費電力、オーケストレーション、信頼性について議論していた]。大規模AIのコスト...](https://sgsnsimg.moomoo.com/sns_client_feed/182331612/20260205/web-1770285640246-zZqKbuG38Y.png?area=105&is_public=true&imageMogr2/ignore-error/1/format/webp)
YChartsによるデータ
しかし、興味深いのは、NVIDIAの将来見通しが異様に高いことです。従来、NVIDIAは需要の見通しがはるかに低いにもかかわらず、株価倍率が割高で取引される銘柄でした。しかし今、株価倍率ははるかに低いものの、見通しははるかに高く、これは異例のことです。将来の1株当たり利益の観点から見ると、市場はすでに過度に保守的な正常化を想定しているのではないかと私は考えています。
中国:テールリスクか、それとも割安なオプションか?
NVIDIAの件、あるいは半導体業界全体において最も誤解されているリスクは、おそらく中国でしょう。正式なガイダンスにも記載されておらず、ほとんどのセルサイドモデルでは中国リスクは実質的にゼロ、あるいは無視できるほど小さいと想定されていると私は考えています。表面的には、これは妥当な想定です。しかし、リスクに対する誤解を生み出していると思います。
需要面に関しては、状況はより複雑です。承認済み製品の需要は依然として非常に堅調であり、過去数ヶ月間に受注した受注の質も非常に良好です。関税が各販売の利益率に大きな影響を与えることは明らかですが、当社のコスト構造を考慮すると、中国市場から得られる増収は営業利益の増加に繋がります。
問題はマージンではなく、その解釈です。中国市場のリスクはテールリスクであり、選択肢ではないという解釈です。つまり、私たちは下振れリスクばかり見ている一方で、上振れリスクを完全に無視しているのです。完全な再開ではなく、部分的な透明性は、投資家の考え方を変えるでしょう。これは大きな問題です。リスクは存在し、選択肢も存在します。
結論
Nvidiaは静かな革命を経験しています。コンピューティング経済の世界で、私たちは支配的な企業のチップを提供する支配的な企業から、支配的な企業へと変貌を遂げつつあります。
世界が古い指標に基づく価値評価を議論している間、私たちはビジネスを創造しています。私の考えでは、究極の問いはもはやAIの成長ではなく、大規模なAI経済を誰が掌握するかです。私たちは数歩先を進んでいると確信しています。
免責事項:このコミュニティは、Moomoo Technologies Inc.が教育目的でのみ提供するものです。さらに詳しい情報
コメント
コメントをする
4

