gpuチップのバトル:NVIDIA vs AMD
AMDがあるAdvancing AIイベントでMI300Xを発表した際、CEOであるLisa Su氏がプレゼンテーション中に、同社の同軸負荷機能の性能をNVIDIA H100のLlama 2の推論性能と比較して紹介しました。プレゼンテーションで、AMDの単一サーバーは8つのMI300Xから構成されており、H100のサーバーより1.6倍高速に動作します。
しかし、NVIDIAは比較に満足しておらず、それを否定しました。NVIDIAの投稿によると、AMDの主張とは異なり、適切に最適化されたソフトウェアでH100 GPUがMI300Xを大幅に上回っていると主張しています。NVIDIAは、AMDがTensorRT-LLMとの比較に最適化されたものを組み込んでいなかったと主張し、単一のH100を8つのH100 GPUで動かしながら、Llama 2 70Bチャットモデルを実行することによってこれに反論しました。
AMDがあるAdvancing AIイベントでMI300Xを発表した際、CEOであるLisa Su氏がプレゼンテーション中に、同社の同軸負荷機能の性能をNVIDIA H100のLlama 2の推論性能と比較して紹介しました。 $アドバンスト マイクロ デバイシズ(AMD.US$ $エヌビディア(NVDA.US$
免責事項:このコミュニティは、Moomoo Technologies Inc.が教育目的でのみ提供するものです。
さらに詳しい情報
コメント
サインインコメントをする
digimonX : AMDはnVidiaのフィードバックに対応し、パラメータを更新し、MI300Xがまだ先行していることを示しました。「ニュース」セグメントには、詳細に興味がある場合は、12月16日のURLがあります。