share_log

Analyst Ming-Chi Kuo Gives "Some Prediction Updates About Nvidia's Next-Generation AI Chip R-Series/R100" - Medium

Analyst Ming-Chi Kuo Gives "Some Prediction Updates About Nvidia's Next-Generation AI Chip R-Series/R100" - Medium

分析师郭明池给出了 “有关Nvidia下一代人工智能芯片R系列/R100的一些预测更新”-Medium
Benzinga ·  05/07 12:39
  1. Nvidia's next-generation AI chip, the R-series/R100 AI chip, will enter mass production in 4Q25, and the system/rack solution will likely start mass production in 1H26.
  2. R100 will use TSMC's N3 node (vs. TSMC's N4P for B100) and CoWoS-L packaging (same as B100).
  3. R100 adopts about 4x reticle design (vs. B100's 3.3x).
  4. The interposer size for R100 has yet to be finalized. There are 2–3 options.
  5. R100 will be equipped with eight HBM4 units.
  6. GR200's Grace CPU will use TSMC's N3 process (vs. TSMC's N5 for GH200 & GB200's Grace CPU).
  7. Nvidia realizes that the power consumption of AI servers has become a bottleneck for customers' procurement and data center construction. Hence, the R-series chips and system solutions focus on improving power consumption in addition to enhancing AI computing power.
  1. 英伟达的下一代人工智能芯片R系列/R100 AI芯片将在25年第四季度进入量产,系统/机架解决方案可能会在26年上半年开始量产。
  2. R100 将使用台积电的 N3 节点(相比之下 B100 采用台积电的 N4P)和 Cowos-L 封装(与 B100 相同)。
  3. R100 采用大约 4 倍的标线设计(相比之下 B100 的 3.3 倍)。
  4. R100 的中介层大小尚未最终确定。有 2-3 个选项。
  5. R100 将配备八台 HBM4 单元。
  6. GR200 的 Grace CPU 将使用台积电的 N3 进程(相比之下,台积电的 N5 用于 GH200,GB200 的 Grace CPU)。
  7. Nvidia 意识到,人工智能服务器的功耗已成为客户采购和数据中心建设的瓶颈。因此,R系列芯片和系统解决方案除了增强AI计算能力外,还侧重于改善功耗。
声明:本内容仅用作提供资讯及教育之目的,不构成对任何特定投资或投资策略的推荐或认可。 更多信息
    抢沙发