Analyst Ming-Chi Kuo Gives "Some Prediction Updates About Nvidia's Next-Generation AI Chip R-Series/R100" - Medium
Analyst Ming-Chi Kuo Gives "Some Prediction Updates About Nvidia's Next-Generation AI Chip R-Series/R100" - Medium
分析师郭明池给出了 “有关Nvidia下一代人工智能芯片R系列/R100的一些预测更新”-Medium
- Nvidia's next-generation AI chip, the R-series/R100 AI chip, will enter mass production in 4Q25, and the system/rack solution will likely start mass production in 1H26.
- R100 will use TSMC's N3 node (vs. TSMC's N4P for B100) and CoWoS-L packaging (same as B100).
- R100 adopts about 4x reticle design (vs. B100's 3.3x).
- The interposer size for R100 has yet to be finalized. There are 2–3 options.
- R100 will be equipped with eight HBM4 units.
- GR200's Grace CPU will use TSMC's N3 process (vs. TSMC's N5 for GH200 & GB200's Grace CPU).
- Nvidia realizes that the power consumption of AI servers has become a bottleneck for customers' procurement and data center construction. Hence, the R-series chips and system solutions focus on improving power consumption in addition to enhancing AI computing power.
- 英伟达的下一代人工智能芯片R系列/R100 AI芯片将在25年第四季度进入量产,系统/机架解决方案可能会在26年上半年开始量产。
- R100 将使用台积电的 N3 节点(相比之下 B100 采用台积电的 N4P)和 Cowos-L 封装(与 B100 相同)。
- R100 采用大约 4 倍的标线设计(相比之下 B100 的 3.3 倍)。
- R100 的中介层大小尚未最终确定。有 2-3 个选项。
- R100 将配备八台 HBM4 单元。
- GR200 的 Grace CPU 将使用台积电的 N3 进程(相比之下,台积电的 N5 用于 GH200,GB200 的 Grace CPU)。
- Nvidia 意识到,人工智能服务器的功耗已成为客户采购和数据中心建设的瓶颈。因此,R系列芯片和系统解决方案除了增强AI计算能力外,还侧重于改善功耗。