最近几个月,代理式AI应用的快速增长导致了AI系统对内存的需求发生了深刻的变化。现在,AMD和高通也开始关注这种转变,甚至在下一代AI产品和机架架构中考虑引入SOCAMM内存模块。
SOCAMM最初是为NVIDIA设计的内存标准,与传统的焊接在主板上的LPDDR不同。它采用了模块化设计,具有可更换、可升级和平衡容量、功耗和系统弹性,这使得它成为 Industry 的关注点。
代理式AI架构需要保持长时间上下文、状态和任务记忆,而这导致了对短期但大容量内存的需求显著增加。与单纯依赖HBM相比,SOCAMM被广泛认为可以满足成本、功耗和容量之间取得平衡的内存设计。这使得它成为一种更合理的选择。
相关人士表示,SOCAMM可以让单一CPU或加速器平台配置达到TB级内存容量,使AI agent 能维持数百万个token的活跃状态。虽然其带宽和吞吐量不及HBM,但在功耗效率和系统扩展性方面具有优势,被视为适合与HBM搭配使用的内存层级。
AMD和高通正在评估SOCAMM模块设计,可能采用不同的路线。他们正在考虑以方形模块形式配置DRAM,并将PMIC直接整合到模块本体之上,使电源调节可以在模块端完成。这可能会给NVIDIA带来新的竞争优势。
NVIDIA已经计划在其Vera Rubin中引入新一代SOCAMM 2,并预计随着出货规模的扩大,SOCAMM将成为AI 系统的重要内存配置之一。该公司还向DRAM厂商提出了SOCAMM的年度需求规划,其主要供应商包括三星、SK海力士和美光。
这是一个具有重要意义的转变,代理式AI应用将对SOCAMM产生重大影响。
SOCAMM最初是为NVIDIA设计的内存标准,与传统的焊接在主板上的LPDDR不同。它采用了模块化设计,具有可更换、可升级和平衡容量、功耗和系统弹性,这使得它成为 Industry 的关注点。
代理式AI架构需要保持长时间上下文、状态和任务记忆,而这导致了对短期但大容量内存的需求显著增加。与单纯依赖HBM相比,SOCAMM被广泛认为可以满足成本、功耗和容量之间取得平衡的内存设计。这使得它成为一种更合理的选择。
相关人士表示,SOCAMM可以让单一CPU或加速器平台配置达到TB级内存容量,使AI agent 能维持数百万个token的活跃状态。虽然其带宽和吞吐量不及HBM,但在功耗效率和系统扩展性方面具有优势,被视为适合与HBM搭配使用的内存层级。
AMD和高通正在评估SOCAMM模块设计,可能采用不同的路线。他们正在考虑以方形模块形式配置DRAM,并将PMIC直接整合到模块本体之上,使电源调节可以在模块端完成。这可能会给NVIDIA带来新的竞争优势。
NVIDIA已经计划在其Vera Rubin中引入新一代SOCAMM 2,并预计随着出货规模的扩大,SOCAMM将成为AI 系统的重要内存配置之一。该公司还向DRAM厂商提出了SOCAMM的年度需求规划,其主要供应商包括三星、SK海力士和美光。
这是一个具有重要意义的转变,代理式AI应用将对SOCAMM产生重大影响。