英伟达(NVIDIA)近日宣布其全新Vera CPU,标志着公司的重要转折点。这种独立基础设施产品不仅仅是GPU配角,而是一款能够独立支撑完整计算栈的处理器。 这意味着英伟达将首次进入数据中心市场,以挑战长期由AMD EPYC和英特尔Xeon占据的霸主地位。
Vera CPU的设计非常强大,采用88个自研Armv9.2Olympus核心,每个核心支持两线程的空间多线程,形成88核、176线程的并行计算能力。这种结构使得英伟达能够提供更高的性能扩展性和能效优化。芯片集成了1.5TB的LPDDR5X内存,提供1.2TB/s的带宽,为AI模型预处理、数据分析与仿真等内存密集型工作负载提供了明显优势。
Vera CPU的核心架构是第二代可扩展一致性互联架构(Scalable Coherency Fabric),这一设计使得各核心间的数据交换高效且延迟更低。这种结构还与英伟达的第二代NVLink Chip-to-Chip技术直接相连,使Vera CPU能够共享内存模型与数据,在同一计算框架内构建起统一的CPU-GPU计算环境。
在指令与向量计算能力方面,Vera 核心支持FP8运算,并集成六组128位SVE2向量单元,以提升数据与AI处理效率。这使得Vera CPU能够在CPU端直接承担部分AI与浮点运算任务,而无需将所有工作都卸载给GPU,从而在某些企业级AI推理与数据处理场景中降低能耗与延迟。
随着Vera CPU的进入市场,传统x86阵营将迎来一位更深度融合CPU与GPUs的强劲对手。这种转变意味着英伟达正从全球领先的GPU供应商,转型为在通用计算领域与AMD EPYC、英特尔Xeon竞争的新玩家。
Vera CPU的设计非常强大,采用88个自研Armv9.2Olympus核心,每个核心支持两线程的空间多线程,形成88核、176线程的并行计算能力。这种结构使得英伟达能够提供更高的性能扩展性和能效优化。芯片集成了1.5TB的LPDDR5X内存,提供1.2TB/s的带宽,为AI模型预处理、数据分析与仿真等内存密集型工作负载提供了明显优势。
Vera CPU的核心架构是第二代可扩展一致性互联架构(Scalable Coherency Fabric),这一设计使得各核心间的数据交换高效且延迟更低。这种结构还与英伟达的第二代NVLink Chip-to-Chip技术直接相连,使Vera CPU能够共享内存模型与数据,在同一计算框架内构建起统一的CPU-GPU计算环境。
在指令与向量计算能力方面,Vera 核心支持FP8运算,并集成六组128位SVE2向量单元,以提升数据与AI处理效率。这使得Vera CPU能够在CPU端直接承担部分AI与浮点运算任务,而无需将所有工作都卸载给GPU,从而在某些企业级AI推理与数据处理场景中降低能耗与延迟。
随着Vera CPU的进入市场,传统x86阵营将迎来一位更深度融合CPU与GPUs的强劲对手。这种转变意味着英伟达正从全球领先的GPU供应商,转型为在通用计算领域与AMD EPYC、英特尔Xeon竞争的新玩家。