GPU可以用于图形渲染,GPU 作为加速图形绘制的芯片时,它主要面向的产品主要是会集中在 PC 和游戏两个市场。也能够用于高性能计算领域(GPGPU)和编解码场景(子模块)等。
GB200主板从HGX模式变为MGX,HGX是NVIDIA推出的高性能服务器,通常包含8个或4个GPU,MGX是一个开放模块化服务器设计规范和加速计算的设计,在Blackwell系列大范围使用。MGX模式下,GB200 Switch tray主要为工业富联生产,Compute Tray为纬创与工业富联共同生产,交付给英伟达。据Semianalysis,有望带来机柜集成、HBM、铜连接、液冷等四个市场价值量2-10倍提升。
在传统数据传输方案中,内存数据访问和网络数据传输分属两套语义集合。数据传输中CPU承担了大量工作。应用程序先申请资源,再通知Socket,内核态驱动程序完成TCP/IP报文封装,最后由NIC的网络接口发送到对端。数据在发送节点需要依次经过Application Buffer、Socket Buffer、Transfer Protocol buffer。到达接收节点后同样需经过多次反向内存拷贝,内核态驱动程序完成TCP/IP报文解封装,应用程序最终将数据写入系统物理内存。
AI芯片通常采用GPU和ASIC架构。GPU因其在运算和并行任务处理上的优势成为AI计算中的关键组件,它的算力和显存、带宽决定了GPU的运算能力。GPU的核心可分为CudaCore、Tensor Core等;Tensor Core是增强AI计算的核心,相较于并行计算表现卓越的Cuda Core,它更专注于深度学习领域,通过优化矩阵运算来加速AI深度学习的训练和推理任务
第二代XDNA NPU架构:XDNA NPU 2引入了全新的Block FP16 (BF16)浮点精度,其AI引擎性能是第二代 AMD 锐龙 AI 的三倍,是目前唯一可提供 50 TOPS 的AI 处理性能的产品。
2017年7月份,Purley的新一代服务器平台,Purley平台将产品型号命名方式由此前连续使用四代的E7/E5变为至强可扩展处理器(Intel Xeon Scalable Processor,SP),系列型号按铂金(Platinum)、金(Gold)、银(Silver)、铜(Bronze)定义
AI Agent(人工智能体)是一种能够感知环境、进行决策和执行动作的智能实体。不同于传统的人工智能,AI Agent具备通过独立思考、调用工具去逐步完成给定目标的能力。
过去两年中,VMware 一直在努力简化其产品组合,并从永久模式过渡到订阅模式,这种转变符合行业发展趋势,简化用户采购,更好地体现了采购成本与服务价值的关系。
Venado 在西班牙语中的意思是鹿或雄鹿,也是新墨西哥州 Sangre de Cristo 山脉的一座山峰的名称,这就是新机器得名的地方。正如您所预料的那样,Hewlett Packard Enterprise 是该系统的主要承包商,并且正如我们所预期的那样,该系统没有使用 Nvidia 为制造共享内存 GPU 的超级 Pod 而创建的 GPU NVLink Switch 共享内存互连。
在冯诺依曼架构下,计算机可以抽象为存储器、控制器、输入以及输出设备。存储器分为内部存储器和外部存储器,程序在未运行时存储在外部存储器中,而在运行时则是加载到内部存储器中进行各种运算和处理。
AI对云厂商资本开支需求的拉动始于2023年四季度,据一季度各大云厂商的资本开支及指引,预计2024年北美云商资本开支有望重回高速增长态势。
InfiniBand 和RoCEv2 这两种网络架构在性能、成本、通用性等多个关键维度上展现出各自的优势,相互竞争。我们将细致分析这两种架构的技术特性、它们在 AI 智算网络中的应用场景,以及各自的优势和局限性。
通过加快产品迭代,英伟达保持产品性能优势,且生成单个Token 功耗大幅降低。在各大 GPU 厂商新推出的产品中,英伟达 Blackwell在性能上高于 AMD 的 Instinct MI325X 和谷歌的 Trillium 芯片。
网络拓扑集群规模宏大,集成了超过10,000个GPU,依托一个精心设计的三层类CLOS网络架构实现高效互联。
NVIDIA Grace Hopper 超级芯片架构将 NVIDIA Hopper GPU 的开创性性能与 NVIDIA Grace CPU 的多功能性结合在一起,在单个超级芯片中连接了高带宽和内存相关 NVIDIA NVLink Chip-2-Chip (C2C) 互连,并支持新的 NVIDIA NVLink Switch System 。
2024 年初,我们当前一代云原生处理器系列看起来是这样的,AMD EPYC Bergamo 和 Ampere Altra Max 有两个 128 核选项。
NVIDIA DGX SuperPOD是下一代数据中心人工智能(AI)架构。旨在提供AI模型训练、推理、高性能计算(HPC)和混合应用中的高级计算挑战所需的计算性能水平,以提高预测性能和解决方案的时间。
大模型训练任务对于网络要求苛刻,34%的训练中断是由网络引起。RDMA的丢包重传机制将导致带宽利用率快速降低,当丢包率达到千分之1时,训练效率降低明显;
智算平台面临着前所未有的挑战和机遇。通过技术创新和持续优化,可以有效提升智算平台在大模型场景下的性能和稳定性,推动AI技术的快速发展。