最新文章
2024信创4大领域和15个产业现状调研

2024信创4大领域和15个产业现状调研

2023年中国信创产业规模达20961.9亿元,2027年有望达到37011.3亿元,中国信创市场正释放出前所未有的活力。数据显示,2024年中国国产PC整机市场规模将达5182.3亿元,中国协同办公市场规模将达370.7亿元。

AI芯片架构众多,谁会主宰算力芯片?

AI芯片架构众多,谁会主宰算力芯片?

GPU主宰算力芯片,Al信创驱动国产算力发展:得益于硬件支持与软件编程、设计方面的优势,CPU+GPU成为了目前应用最广泛的平台。Al分布式计算的市场主要由算力芯片(55-75%)、内存(10-20%)和互联设备(10-20%)三部分组成。

AI服务器核心部件产业链剖析(2024)

AI服务器核心部件产业链剖析(2024)

Al芯片是AI服务器算力的核心,专门用于处理人工智能应用中的大量计算任务,Al芯片按架构可分为GPU、FPGA、ASIC和NPU等。HBM作为内存产品的一种,已经成为高端GPU标配,可以理解为与CPU或SoC对应的内存层级,将原本在PCB板上的DDR和GPU芯片同时集成到SiP封装中,使内存更加靠近GPU,使用HBM可以将DRAM和处理器(CPU,GPU以及其他ASIC)之间的通信带宽大大提升,从而缓解这些处理器的内存墙问题。

十年一剑,TPU引领AI芯片时代

十年一剑,TPU引领AI芯片时代

TPU 的设定,只能在 TensorFlow 中执行推理,但它的性能非常好。我们认为,TPU 与 TensorFlow 的良好适配,能够发挥出 1+1>2 的效果。深度学习计算中的芯片部署都不是零和博弈。现实世界的深度学习网络需要系统的 GPU 与其他 GPU 或诸如 Google TPU 之类的 ASIC 通信。GPU 是理想的工作环境,具有深度学习所需的灵活性

GPU虚拟化:常见技术实现解析

GPU虚拟化:常见技术实现解析

GPU可以用于图形渲染,GPU 作为加速图形绘制的芯片时,它主要面向的产品主要是会集中在 PC 和游戏两个市场。也能够用于高性能计算领域(GPGPU)和编解码场景(子模块)等。

Blackwell GB200:英伟达GPU重塑AI服务器

Blackwell GB200:英伟达GPU重塑AI服务器

GB200主板从HGX模式变为MGX,HGX是NVIDIA推出的高性能服务器,通常包含8个或4个GPU,MGX是一个开放模块化服务器设计规范和加速计算的设计,在Blackwell系列大范围使用。MGX模式下,GB200 Switch tray主要为工业富联生产,Compute Tray为纬创与工业富联共同生产,交付给英伟达。据Semianalysis,有望带来机柜集成、HBM、铜连接、液冷等四个市场价值量2-10倍提升。

AI网络背景下RDMA的Why,What & How

AI网络背景下RDMA的Why,What & How

在传统数据传输方案中,内存数据访问和网络数据传输分属两套语义集合。数据传输中CPU承担了大量工作。应用程序先申请资源,再通知Socket,内核态驱动程序完成TCP/IP报文封装,最后由NIC的网络接口发送到对端。数据在发送节点需要依次经过Application Buffer、Socket Buffer、Transfer Protocol buffer。到达接收节点后同样需经过多次反向内存拷贝,内核态驱动程序完成TCP/IP报文解封装,应用程序最终将数据写入系统物理内存。

AI芯片算力基础及关键参数

AI芯片算力基础及关键参数

AI芯片通常采用GPU和ASIC架构。GPU因其在运算和并行任务处理上的优势成为AI计算中的关键组件,它的算力和显存、带宽决定了GPU的运算能力。GPU的核心可分为CudaCore、Tensor Core等;Tensor Core是增强AI计算的核心,相较于并行计算表现卓越的Cuda Core,它更专注于深度学习领域,通过优化矩阵运算来加速AI深度学习的训练和推理任务

2024年AMD CPU和GPU技术进展

2024年AMD CPU和GPU技术进展

第二代XDNA NPU架构:XDNA NPU 2引入了全新的Block FP16 (BF16)浮点精度,其AI引擎性能是第二代 AMD 锐龙 AI 的三倍,是目前唯一可提供 50 TOPS 的AI 处理性能的产品。

服务器基础知识全解(终极版)

服务器基础知识全解(终极版)

2017年7月份,Purley的新一代服务器平台,Purley平台将产品型号命名方式由此前连续使用四代的E7/E5变为至强可扩展处理器(Intel Xeon Scalable Processor,SP),系列型号按铂金(Platinum)、金(Gold)、银(Silver)、铜(Bronze)定义

2024中国AI Agent研究综述

2024中国AI Agent研究综述

AI Agent(人工智能体)是一种能够感知环境、进行决策和执行动作的智能实体。不同于传统的人工智能,AI Agent具备通过独立思考、调用工具去逐步完成给定目标的能力。

VMware by Broadcom:虚拟化国产替换是否Ready?

VMware by Broadcom:虚拟化国产替换是否Ready?

过去两年中,VMware 一直在努力简化其产品组合,并从永久模式过渡到订阅模式,这种转变符合行业发展趋势,简化用户采购,更好地体现了采购成本与服务价值的关系。

2024年AI服务器和AI PC趋势

2024年AI服务器和AI PC趋势

国内数据中心建设较全球起步晚,目前处于云中心深化阶段,向智能算力中心转型,总体处于成长期。

超算系统突破316800个CPU核心,2560个GPU

超算系统突破316800个CPU核心,2560个GPU

Venado 在西班牙语中的意思是鹿或雄鹿,也是新墨西哥州 Sangre de Cristo 山脉的一座山峰的名称,这就是新机器得名的地方。正如您所预料的那样,Hewlett Packard Enterprise 是该系统的主要承包商,并且正如我们所预期的那样,该系统没有使用 Nvidia 为制造共享内存 GPU 的超级 Pod 而创建的 GPU NVLink Switch 共享内存互连。

深入理解鲲鹏处理器性能优化

深入理解鲲鹏处理器性能优化

在冯诺依曼架构下,计算机可以抽象为存储器、控制器、输入以及输出设备。存储器分为内部存储器和外部存储器,程序在未运行时存储在外部存储器中,而在运行时则是加载到内部存储器中进行各种运算和处理。

大模型变革:从云到端融合

大模型变革:从云到端融合

AI对云厂商资本开支需求的拉动始于2023年四季度,据一季度各大云厂商的资本开支及指引,预计2024年北美云商资本开支有望重回高速增长态势。

IB和RoCE智算网络差异分析

IB和RoCE智算网络差异分析

InfiniBand 和RoCEv2 这两种网络架构在性能、成本、通用性等多个关键维度上展现出各自的优势,相互竞争。我们将细致分析这两种架构的技术特性、它们在 AI 智算网络中的应用场景,以及各自的优势和局限性。

英伟达GPU:聚焦AI超大规模组网

英伟达GPU:聚焦AI超大规模组网

通过加快产品迭代,英伟达保持产品性能优势,且生成单个Token 功耗大幅降低。在各大 GPU 厂商新推出的产品中,英伟达 Blackwell在性能上高于 AMD 的 Instinct MI325X 和谷歌的 Trillium 芯片。

揭秘:“BBAT”万卡AI集群网络架构

揭秘:“BBAT”万卡AI集群网络架构

网络拓扑集群规模宏大,集成了超过10,000个GPU,依托一个精心设计的三层类CLOS网络架构实现高效互联。

详解英伟达Grace Hopper超级芯片架构

详解英伟达Grace Hopper超级芯片架构

NVIDIA Grace Hopper 超级芯片架构将 NVIDIA Hopper GPU 的开创性性能与 NVIDIA Grace CPU 的多功能性结合在一起,在单个超级芯片中连接了高带宽和内存相关 NVIDIA NVLink Chip-2-Chip (C2C) 互连,并支持新的 NVIDIA NVLink Switch System 。