一个月前,在英伟达通过财务会议放出的技术路线图中,可以看到GH200 GPU和H200 GPU加速器将作为“Blackwell”GB100 GPU和B100 GPU之前的过渡产品,而Blackwell家族计划在明年年内推出。
HPE与英伟达表示正为客户提供构建模块,可用于组装同布里斯托大学Isambard-AI超级计算机同架构的迷你版本,用以训练生成式AI和深度学习项目。
10月19日 - 10月20日,由 NVIDIA 主办的 NVIDIA 初创企业展示 · 半程展示在雅安大数据产业园成功举办。
对于过去几代产品而言,两年一更新的速度足以保持竞争优势。但根据本月早些时候投资者们看到的演示文稿,英伟达手中除了B100这张王牌,还有将Arm核心与Blackwell架构匹配打造的全新“超级芯片”,外加L40及L40S的迭代产品。
英伟达宣布与量子计算芯片厂商SEEQC建立合作,在量子计算机与GPU之间开发首个芯片到芯片的数字链接,并确保与一切量子计算范式相兼容。
Omdia发布统计,认为在一定时期之内,服务器市场将继续以GPU为最主要的核心组件。这家市场研究机构估计,单英伟达H100 GPU这一款产品在今年第二季度的出货量就超过了900吨。
最近一段时间,Hot Interconnects、Hot Chips、Google Cloud Next和Meta Networking@Scale等重量级会议先后亮相。借此机会,我们打算通过本文以更有条理的方式对资讯亮点做一番整理,聊聊并深入分析我们听到和看到的这些丰富内容。
Mipsology的团队将帮助AMD提高该公司CPU、GPU和自适应芯片的人工智能软件开发方面的推理能力。
VMware 与NVIDIA 为企业开启生成式AI时代打开了一条快速通道,赋予私有化部署生成式AI的能力,帮助企业获取AI应用的差异化优势。
如果情况真如英伟达及其他众多科技企业预料的那样,即大语言模型会成为新的编程模型基础,那么混合CPU-GPU计算引擎就将是新的通用计算平台。
英伟达创始人兼首席执行官黄仁勋在SIGGRAPH年会上发布了专为生成式 AI 打造的下一代 GH200 Grace Hopper 平台
英伟达今天首次推出了GH200 Grace Hopper芯片的升级版,它将使企业能够运行更复杂的语言模型。
近日微软表示,ND H100 v5虚拟机系列将上线Azure云平台,为客户训练和运行大模型提供支持。
Amazon EC2 P5实例则采用8个英伟达H100 Tensor Core GPU,具有640 GB高带宽GPU内存,同时提供第三代AMD EPYC处理器、2TB系统内存和30TB本地NVMe存储。
英伟达正在和英特尔合作,利用Intel Trust Domain Extensions和英特尔的可信服务“Amber项目”为英伟达H100 GPU提供扩展认证服务。“Amber项目”旨在帮助客户部署保密人工智能解决方案。