根据Groq官网的介绍,LPU是一种专为AI推理所设计的芯片。但要训练大模型,仍然需要购买GPU。
NVIDIA RTX 2000 Ada的推出为AI加速带来了高性价比的解决方案,展现了NVIDIA在推动技术进步和赋能未来工作方式方面的前瞻性。
要说当下最困难的挑战,就是如何为计算系统采购充足的英伟达“Hopper”H100 GPU。哪怕是作为供应商的英伟达自己,也只能在有限的配额之下谨慎规划、调拨给内部使用。
英伟达公司今天推出了新的Nvidia RTX 2000 Ada Generation GPU,将更强大的生成式人工智能处理器打包到“紧凑型工作站”中,让用户能够在设备上运行高级AI应用程序。
从最近的态势来看,AMD旗下Instinct数据中心GPU加速器业务在2024年的表现似乎将比人们的预期好上不少。
AMD在圣何塞召开的Advancing AI大会上公布了MI300产品家族,基本与英伟达、英特尔和其他AI加速器厂商的节奏保持一致。
一个月前,在英伟达通过财务会议放出的技术路线图中,可以看到GH200 GPU和H200 GPU加速器将作为“Blackwell”GB100 GPU和B100 GPU之前的过渡产品,而Blackwell家族计划在明年年内推出。
近日,Imagination Technologies推出IMG DXD,这是支持DirectX的高性能GPU IP新产品线的首款产品。
Omdia发布统计,认为在一定时期之内,服务器市场将继续以GPU为最主要的核心组件。这家市场研究机构估计,单英伟达H100 GPU这一款产品在今年第二季度的出货量就超过了900吨。
Nvidia公司正在和位于多伦多的初创公司Xanadu Quantum Technologies展开合作,首次实现在超级计算机上运行量子计算模拟。
Nvidia近日宣布推出一款名为TensorRT-LLM的新开源软件套件,扩展了Nvidia GPU上大型语言模型优化的功能,并突破了部署之后人工智能推理性能的极限。
NVIDIA L40S GPU 结合 NVIDIA Omniverse 平台,将加速计算密集型的复杂应用,推动生成式 AI 发展并开启更多可能性。
Nvidia今天宣布广泛推出下一代DGX超级计算平台Nvidia DGX Cloud,使企业能够访问Oracle Cloud Infrastructure及其云服务上的数千个GPU。
工信部信息通信发展司司长谢存表示,将增强自主创新能力,加强CPU、GPU和服务器等重点产品研发,加速新技术、新产品落地应用
我们将通过《NVIDIA 加速计算,百万倍加速行业应用》系列文章,为您详解 NVIDIA 如何通过数据中心规模的全栈加速计算,助力多个行业实现百万倍计算性能飞跃,高效解决人类挑战。
英伟达正积极拥抱一种新的计算范式,利用大规模并行计算机系统为新一代应用程序提供服务。而这场变化的开端,主要始于以色列。
针对不同应用场景,象帝先GPU发挥通用赋能优势,与各种系统配合的成熟度较高,从而提升企业用户的生产效率。