IBM将在未来推出的Power产品中整合Spyre Accelerator(包括明年发布的Power11系统),并计划为IBM i操作系统使用的Report Program Generator (RPG)语言提供代码助手,解决方案提供商将把这一系列更新带给客户。
Al芯片是AI服务器算力的核心,专门用于处理人工智能应用中的大量计算任务,Al芯片按架构可分为GPU、FPGA、ASIC和NPU等。HBM作为内存产品的一种,已经成为高端GPU标配,可以理解为与CPU或SoC对应的内存层级,将原本在PCB板上的DDR和GPU芯片同时集成到SiP封装中,使内存更加靠近GPU,使用HBM可以将DRAM和处理器(CPU,GPU以及其他ASIC)之间的通信带宽大大提升,从而缓解这些处理器的内存墙问题。
多家戴尔渠道合作伙伴纷纷表示,该公司去年在其存储产品上市计划中的大幅修整已经初见成效,推动各合作方的收入逐步提升。戴尔团队正积极为存储领域的合作伙伴提供当面沟通和培训支持,共同为产品销售献策出力。
很多人想到模型私有化部署,会以为要数据中心的多台服务器来做,其实不然。办公室里搭建 AI 工作站,已经可以完美地支持企业内部知识库和一些POC场景的需求,比如进行量化的 70B 模型的训练和推理工作。所以在办公室环境下,同样可以搭建一个 AI 问答机器人。
每当AMD公司CEO苏姿丰宣布推出新的Instinct GPU加速器,数据中心AI加速产品的潜在市场似乎都在进一步扩大。
如果大家正在考虑升级自己的x86服务器机群——目前确实有不少企业、超大规模基础设施运营商和云服务商都在持币参与讨论——那么好消息是,英特尔和AMD均已推出其有史以来最强大的串行计算引擎。
在当下的AI竞争格局下,没什么能比一场AI浓度爆表的大会,更能快速彰显自身实力了,AMD的这场「Advancing AI大会」,就是印证。
戴尔今天推出了五款新的PowerEdge服务器,采用了AMD第五代EPYC处理器,主要针对AI开发和部署模型。
2017年7月份,Purley的新一代服务器平台,Purley平台将产品型号命名方式由此前连续使用四代的E7/E5变为至强可扩展处理器(Intel Xeon Scalable Processor,SP),系列型号按铂金(Platinum)、金(Gold)、银(Silver)、铜(Bronze)定义
Dell’Oro Group的一份新报告显示,在对AI-ready硬件需求的推动下,数据中心在2024年第二季度的资本支出增长了接近50%。
HPE与IronYun展开合作,后者是利用Nvidia GPU专门为零售商打造AI应用视觉的先驱。
戴尔在约一年之前推出了其Apex Red Hat OpenShift服务,支持在戴尔PowerEdge服务器上运行Red Hat OpenShift容器编排服务及带有SSD的PowerFlwx块存储。APEX是戴尔提供的一组服务,通过类似公有云的订阅模式提供计算、存储和网络设备。
近期,澜起科技股份有限公司公布了其2024年上半年的财务报告。报告显示,该公司在该期间内实现了16.65亿元的营业收入,较去年同期增长了79.49%;归属于上市公司股东的净利润达到5.93亿元,同比增幅高达624.63%;
戴尔近日表示,将与红帽合作,将Red Hat Enterprise Linux AI(RHEL AI)平台引入旗下流行的PowerEdge服务器,为其硬件铺平了成为人工智能开发基础之路。
在最新一份财务报告当中,截至8月4日的当季度(2025财年第二季度),戴尔公司已经表现出推动生成式AI商业化的迹象。
不久前,浪潮信息的研发工程师基于2U4路旗舰通用服务器NF8260G7,采用领先的张量并行、NF4模型量化等技术,实现服务器仅依靠4颗CPU即可运行千亿参数 “源2.0” 大模型,成为通用AI算力的新标杆。
随着2024年夏季奥运会正式开幕,全球注意力转向巴黎,大部分焦点理所当然地放在了运动员身上。事实证明,数据中心(特别是数据中心热量)也发挥着作用。