AMD 发布第五代 Epyc 嵌入式处理器,采用 Zen 5 架构,专为网络、存储和工业边缘计算优化。新处理器在性能、能效和嵌入式特性方面均有提升,可支持高达 192 核心,内存容量达 6TB,并提供 7 年产品制造支持。多家行业合作伙伴已开始采用这一新产品。
Meta公司通过使用基于eBPF的Strobelight性能分析套件,成功将其主要服务的CPU使用率降低20%。这一成果不仅大幅减少了服务器需求,还展示了eBPF在系统优化和效率提升方面的巨大潜力。eBPF作为一种创新技术,正在revolutionizing操作系统内核级编程,为企业带来显著的性能提升和成本节约。
Apple 最新推出的 M3 Ultra 芯片 GPU 性能表现出色,比 M4 Max 快 38%,比上一代 M2 Ultra 快 16%。在 Metal 测试中得分高达 259668。CPU 性能方面,M3 Ultra 多核性能小幅领先 M4 Max 8%。新款 Mac Studio 已开启预订,将于 3 月 12 日正式发售。
OpenAI 已开始向其 ChatGPT Plus 用户推出最新的 AI 模型 GPT-4.5。OpenAI 在 X 平台上发布的一系列帖子中表示,此次推出将持续“1-3 天”,并预计速率限制会有所变化。
PEAK:AIO推出了一款新的2RU 1.5 PB AI 数据服务器产品,使用戴尔硬件,数据传输速率达到120 GBps。PEAK:AIO是一家专注于人工智能的英国存储初创公司,提供基于第三方硬件的软件定义存储,密切管理和控制以降低延迟并提高吞吐量。其2RU服务器已为中型GPU集群提供40 GBps的传输速率,现可实现三倍的速度。
OpenAI 最近推出了 GPT-4.5,这款新模型在准确性测试中表现优于之前的版本,能够更好地理解细微差别。尽管面临 GPU 短缺的挑战,OpenAI 仍然致力于将这一模型推向市场,并计划在未来推出更先进的推理能力模型。
Inception Labs 于周四发布了 Mercury Coder,这是一种新的 AI 语言模型,利用扩散技术比传统模型更快地生成文本。与逐字生成文本的传统模型(如 ChatGPT)不同,基于扩散的模型(如 Mercury)能够同时生成完整的响应,并将其从最初的遮蔽状态逐步精炼为连贯的文本。
Inception是一家位于帕洛阿尔托的新公司,由斯坦福大学计算机科学教授Stefano Ermon创立,声称开发了一种基于“扩散”技术的新型AI模型,称为扩散基础的大型语言模型(DLM)。目前备受关注的生成AI模型大致可分为两类:大型语言模型(LLMs)和扩散模型。Inception的模型结合了传统LLMs的功能,如代码生成和问答,但性能显著更快,计算成本更低。
高通和诺基亚贝尔实验室成功展示了多厂商AI模型在无线网络中的互操作性。通过序列学习技术,他们实现了编码器和解码器模型的无缝协作,提高了网络效率和用户体验。这项突破性成果为AI在无线通信领域的应用开辟了新的可能性,有望显著提升网络容量、可靠性和能源效率。
随着生成式人工智能和 GPU 加速 AI 训练与推理的兴起,数据中心仍需关注 CPU 的重要性。现代化 CPU 不仅可以提升传统工作负载性能,还能帮助企业为昂贵的 AI 基础设施投资节省成本。高性能 CPU 可以显著提升 AI 推理和训练效率,同时在某些场景下直接运行 AI 算法。企业应考虑采用单插槽服务器等创新方案,以优化数据中心架构。
Intel 发布新一代 Xeon 6 处理器,采用性能核心设计,大幅提升数据中心工作负载性能,AI 处理性能最高提升 2 倍。新处理器还集成了 vRAN Boost 技术,可将无线接入网络处理能力提升至 2.4 倍。此次发布对 Intel 重塑市场地位至关重要,公司希望通过技术创新和美国芯片法案支持,重振昔日辉煌。
Voltron Data 与埃森哲建立战略合作,推出 GPU 加速分析引擎 Theseus,旨在解决 AI 数据处理的瓶颈问题。该技术能以更快速度处理海量数据,显著提升 AI 项目效率,降低基础设施成本。这一合作将帮助企业应对 AI 带来的数据处理挑战,为金融、零售等行业带来巨大价值。
DDN 发布新一代 Infinia 2.0 对象存储系统,专为 AI 训练和推理设计。该系统号称可将 AI 数据加速提升 100 倍,数据中心和云计算成本效率提高 10 倍。Infinia 2.0 采用键值对架构,集成多项先进技术,旨在消除 AI 工作负载瓶颈,加速数据流,并实现无缝扩展。
美光发布新一代PCIe 5.0 SSD - 4600系列,性能翻倍,主打AI PC、游戏玩家和专业用户市场。采用276层TLC NAND和PCIe 5.0接口,读写速度分别达14.5GB/s和12GB/s,随机读写IOPS达210万,延迟大幅降低。搭载多项安全功能,适用于数据密集型AI应用场景。
高通推出骁龙 6 Gen 4 移动处理器平台,旨在提升游戏和生产力性能。该平台具备强大性能、长续航和超快 5G 连接,首次支持 Gen AI。预计多家知名手机厂商将在未来几个月推出搭载该芯片的智能手机,为中端市场带来全面升级。
HPE 的 Alletra MP X10000 对象存储系统代表了一种新型的可扩展存储硬件,采用了 VAST Data 首创的解耦共享一切(DASE)架构。HPE 的全球技术与战略架构师 Dimitris Krekoukias 在博客中详细列出了其主要特性,并解释了这些特性为何被纳入设计中。
Nvidia 推出 Spectrum-X 以太网网络技术,结合 InfiniBand 自适应路由功能,可显著提升存储网络性能。测试表明,在大规模 AI 训练和推理场景中,该技术能将存储网络读取带宽提高近 50%,有效缓解网络拥塞,加速 AI 工作负载。
Volumez 更新了其云端块存储配置服务,通过 DIaaS 产品支持容器化应用和生成式 AI。该技术可以最大化 GPU 利用率,自动化 AI 和机器学习流程。Volumez 旨在解决现有 AI 基础设施中的存储效率低下、资源利用不均衡等问题,提高性能并简化管理,从而加速 AI 项目进程。
Alluxio 发布新版本,专注优化 AI 模型训练性能。主要改进包括加快数据访问、增强 Python 集成、优化 S3 存储访问等。这些更新旨在加速模型训练过程,提高 GPU 利用率,帮助企业更快地将 AI 模型推向市场。
Ocient 与 AMD 合作,采用第四代 EPYC CPU,将处理能力提升 3.5 倍,内存吞吐量翻倍。这一升级不仅显著提高了数据分析性能,还降低了运营成本和能耗,为企业应对 AI 和大数据分析的挑战提供了强有力的支持。