最新文章
IBM在“宽松的”Apache许可下发布最新Granite基础模型
2024-10-22

IBM在“宽松的”Apache许可下发布最新Granite基础模型

IBM推出了新一代用于应用开发和现代化的watsonx Code Assistant,所有这些新功能都捆绑在一个多模型平台中,供IBM的160000名顾问使用。

Gartner发布2025 年十大战略技术趋势
2024-10-22

Gartner发布2025 年十大战略技术趋势

2025 年的重要战略技术趋势涵盖了AI的必要事项和风险,以及计算技术和人机协同等前沿趋势。追踪这些趋势将帮助IT领导者以负责任、和合乎道德的创新方式塑造企业机构的未来。”

Dell PowerMax新增直接备份功能,搭配PowerProtect提升网络弹性
2024-10-22

Dell PowerMax新增直接备份功能,搭配PowerProtect提升网络弹性

直接备份功能为企业带来快速、高效、安全、简单的多云数据保护体验。

报告丨2024量子计算发展态势研究报告

报告丨2024量子计算发展态势研究报告

当前,量子计算处于技术攻关和应用探索的关键阶段。超导、离子阱、中性原子、光量子、硅半导体等技术路线科研探索和原型机工程研发不断取得进展,金融、化工、生物、交通、人工智能等行业领域应用探索持续深化,量子+经典融合计算成为业界关注焦点。

搭建一个 AI 问答机器人,需要几步?

搭建一个 AI 问答机器人,需要几步?

很多人想到模型私有化部署,会以为要数据中心的多台服务器来做,其实不然。办公室里搭建 AI 工作站,已经可以完美地支持企业内部知识库和一些POC场景的需求,比如进行量化的 70B 模型的训练和推理工作。所以在办公室环境下,同样可以搭建一个 AI 问答机器人。

AI网络背景下RDMA的Why,What & How

AI网络背景下RDMA的Why,What & How

在传统数据传输方案中,内存数据访问和网络数据传输分属两套语义集合。数据传输中CPU承担了大量工作。应用程序先申请资源,再通知Socket,内核态驱动程序完成TCP/IP报文封装,最后由NIC的网络接口发送到对端。数据在发送节点需要依次经过Application Buffer、Socket Buffer、Transfer Protocol buffer。到达接收节点后同样需经过多次反向内存拷贝,内核态驱动程序完成TCP/IP报文解封装,应用程序最终将数据写入系统物理内存。

突发!微软正与OpenAI洽谈,140亿美元投资股权

突发!微软正与OpenAI洽谈,140亿美元投资股权

微软与OpenAI进行140亿美元的投资股权谈判,关注股权分配和公司控制权。监管机构担心微软控制OpenAI可能导致AI市场不公平优势和隐私问题。OpenAI面临转型为营利公司的财务压力,需在不触发监管的前提下给予微软合理股权。微软对OpenAI的投资关键于其发展,特别是2019年的10亿美元投资,支持了GPT-3模型的研发。

元宇宙营销:在线广告的未来!

元宇宙营销:在线广告的未来!

元宇宙是一个迅速扩展的概念,它正在改变我们与技术和其他用户在线互动的方式。这是一个共享的虚拟世界,人们可以在其中以身临其境的三维方式与彼此及其环境进行交互。随着元宇宙的兴起,对于那些希望以创新和吸引人的方式接触目标受众的品牌来说,新的营销机会正在出现。

观点 | 加快探索多样化的企业数据定价模式

观点 | 加快探索多样化的企业数据定价模式

数据作为新生产要素,定价是需要突破的难题,是发挥数据要素驱动作用的关键,需要深入研究。企业数据按照市场原则自主定价在理论和政策上已经取得共识,但在实践上还遇到很多困难,亟需找到突破的方向和路径。本文在研究成本法、市场法和收益法等定价方法的基础上,结合当前企业数据的主要定价方法实践,提出在企业数据市场的初期阶段,基于成本对企业数据定价,是市场参与各方容易接受并能有效促进交易达成的方式。

极智AI | 解读强化学习中的Q-learning

极智AI | 解读强化学习中的Q-learning

在 OpenAI o1 的背景下,Q-learning 略显神秘,这里来解读。Q-learning 是一种基于值的强化学习算法,它旨在学习一个策略,使得智能体在环境中采取行动后,能够最大化累积的奖励。它通过估计状态-动作值函数(即 Q 函数)来实现这一目标。

英伟达宣布与Aidoc合作,共同探索AI医疗应用

英伟达宣布与Aidoc合作,共同探索AI医疗应用

如今,随着AI行业逐渐站稳脚跟,AI的内在价值也逐渐被人们所理解,也终于有时间能够以系统性、有组织的方式将前一阶段的工作成果归纳在一处。近年来,也有其他类似的框架不断涌现。例如今年早些时候,在医疗AI领域投入大量精力的微软就宣布,将扩大其与2024年3月发布的可信与负责任AI网络(TRAIN)项目的合作。另一项重要举措是健康AI联盟(CHAI),该联盟得到了微软、亚马逊、谷歌、斯坦福医学院以及麻省总医院等行业巨头的支持。

“驭智”之变

“驭智”之变

——记于“2024世界智能网联汽车大会”

HPE CEO谈收购Juniper、AI发展和竞争对手思科
2024-10-21

HPE CEO谈收购Juniper、AI发展和竞争对手思科

Neri还谈到了HPE完成Juniper收购交易之后的渠道合作伙伴战略和产品集成愿景,他说这可能只是“几周之后的事情”。“Juniper拥有出色的QFX架构,需要进行一些现代化和加速,我们将把它和我们的HP Slingshot架构结合起来,正在使用它来扩展数万个GPU,而且随着时间的推移将它们整合在一起。因为我们相信,借助我们的高性能硅片,我们可以降低平台的复杂性。”

AI让边缘计算与CIO越来越紧密相关

AI让边缘计算与CIO越来越紧密相关

随着生成式AI被嵌入到越来越多的设备中,赋予它自主决策权就将取决于实时数据,以及避免过高的云成本,这就是边缘计算的用武之地。

七个迹象表明你可能不是变革型CIO
2024-10-21

七个迹象表明你可能不是变革型CIO

加速业务变革已经成为IT的当务之急,但并非所有CIO都会把自己和团队定位为推动整个业务转型的力量。

微软精心打造Rust虚拟机管理程序,为Azure工作负载提供动力
2024-10-21

微软精心打造Rust虚拟机管理程序,为Azure工作负载提供动力

微软本月早些时候发布了用 Rust 编写的新管理程序/虚拟机监控程序(VMM)的代码。

全球AI服务器总投入达2万亿美元,人工智能正在吞噬整个世界
2024-10-21

全球AI服务器总投入达2万亿美元,人工智能正在吞噬整个世界

每当AMD公司CEO苏姿丰宣布推出新的Instinct GPU加速器,数据中心AI加速产品的潜在市场似乎都在进一步扩大。

诺奖都颁给AI了,行业却已开启增速焦虑

诺奖都颁给AI了,行业却已开启增速焦虑

大模型的研发和运行确实需要大规模的资源和资金支持,非小规模团队能够轻易承担。这一点在当前的人工智能领域尤为明显。以GPT4-o为例,其训练涉及了文本、视觉和音频等多种数据模态,这意味着它需要处理和分析的数据量是巨大的。据OpenAI透露,GPT-4o在训练过程中使用了多达13兆的数据,这比之前的一些大型模型如LLAMA和PaLM使用的数据量还要多。此外,GPT-4o的模型参数数量也非常庞大,达到了1.8万亿。

数据中心为什么耗电那么多?ups与空调如何选型?(内附计算方法)

数据中心为什么耗电那么多?ups与空调如何选型?(内附计算方法)

要做到用电的节能首先要做好机房用电的检测,精确掌握机房用电是节能省电的第一步。大多数的移动基站均采用无人值守,但这些通信机房里的各种电子设备,是需要在一定的温度环境下(机房环境国家标准GB50174-2017规定长年机房温度为18℃~28℃),才能长期正常地运行,为了达到机房标准的环境温度,每个通信机房均配备了两台左右的空调,而这些空调长年处于开机状态,那么对机房的用电量就是很大的一块消耗。

世界最好小参数开源大模型!超谷歌、Meta,手机、平板轻松运行

世界最好小参数开源大模型!超谷歌、Meta,手机、平板轻松运行

Ministraux一共有Ministral 3B和8B两个版本,是专为手机、平板、笔记本等移动设备设计,在文本生成、推理、函数调用和效率方面非常强悍,大幅度超过了Meta的Llama-3.2和谷歌的Gemma-2,重新定义100亿参数以下小模型的性能。