OpenAI 推出了 GPT-4.1 系列,专注提升编程效率、扩展长文本处理能力与指令执行准确性,同时大幅降低成本,为企业和开发者提供更灵活的 AI 工具。
Google 发布了新的智能代理开发工具包 (ADK) 和相关功能,简化了基于 Gemini 模型的多代理系统创建过程。ADK 支持 Model Context Protocol,可帮助企业快速构建、部署和管理 AI 代理。同时推出的还有 Agent Engine 和 Agent Garden,为企业提供了更全面的代理开发和管理解决方案。这些新工具旨在增强企业对 AI 代理的控制和安全性。
英伟达发布了基于 Meta 旧版 Llama-3.1 的全新开源大语言模型 Llama-3.1-Nemotron-Ultra-253B。该模型在多项第三方基准测试中表现出色,尽管参数量仅为 DeepSeek R1 的一半,但在许多任务上都超越了这个强大的竞争对手。新模型支持高级推理、指令跟随和 AI 助手工作流,采用了创新架构和针对性后训练来优化性能。
Google 在生成式 AI 领域起步较晚,但近期 Gemini 发展迅速。最新发布的 Gemini 2.5 Pro (实验版)在基准测试和用户体验方面均有显著提升,有望挑战 ChatGPT 的主导地位。Google 表示,这得益于长期投资的成果开始发挥作用。新版本在推理能力、性能效率等方面都有进步,但在技术细节透明度方面仍有待改进。
思科最新研究表明,经过微调的大语言模型正在重塑网络攻击格局。这些模型可以自动化侦察、身份模仿和实时检测规避,加速大规模社会工程攻击。一些专门用于攻击的模型月租低至75美元。研究还发现,微调过程会削弱模型的安全控制,使其更容易被利用。这迫使安全领导者必须重新制定防御策略,将大语言模型视为新的攻击面来加以防护。
Meta发布了Llama 4系列大型语言模型,包括适合单GPU运行的Scout和媲美GPT-4o的Maverick,均拥有170亿参数。更强大的Behemoth模型仍在开发中,将拥有2880亿活跃参数。这些模型采用专家混合系统技术,在性能、效率和安全性方面均有显著提升,体现了Meta推动开源AI成为行业领先力量的战略。
Google 近期加快了 AI 模型的发布节奏,推出了业界领先的 Gemini 2.5 Pro 和 Gemini 2.0 Flash。然而,公司尚未发布这些新模型的安全报告,引发了对透明度的担忧。Google 表示正在权衡快速迭代和获取反馈的方式,承诺未来会发布更多文档,但专家认为这种做法可能会树立不良先例。
Google 推出最新的 Gemini 2.5 Pro (实验版) AI 模型,并以罕见的速度向免费用户开放。该模型支持模拟推理,提高了准确性,并在 LMSYS 聊天机器人竞技场排行榜上名列前茅。免费用户可在网页上试用,但有使用限制,无法上传文件,且有未明确的token和使用次数限制。
Gartner 预测,大语言模型 (LLM) 提供商市场即将进入"灭绝"阶段。在竞争激烈的环境下,巨额资本投入成为主要挑战。预计到 2025 年,全球生成式 AI 支出将达到 6440 亿美元,较 2024 年增长 76%。专家认为,LLM 市场将经历类似云计算市场的整合,最终可能只剩少数几家主导者。
OpenAI计划今年晚些时候向开发者社区发布一个"开放权重"模型,这是该公司自2019年以来的首次尝试。新模型将具备推理能力,类似于现有的o3-mini模型。这一战略转变旨在应对来自竞争对手的压力,同时为开发者提供更多定制和使用灵活性。虽然不完全开源,但这种方式可能有助于OpenAI在保持技术领先的同时,满足市场对更开放AI发展的需求。
Databricks 与 Palantir 签署合作协议,开发出更优的大语言模型微调方法,并与 Anthropic 达成为期五年的战略联盟,将 Claude 大语言模型整合到其数据湖平台中。此次合作将为企业客户提供更强大的 AI 能力,包括军工级安全性、高效的模型训练以及全面的数据治理,助力企业打造专属 AI 应用。
Google 发布新一代 AI 模型 Gemini 2.5,在 LMArena 评测中位居榜首。该模型采用递归分析方法提供输出,在推理、科学、数学和代码生成等方面表现出色。目前已向付费高级用户开放使用,并将在 2025 年投入 750 亿美元用于 AI 开发,以争夺未来万亿规模的 AI 市场。
AI 正在迅速改变我们的工作方式,无论是通过自动化任务、作为副驾驶还是生成文本、图像和软件。虽然目前尚未出现大规模的劳动力替代,但多项研究预测未来几年内 40% 的全球就业岗位可能面临 AI 自动化的冲击。这可能是暴风雨来临前的宁静。
腾讯放缓了GPU部署速度,原因是DeepSeek技术的突破使得现有GPU的生产力大幅提升。公司预计2025年资本支出将占收入的"低teens百分比",远低于微软和亚马逊的支出。腾讯强调效率和GPU服务器的高效利用,认为这不会影响技术开发的最终效果。公司计划在微信中加入AI驱动的搜索、语言输入和内容生成功能,并考虑引入智能AI服务。
Google 发布新一代轻量级开源大语言模型 Gemma 3,提供多种参数规模选择,可在单个 GPU 上运行。该模型基于 Gemini 技术,性能优异,具备多模态能力和大上下文窗口。同时推出 ShieldGemma 2 用于图像安全检查,为开发者提供更多 AI 应用开发选择。
专家链(CoE)是一种新型大语言模型框架,通过顺序激活专门化的模型元素来提高资源效率和推理任务准确性。与传统方法相比,CoE允许专家元素相互传递中间结果,逐步建立推理链,从而在推理密集型应用中实现更高效的计算和更好的用户体验,同时大幅降低企业运行大型语言模型的成本。
微软公司据报道已开发出一系列大型语言模型,可与 OpenAI 和 Anthropic 的算法相媲美。这个名为 MAI 的 LLM 系列可能使用了微软内部开发的 AI 芯片 Maia 100。测试结果显示,MAI 在性能上具有竞争力,可能用于支持微软的 Copilot AI 助手系列。此举或将减少微软对 OpenAI 的依赖,同时公司也在开发专注于推理任务的第二个 LLM 系列。
随着AI技术的发展,企业和个人用户越来越倾向于使用多个AI模型和工具。这一趋势源于单一AI模型难以满足多样化需求,专业化AI可以在特定领域发挥更好的效果。多模型组合不仅可以提高性能和效率,还能避免对单一供应商的依赖。然而,管理和协调多个AI也带来了新的挑战。
图灵公司作为OpenAI等大语言模型公司的重要合作伙伴,刚刚完成1.11亿美元E轮融资,估值翻倍至22亿美元。公司原本专注于远程开发人才招聘,现已转型为AI代码生成服务商,为多家基础AI公司和应用开发商提供支持。图灵拥有400万名全球开发者资源,年化收入达1.67亿美元,已实现盈利。
根据风险投资公司 Andreessen Horowitz 的最新报告,OpenAI 的旗舰 AI 聊天机器人 ChatGPT 在 2024 年下半年实现了强劲增长。ChatGPT 从 2023 年 11 月的 1 亿周活跃用户增长到 2024 年 8 月的 2 亿用户用了 9 个月,而现在仅用不到 6 个月就再次实现了用户数量翻倍。报告还分析了竞争对手的影响,以及 AI 应用在移动端和网页端的排名情况。