Google 推出 Gemini 2.5 Flash 模型,基于 Gemini 2.5 Pro 代码,但运行更快、成本更低。新模型引入动态思考技术,可根据查询复杂度调整推理深度,提高响应速度并降低成本。Google 还将 Gemini 2.5 Pro 应用于 Deep Research 工具,显著提升了其准确性和实用性。这些进展有望降低生成式 AI 的高昂成本,推动其更广泛应用。
xAI 公司推出了旗舰模型 Grok 3 的 API,提供 Grok 3 和 Grok 3 Mini 两个版本。Grok 3 定价较高,但具有图像分析和问答能力。尽管马斯克此前宣称 Grok 模型不受限制,但实际表现较为中立。xAI 承诺将 Grok 调整为政治中立,但长期影响尚不明确。
Google 推出最新的 Gemini 2.5 Pro (实验版) AI 模型,并以罕见的速度向免费用户开放。该模型支持模拟推理,提高了准确性,并在 LMSYS 聊天机器人竞技场排行榜上名列前茅。免费用户可在网页上试用,但有使用限制,无法上传文件,且有未明确的token和使用次数限制。
OpenAI 推出的 4o 图像生成器引发了一场 AI 动画热潮。这一发展不仅展示了 AI 辅助视觉创作的能力和局限性,还引发了版权问题的讨论。与之前主要聚焦于艺术诠释和风格转换的 Dall.E 模型不同,4o 图像生成器似乎旨在解决特定的专业痛点,尤其是在文本渲染和多图像一致性方面。随着各大 AI 平台开发出各自的专长,这一领域变得日益拥挤,同时也揭示了生成式 AI 的进展和持续挑战。
Databricks 与 Palantir 签署合作协议,开发出更优的大语言模型微调方法,并与 Anthropic 达成为期五年的战略联盟,将 Claude 大语言模型整合到其数据湖平台中。此次合作将为企业客户提供更强大的 AI 能力,包括军工级安全性、高效的模型训练以及全面的数据治理,助力企业打造专属 AI 应用。
开源软件巨头 Red Hat 发布一系列新功能,加强其平台作为企业 AI 系统基础的地位。通过改进 Red Hat AI 套件,包括 Red Hat Enterprise Linux AI 和 OpenShift AI,提供更高效的 AI 训练和推理能力,简化混合云环境下的部署体验,并确保企业数据的安全访问和整合。
本文探讨了是否真正需要追求通用人工智能(AGI)的问题。文章提出了几个观点:AGI可能过于复杂且成本高昂;现有AI技术已经足够强大,我们更需要关注如何整合和应用;AGI可能带来意想不到的风险。作者认为,目前我们应该专注于充分利用现有AI能力,而不是盲目追求AGI。
DeepSeek发布了改进版DeepSeek-V3大语言模型,采用MIT开源许可证。新版本在编程能力上有所提升,可在高端Mac Studio上运行。模型具有671亿参数,但只激活约37亿参数,提高了效率。这一更新标志着DeepSeek在开源AI领域的重要进展,为开发者提供了更多灵活性和应用可能。
在北京参加中国发展高层论坛期间,苹果 CEO Tim Cook 对中国自主研发的 AI 聊天机器人 DeepSeek 给予高度评价。DeepSeek 迅速登顶 App Store 榜首,其性能表现可与全球顶尖模型相媲美。Cook 此行还关注了教育科技应用、清洁能源等多个领域,展现了苹果对中国市场的持续重视。
OpenAI 发布三款全新专有语音模型,包括 gpt-4o-transcribe、gpt-4o-mini-transcribe 和 gpt-4o-mini-tts。这些模型基于 GPT-4o 开发,提供更准确的转录和语音合成能力,支持 100 多种语言,可通过 API 集成到第三方应用中。新模型在英语转录准确率方面表现出色,错误率仅为 2.46%,并支持语音定制和情感表达。
LexisNexis 在开发其 AI 法律助手 Protégé 时,采用了创新的多模型方案。通过精简大语言模型并结合小型模型,他们成功打造出一款能够适应律所工作流程、支持法律文件撰写和校对的智能助手。这种方案不仅提高了响应速度,还降低了运营成本,展现了 AI 在法律科技领域的实用价值。
法国初创公司 Mistral AI 发布开源 AI 模型 Mistral Small 3.1,仅需 240 亿参数即可处理文本和图像,性能超越 OpenAI 和 Google 同类产品。该模型体积小、功能强大,可在普通硬件上运行,有望让 AI 技术更加普及。Mistral AI 专注于算法优化而非简单增加计算资源,其开源策略也助力加速 AI 创新。
Cohere 推出新型大语言模型 Command A,具有高性能且硬件需求低。该模型性能超越 GPT-4o 和 DeepSeek-V3,仅需两块 GPU 即可运行。它拥有更大的上下文窗口,处理速度更快,专为企业级 AI 代理设计,可与 Cohere 的安全 AI 代理平台 North 无缝集成,帮助企业用户充分发挥公司数据潜力。
专家链(CoE)是一种新型大语言模型框架,通过顺序激活专门化的模型元素来提高资源效率和推理任务准确性。与传统方法相比,CoE允许专家元素相互传递中间结果,逐步建立推理链,从而在推理密集型应用中实现更高效的计算和更好的用户体验,同时大幅降低企业运行大型语言模型的成本。
生成式 AI 模型需要大量真实数据训练,但互联网上的内容仍不足以应对所有情况。为继续发展,这些模型需要使用模拟或合成数据进行训练。专家指出,AI 开发者必须负责任地使用合成数据,否则可能会迅速出现问题。合成数据可以教导模型应对现有数据中不存在的场景,但关键是要确保这些数据可靠且符合现实。
微软公司据报道已开发出一系列大型语言模型,可与 OpenAI 和 Anthropic 的算法相媲美。这个名为 MAI 的 LLM 系列可能使用了微软内部开发的 AI 芯片 Maia 100。测试结果显示,MAI 在性能上具有竞争力,可能用于支持微软的 Copilot AI 助手系列。此举或将减少微软对 OpenAI 的依赖,同时公司也在开发专注于推理任务的第二个 LLM 系列。
阿里巴巴旗下的 Qwen 团队推出了 QwQ-32B,这是一款拥有 320 亿参数的推理模型,旨在通过强化学习提升复杂问题解决任务的表现。该模型在 Hugging Face 和 ModelScope 上以开源权重形式发布,适用于商业和研究用途,企业可以立即将其应用于产品和应用程序中。
谷歌今天推出了两项新的人工智能功能,旨在帮助用户更快速地找到信息。第一项是增强版的 AI 概述功能,该功能在标准搜索结果上方显示自然语言响应。谷歌将这一功能切换到最新的 Gemini 2.0 大型语言模型系列。该系列的最强算法 Gemini 2.0 Pro 支持多达 200 万个标记的提示,能够更好地理解复杂查询、生成代码并进行推理。AI 概述功能预计将为美国用户提供更准确的响应。
中国人工智能实验室深度思考发布了其所谓的推理模型DeepSeek-R1的开放版本,声称在某些人工智能基准测试中表现与OpenAI的o1相当。R1在AI开发平台Hugging Face上以MIT许可证提供,意味着可以在商业上无限制使用。深度思考表示,R1在AIME、MATH-500和SWE-bench Verified基准测试中超越了o1。AIME使用其他模型来评估模型的性能,而MATH-500是一个包含文字问题的集合。SWE-bench Verified则专注于编程任务。
领先的 AI 公司正在采用"蒸馏"技术,以创造更便宜、更易采用的 AI 模型。这种技术在 DeepSeek 成功应用后引起广泛关注,引发了硅谷 AI 领导地位的动摇。蒸馏技术通过将大型语言模型的知识转移到小型模型中,实现了高效且经济的 AI 应用。这一突破为初创公司和开发者提供了更多机会,同时也对现有 AI 公司的商业模式构成了挑战。