最新文章
互联网女皇玛丽·米克尔刚发布了一份340页的《人工智能趋势报告》,这里总结了10个核心观点

互联网女皇玛丽·米克尔刚发布了一份340页的《人工智能趋势报告》,这里总结了10个核心观点

大模型时代,玛丽·米克尔(Mary Meeker)的名字可能大家不一定熟悉,但是在互联网时代,这位被可被誉为“互联网女皇”的。她是美国风险投资家和前华尔街证券分析师,专注于互联网及新兴技术领域。玛丽·米克尔(Mary Meeker)发了一份340页的《人工智能趋势报告》,粗粗看了一下,并没有非常轰动的观点,但是数据比较全面

微软研究院重大突破:更稳定高效的大语言模型强化学习算法—OPO如何解决算法不稳定和计算浪费问题

微软研究院重大突破:更稳定高效的大语言模型强化学习算法—OPO如何解决算法不稳定和计算浪费问题

微软研究院推出的"基于最优奖励基线的在策略强化学习"(OPO)算法解决了大语言模型强化学习中的两大问题:训练不稳定和计算效率低。通过严格遵循在策略训练和引入理论最优奖励基线,OPO无需额外的辅助模型或复杂正则化项,就能实现更稳定的训练。在数学推理基准测试中,OPO不仅表现优异,还保持了更低的策略偏移和更高的输出多样性。这项研究证明,有时最有效的解决方案不是增加复杂性,而是回归基础原则并进行深入的理论思考。

吴恩达LangChain对话:别纠结Agent定义,成功的智能体往往从线性工作流开始,Vibe Coding这个概念充满误导

吴恩达LangChain对话:别纠结Agent定义,成功的智能体往往从线性工作流开始,Vibe Coding这个概念充满误导

毫无疑问,Agent,也就是智能体已经预定了今年的最火AI关键词。不知道明年会不会是AGI呢,既然OpenAI和Anthropic的预测都是在2027年左右。而在Agent领域,非常有发言权的一位就是吴恩达。LangChain前不久的开发者活动Interrupt上,LangChain创始人Harrison Chase邀请了吴恩达专门做了一场对话

SWE-bench直播上线!微软携手上海人工智能实验室推出实时更新的代码修复基准测试

SWE-bench直播上线!微软携手上海人工智能实验室推出实时更新的代码修复基准测试

SWE-bench-Live是微软与上海人工智能实验室联合开发的持续更新基准测试平台,解决了现有代码修复评估工具的数据老化、覆盖有限和人工依赖问题。核心创新是REPOLAUNCH自动化流水线,能从GitHub抓取2024年后的1,319个真实问题,自动配置Docker环境。研究发现最先进的AI代码助手在该平台上的解决率仅为19.25%,远低于静态基准测试表现,尤其在处理多文件修改和大型代码库时存在明显局限。

是否应该为 Google 的 Veo 3 支付 Gemini Ultra 费用来制作 AI 视频?我的体验告诉你答案

是否应该为 Google 的 Veo 3 支付 Gemini Ultra 费用来制作 AI 视频?我的体验告诉你答案

本文评测了 Google 最新 AI 视频生成工具 Veo 3,从音频生成、功能局限、等待时长及费用限制等方面展示其优劣,适合 AI 爱好者体验,但专业创作者可能会感到不便。

Atlas:谷歌研究团队打造的“超级记忆师“,让AI模型记住整个上下文而非单个词

Atlas:谷歌研究团队打造的“超级记忆师“,让AI模型记住整个上下文而非单个词

Google研究团队推出Atlas,一种革命性的AI记忆优化模型,解决传统Transformer架构在处理长文本时的计算复杂度问题。Atlas通过三大创新:超线性容量的记忆模块、基于上下文而非单词的记忆优化、及使用Muon优化器的高效记忆管理,实现了在超长文本(10M)处理中保持80%以上的准确率。研究还提出DeepTransformers架构,作为传统Transformer的严格泛化版本,在语言建模和常识推理任务中展现出色性能。

KO 满血版DeepSeek?AM-Thinking-V1,32B干翻一众千亿级大模型

KO 满血版DeepSeek?AM-Thinking-V1,32B干翻一众千亿级大模型

在千亿模型满天飞,MOE架构正流行的当下,一个在AI领域名不见经传的企业,贝壳找房,发布了一款32B的稠密模型,AM-Thinking- V1。在包括AIME在内的多项AI基准测试中,这款中等参数模型碾压了满血版671B DeepSeek-R1,性能与阿里刚刚发布的Qwen3-235B-A22B持平。

LoRAShop:训练自由的多概念图像生成与编辑突破

LoRAShop:训练自由的多概念图像生成与编辑突破

LoRAShop是弗吉尼亚理工大学研究团队开发的突破性框架,首次实现了无需额外训练的多概念图像编辑。该技术通过在整流流变换器中识别概念特定区域,创建分离的潜在掩码,并仅在相应区域混合LoRA权重,有效解决了"LoRA交叉干扰"问题。实验证明,LoRAShop在身份保留、多主体融合和实时编辑方面优于现有方法,为个性化图像创作开辟了新途径。

字节Seed团队绝地翻盘,发现多模态模型也有涌现时刻,开源BAGEL模型

字节Seed团队绝地翻盘,发现多模态模型也有涌现时刻,开源BAGEL模型

北京时间5月21日,百度发布2025年第一季度财报,这场会议不仅仅是一次常规的财务数据披露,更像是百度在AI时代战略布局的全景展示,李彦宏在开场发言中,将2025年第一季度形容为一个“稳健的开局”。

Fast-dLLM:NVIDIA研究团队通过KV缓存和并行解码实现扩散大语言模型的无训练加速

Fast-dLLM:NVIDIA研究团队通过KV缓存和并行解码实现扩散大语言模型的无训练加速

NVIDIA联合麻省理工学院和香港大学的研究团队提出Fast-dLLM,一种无需重新训练即可显著加速扩散大语言模型的新方法。该技术通过两大创新解决了扩散模型的主要性能瓶颈:首先设计了适用于双向注意力机制的块式近似KV缓存,使模型能重用计算结果;其次提出基于置信度的并行解码策略,只解码超过阈值的高置信度词元。实验证明,Fast-dLLM在保持准确率的同时,能将LLaDA和Dream模型的推理速度提升高达27.6倍,彻底缩小了扩散模型与自回归模型之间的性能差距。

物理世界如何实现AGI?前空中客车CTO红杉访谈:我们的愿景是让AI设计人类无法设计的系统,从星际飞船到戴森球
2025-06-03

物理世界如何实现AGI?前空中客车CTO红杉访谈:我们的愿景是让AI设计人类无法设计的系统,从星际飞船到戴森球

P1.AI创始人保罗·埃雷门科正用合成数据训练AI设计物理系统,从住宅冷却到星际飞船,突破工程AGI的终极瓶颈——数据稀缺。他的AI工程师Archie已能像人类一样处理多物理场任务,目标是让机器设计人类无法想象的复杂系统。

Uni-Instruct:北大与小红书联手打造的统一扩散模型蒸馏框架,一步生成超越教师模型的高质量图像

Uni-Instruct:北大与小红书联手打造的统一扩散模型蒸馏框架,一步生成超越教师模型的高质量图像

北京大学与小红书公司联合研究团队提出的Uni-Instruct框架,成功统一了10多种现有单步扩散蒸馏方法。该框架基于新颖的f-散度扩散扩展理论,通过可计算的等价损失函数训练单步扩散模型。实验表明,Uni-Instruct在CIFAR10和ImageNet 64×64数据集上创造了新的单步生成记录,FID分别达到1.46和1.02,甚至超越了其79步教师模型。研究还成功将该方法应用于文本到3D生成任务,展示了统一框架在提升生成质量和效率方面的巨大潜力。