Converge Bio完成550万美元种子轮融资,由TLV Partners领投。该公司专为生物科技和制药行业打造LLM应用平台,提供数据增强、模型微调及可解释性分析等功能,帮助企业将通用生物基础模型转化为可实际落地的研发工具。以抗体研究为例,平台可将抗体LLM精调至氨基酸级别的结合亲和力预测,并生成优化序列。公司计划用于扩充团队、拓展客户,并发布抗体设计科研论文。
香港大学与哈尔滨工业大学联合发布的这项研究(arXiv:2605.06196)发现,大语言模型在扮演不同社会层级角色时,内部神经网络存在一条清晰的"粒度轴",从普通个人视角延伸至全球机构视角。这条轴是AI角色空间的主导几何方向,可被测量、被跨模型复现,并通过激活引导技术加以操控,为AI社会模拟的可信度评估和角色视角的主动调控提供了新工具。
ChatGPT高级语音模式的创造者Alexis Conneau离开OpenAI后,创办了音频AI初创公司WaveForms AI,并获得由a16z领投的4000万美元种子轮融资。该公司专注于训练自有音频大语言模型,计划于2025年推出与OpenAI、谷歌竞争的AI音频产品。Conneau深受电影《Her》启发,致力于开发具备情感感知能力的语音AI,同时警惕AI伴侣化带来的社会问题,强调技术应服务于人而非取代人际关系。
华盛顿大学研究团队发现,在AI数学推理训练中,将随机拼凑的拉丁文占位词(Lorem Ipsum)添加到题目前,能帮助AI突破"全部答错、训练停滞"的困境,在多个模型上平均提升推理得分2.8至6.2分。研究揭示了有效扰动的两个关键特征:使用拉丁语词汇避免语义干扰,以及保持较低困惑度确保AI能正确理解题目内容。
随着AI芯片对高带宽内存(HBM)需求持续增长,HBM堆叠层数从2层增至12层并将达16层,硅通孔(TSV)间距不断缩小,导致良率问题日益突出。HBM成本已占AI芯片近半,缺陷堆叠带来巨大损失。业界正积极推动测试环节前移,在晶圆级和堆叠阶段引入多次测试插入,结合MBiST、直接访问总线及MEMS探针技术提升良率。随着HBM4、HBM5到来,功耗与热管理挑战将进一步加剧测试复杂度。
理想汽车提出ReflectDrive-2,一套基于离散扩散的自动驾驶轨迹规划系统。其核心创新是AutoEdit机制:先生成轨迹草稿,再针对纵向速度和横向偏航两类典型错误进行原位字符级修正。通过强化学习对完整"起草+修稿"过程联合优化,AutoEdit在推理时的提升从0.3分放大至1.9分,最终在NAVSIM基准上以纯摄像头输入达到91.0 PDMS,系统延迟31.8ms。
当前绝大多数传感设备产生的数据并未被用于智能决策。传统架构依赖云端计算,但面对海量数据与毫秒级响应需求,这一模式正逐渐失效。边缘AI经过十年发展,已从基础感知进化为具备推理、规划与自主执行能力的智能体系统。结合视觉语言模型与专用神经网络,边缘设备可在本地完成复杂任务协调,兼顾低延迟、低成本与数据合规要求。安防、工业、汽车等行业将率先受益,开发工具生态的完善将是这一转型的关键。
这项由香港中文大学、华为技术有限公司和香港大学联合开展的研究提出了UNIPOOL架构,核心思路是将大语言模型中各层独立的专家组替换为全局共享专家池,配合池级平衡损失和NormRouter调度机制。在五个参数规模的模型上,UNIPOOL稳定优于原版混合专家模型,且仅用41.6%的专家参数即可达到甚至超越原版性能。
人工智能、物联网与机器人技术的深度融合,正推动制造业从被动响应转向主动预测。工厂通过IoT将生产设备、传感器和监控平台整合为统一网络,实现温度、振动、周期时间等数据的实时监测。AI可快速分析海量生产变量,支持预测性维护、库存预测和质量管控。协作机器人则在包装、检测和装配环节承担更多任务。这一转变使制造业更具数据驱动能力与韧性。
南开大学、阿里巴巴集团和吉林大学联合提出CDM(连续时间分布匹配)框架,将扩散模型蒸馏从离散锚点推进到连续时间域。通过动态随机调度和速度场驱动的离轨对齐损失,CDM在4步推理下显著提升了生成图像的细节和视觉保真度,无需GAN或奖励模型辅助,在SD3-Medium和Longcat-Image两个模型上均刷新了少步生成的最优性能。
据彭博社报道,迪士尼正计划将Disney+打造成一款"超级应用",整合旗下多个移动平台,涵盖乐园购票、周边购物、游戏娱乐及影视内容。新任CEO乔什·达马罗表示,Disney+将成为迪士尼与用户关系的核心枢纽,连接线上与线下体验。目前该项目仍处于早期阶段,但公司已在季度财报中明确释放了这一战略方向信号。
卡内基梅隆大学研究团队构建了一套多专家AI自动研究系统,让多个分工明确的AI代理自主完成"提假设→改代码→跑实验→读反馈→再改进"的完整闭环。系统通过共享历史实验记录传递跨角色经验,在1197次正式实验中无需人工干预,分别在语言模型预训练、模型压缩和图像分类速度三个任务上实现了38.7%、0.81%和4.59%的实质性提升,并由外部评测系统独立验证。