大型科技公司因反垄断违规、侵犯隐私以及对工人、消费者和竞争造成损害而受到联邦监管机构日益严格的审查。与此同时,两党的立法者都表示支持对科技平台进行监管,认识到目前科技领域还没有一套全面的规则。
Copilot Chat除了支持的传统的文本生成、文件分析(PDF、Word等)、图像生成之外,最大亮点便是支持AI Agent功能,并且集成在了Microsoft 365商业版中,可直接调用企业自有数据,执行夸端到端的超复杂自动化业务流程。
同时开发者对AI Agent自动化行为的可观测性、控制能力、多层级Agent之间的协作有了更高的需求。所以,微软对AutoGen 进行了大更新,发布0.4版本一次性解决所有问题。
OpenAI特别指出,芯片、数据、能源和人才是赢得这场AI竞赛的4大关键元素,而中国受到芯片限制是这4大元素中最弱的环节,也是美国领先的优势。
Cosmos能从数据整合、训练再到定制各个开发阶段的,大规模模拟、构建物理世界的基础模型,同时支持自定义微调。
AGI的核心本质就是将不同的业务流程实现自动化,把人类从枯燥、无意义的业务流程中解放出来,将时间、精力用在商业价值更高的业务上。
目前,Transformer架构的预训练大模型在存储、查询数据时,随着参数的变大对算力的需求呈指数级增长。“记忆层”提出了新的高效查询机制替代了传统的查询方法,通过比较查询键与两个较小集合中的键,可以快速找到最相关的键,而无需遍历模型的整个记忆层。
研究人员在著名开源文生图像模型FLUX进行了实验。结果显示,成功将FLUX的模型量化到1.58位权重,仅用{-1, 0, +1}三种值就能表示而不是更高精度的浮点数。
DeepSeek仅用了280万小时的GPU算力,就训练出了比Llama-3 405B(使用3080万小时GPU)更强的前沿模型,整体成本节省了11倍左右,将算力发挥到了极致。
AGI(通用人工智能)、Agents(智能体)、更好的GPT-4o升级版、更好的记忆存储、更好的上下文窗口、成人模式、深度研究特色功能、更好的Sora、更好的个性化定制。
RVT虽然解决了PerAct的一些功能缺陷,但在处理需要高精度的任务时仍存在困难。所以,英伟达的研究人员在RVT基础之上研发出了第二代,训练效率比第一代快6倍,推理效率快2倍,仅10次示范学习就能执行各种高精度任务。
根据发布的o3测试数据显示,美国AIME数学竞赛中达到了96.7分,大幅度超过了o1预览版的56.7和o1的83.3%,仅错了一道题相当于一名顶级数学家的水平。
偏好微调特别适合那些对回答格式、语气或者抽象特质(如友好度、创造力)有较高要求的应用场合。例如,在构建金融咨询聊天机器人时,开发团队不仅希望模型能够提供专业且准确的财务建议,还期望它能保持友好和易于理解的沟通方式。
ChatGPT还与超级应用WhatsApp完成了集成,同样是这个号码可以直接发短信咨询各种内容,使用方法和web、移动版本一样。
新增的功能包括,实时搜索,OpenAI对搜索的算法进行了深度优化,可在用户提出问题后获取实时内容(分钟级别),包括股票、新闻等;高级语音,在高级语音模式下,用户可以与ChatGPT进行更自然的多轮搜索对话,更像是一位语音搜索管家;
Phi系列模型自今已经发布了5代,Phi-4也延续了之前的小参数模式只有140亿。但在GPQA研究生水平、MATH数学基准中,分别达到了56.1和80.4超过了GPT-4o,同时也超过了同类型的开源模型Qwen 2.5 -14B和Llama-3.3-70B。
现在ChatGPT已经从一个单一的AI对话,演变成一个高效率的协作平台,无论是开发代码、分析文件、搜索新闻都非常方便,成为提升工作效率的利器。
Canvas直接内置在ChatGPT中,提供了一个单独的窗口,主要用于编程、写作任务,会提供意见、审核和执行具体的功能,可以提供更细致的服务。
Sora的核心技术之一便是对Patch的应用。它允许Sora在大量的图像和视频数据上进行密集训练。从每一个存在的视频中剪出的Patch,可以被堆叠起来并输入到模型中。
谷歌DeepMind研究人员则直接把这项技术集成到AI Agent中开发了Talker-Reasoner框架,让其具备“快”、“慢”两种拟人化思考方式。这对于解决复杂、冗长的任务来说帮助巨大,也突破了传统AI Agent执行业务流程的方法,极大提升了效率。