偏好微调特别适合那些对回答格式、语气或者抽象特质(如友好度、创造力)有较高要求的应用场合。例如,在构建金融咨询聊天机器人时,开发团队不仅希望模型能够提供专业且准确的财务建议,还期望它能保持友好和易于理解的沟通方式。
ChatGPT还与超级应用WhatsApp完成了集成,同样是这个号码可以直接发短信咨询各种内容,使用方法和web、移动版本一样。
新增的功能包括,实时搜索,OpenAI对搜索的算法进行了深度优化,可在用户提出问题后获取实时内容(分钟级别),包括股票、新闻等;高级语音,在高级语音模式下,用户可以与ChatGPT进行更自然的多轮搜索对话,更像是一位语音搜索管家;
Phi系列模型自今已经发布了5代,Phi-4也延续了之前的小参数模式只有140亿。但在GPQA研究生水平、MATH数学基准中,分别达到了56.1和80.4超过了GPT-4o,同时也超过了同类型的开源模型Qwen 2.5 -14B和Llama-3.3-70B。
现在ChatGPT已经从一个单一的AI对话,演变成一个高效率的协作平台,无论是开发代码、分析文件、搜索新闻都非常方便,成为提升工作效率的利器。
Canvas直接内置在ChatGPT中,提供了一个单独的窗口,主要用于编程、写作任务,会提供意见、审核和执行具体的功能,可以提供更细致的服务。
Sora的核心技术之一便是对Patch的应用。它允许Sora在大量的图像和视频数据上进行密集训练。从每一个存在的视频中剪出的Patch,可以被堆叠起来并输入到模型中。
谷歌DeepMind研究人员则直接把这项技术集成到AI Agent中开发了Talker-Reasoner框架,让其具备“快”、“慢”两种拟人化思考方式。这对于解决复杂、冗长的任务来说帮助巨大,也突破了传统AI Agent执行业务流程的方法,极大提升了效率。
用反向提纲测试你的逻辑。反向提纲是一种通过识别每个段落的要点来评估文章结构的技术。能一目了然地看懂结构,可以帮助你退后一步并评估思想的逻辑流程。
这个模型的最大特色便是深度思维链推理,尤其是在数学、代码以及各种复杂推理任务上,可以生成数万字的推理流程,让用户深度了解模型生成内容的全过程。
最近OpenAI受到了严重的离职风波影响,首席科学家Ilya Sutskever,首席技术官Mira Murati,安全团队负责人Lilian Weng等高管相继离职。
OpenAI首席执行官Sam Altman公开确认购买了该域名,没有说收购价格。但肯定比之前1100万美元收购的AI.com(也是跳转到ChatGPT)贵很多。
腾讯开源了基于Transformer架构的Hunyuan-Large模型,拥有3890亿参数,优于Meta的LLama3.1 - 405B模型。Hunyuan-Large采用MoE结构,高效训练和推理,支持长达256K上下文。使用了KV缓存压缩技术,减少内存占用。训练数据包括7万亿token,包括高质量合成数据。模型在CommonsenseQA、PIQA、WinoGrande等测试中表现优异。
用户通过自然语言就能获取各种网络信息,例如,帮我看看今天华尔街日报的头条新闻是什么;雅虎体育板块中的NBA热门新闻有哪些;CNBC的热门财经新闻报道了哪些内容,ChatGPT都能快速帮你找到这些并附带原始链接。
微软研究人员开源了纯视觉GUI智能体OmniParser,能够将用户界面截图解析为结构化元素,增强大语言模型如GPT-4V在理解和推理视觉内容方面的能力。OmniParser通过图标检测、图标描述和OCR模块协同工作,生成用户界面的结构化表示,并提升模型在UI识别操作任务中的性能。在多个基准测试中,与OmniParser集成的GPT-4V性能得到显著提升。
目前,很多大模型会出现一本正经胡说八道的问题,例如,你提问NBA历史上得分最多的是谁,它回答是迈克尔乔丹,实际上是勒布朗詹姆斯。包括OpenAI自己发布的GPT-4o、o1-preview、o1mini等前沿模型都有这些“幻觉”难题。
OpenAI宣布ChatGPT新增重磅功能——聊天记录搜索。用户可以快速一键搜索自己的聊天记录,或者从中断的地方继续聊天了。无论你开了多少个聊天页面、这个聊天有多难找,都能通过一键搜索轻松把它找出来。
Sierra AI主要通过OpenAI的GPT-4o、o1等模型打造了一个对话式AI Agent平台,主要聚焦在客户服务领域,可以混合处理文本、语音自动执行超复杂工作流程。包括客服咨询、退订商单、订阅更新等。
专业社区关注大语言模型(LLM)如微软&OpenAI、百度文心一言、讯飞星火的发展。OpenAI计划推出性能远超GPT-4的Orion模型,但首席执行官Sam Altman否认相关消息。网友质疑Sam的辟谣,认为Orion项目的存在已被暗示。微软可能在Azure云上提供Orion服务。Sam的推文和ChatGPT-o1的解读进一步加深了Orion即将发布的猜测。
为了使该模型能在手机、平板、笔记本等移动设备上部署使用,Meta使用了带有LoRA适配器的量化感知训练和SpinQuant进行了大幅度性能优化,平均减少了41%的内存使用、减少56%的模型规模,但推理效率却提升了2—4倍。