最新文章
信任、技术、人为因素:网络韧性的基石

信任、技术、人为因素:网络韧性的基石

在技术快速发展的时代,保护关键系统越来越依赖AI、自动化和行为分析。数据显示,2024年95%的数据泄露源于人为错误,64%的网络事件由员工失误造成。虽然先进的网络防御技术不断发展,但人类判断仍是最薄弱环节。网络韧性不仅是技术挑战,更是人员和战略需求。建立真正的韧性需要机器精确性与人类判断力的结合,将信任视为战略基础设施的关键要素,并将网络韧性提升为国家安全的核心组成部分。

南洋理工大学团队推出Uni-MMMU:让AI模型学会“边看边想边画“的全能基准测试

南洋理工大学团队推出Uni-MMMU:让AI模型学会“边看边想边画“的全能基准测试

南洋理工大学团队开发了Uni-MMMU基准测试,专门评估AI模型的理解与生成协同能力。该基准包含八个精心设计的任务,要求AI像人类一样"边看边想边画"来解决复杂问题。研究发现当前AI模型在这种协同任务上表现不平衡,生成能力是主要瓶颈,但协同工作确实能提升问题解决效果,为开发更智能的AI助手指明了方向。

人类主导权应引导AI发展而非存在性恐惧

人类主导权应引导AI发展而非存在性恐惧

自计算机诞生以来,人们就担心机器会背叛创造者。近期AI事件包括数据泄露、自主破坏行为和系统追求错误目标,暴露了当前安全控制的弱点。然而这种结果并非不可避免。AI由人类构建,用我们的数据训练,在我们设计的硬件上运行。人类主导权仍是决定因素,责任仍在我们。

360 AI Research团队重磅发布:让机器真正“看懂“中英文图片的FG-CLIP 2模型

360 AI Research团队重磅发布:让机器真正“看懂“中英文图片的FG-CLIP 2模型

360 AI Research团队发布的FG-CLIP 2是一个突破性的双语精细视觉语言对齐模型,能够同时处理中英文并进行精细的图像理解。该模型通过两阶段训练策略和多目标联合优化,在29个数据集的8类任务中均达到最先进性能,特别创新了文本内模态对比损失机制。团队还构建了首个中文多模态评测基准,填补了该领域空白,为智能商务、安防监控、医疗影像等应用开辟新可能。

Google在Gemini中推出AI图像检测工具:能识别AI生成内容吗?

Google在Gemini中推出AI图像检测工具:能识别AI生成内容吗?

谷歌在Gemini应用中推出新的检测功能,帮助用户识别图像是否由AI生成。该功能可检测谷歌AI模型自动嵌入的SynthID水印,虽然人眼不可见但能被专用工具识别。用户只需将图像上传至Gemini并询问是否为AI生成,系统就会分析并提示。即使没有发现SynthID水印,Gemini也会尝试分析图像中的AI痕迹。不过该功能仅限检测谷歌AI模型生成的内容。

香港大学研究团队发现:两个AI模型的简单融合,竟能创造出比复杂方法更强的推理能力

香港大学研究团队发现:两个AI模型的简单融合,竟能创造出比复杂方法更强的推理能力

香港大学和清华大学研究团队发现,通过最简单的模型插值方法融合"深思型"和"快答型"AI模型,能够创造出比复杂融合算法更优秀的推理系统。研究揭示了融合过程遵循三阶段进化规律,通过精确调节混合比例可以实现推理深度和效率的完美平衡。实验显示这种方法在数学推理、指令跟随等任务上显著超越传统方法,为AI技术的民主化和普及提供了实用方案。

Meta申请电力交易许可以加速AI数据中心电力供应

Meta申请电力交易许可以加速AI数据中心电力供应

为加速新电厂建设以满足数据中心能源需求,Meta正寻求进入电力交易业务。据彭博社报道,Meta和微软均已申请联邦电力交易许可,苹果已获得此类批准。Meta表示,这将允许其对新电厂进行长期购电承诺,同时通过在批发电力市场转售部分电力来降低风险。Meta全球负责人表示,电厂开发商希望看到电力消费者的实际承诺。为支持Meta路易斯安那州数据中心园区运营,至少需要建设三座新的燃气发电厂。

上海AI实验室推出InternVLA-M1:让机器人像人类一样理解空间并精准执行任务

上海AI实验室推出InternVLA-M1:让机器人像人类一样理解空间并精准执行任务

上海AI实验室提出InternVLA-M1框架,通过空间引导的视觉-语言-动作训练,让机器人先学会"在哪里行动"再学"如何行动"。系统采用双阶段训练策略,构建了300万个多模态样本数据集。在多项测试中表现优异,相比基线方法提升10-20%成功率,在真实世界未见物体任务中提升20.6%,为通用智能机器人发展提供了新思路。

研究员破解AI聊天机器人训练数据来源之谜

研究员破解AI聊天机器人训练数据来源之谜

研究人员开发出更有效的方法从大型语言模型中提取记忆内容,可帮助解决监管担忧和版权纠纷。该技术名为RECAP,通过智能反馈循环迭代提取特定内容,包含突破模型拒绝回应的组件。在基准测试中,RECAP在文本提取方面比现有最佳方法提升78%,能从《哈利波特》首部小说中提取约3000段文字。这项研究有助于提高AI模型透明度。

大语言模型秒变预言家:UC圣塔芭芭拉分校让AI一次预测多个词汇的突破性研究

大语言模型秒变预言家:UC圣塔芭芭拉分校让AI一次预测多个词汇的突破性研究

UC圣塔芭芭拉分校研究团队开发出直接多词解码技术(DMTD),通过重用大语言模型的后期层实现一次性生成多个词汇。该技术无需添加额外参数,仅通过重新组织内部处理流程就实现了2倍速度提升,同时保持96%以上的准确性。实验证明技术在大型模型上效果更佳,为AI交互效率提升开辟了新路径。

Brave浏览器AI助手Leo引入可信执行环境增强隐私保护

Brave浏览器AI助手Leo引入可信执行环境增强隐私保护

Brave Software开始为其AI助手Leo提供可信执行环境(TEE)技术,以增强云端AI服务的隐私保护。目前该功能仅在测试版本中支持DeepSeek V3.1模型。TEE技术能为数据处理提供可验证的机密性和完整性保障,解决传统云端AI模型处理用户请求时数据暴露的隐私风险。该技术采用Intel TDX和Nvidia TEE方案,让用户能够验证服务提供商的隐私承诺,确保AI响应来自声明的模型,未来将扩展支持更多AI模型。

清华大学推出NOSA技术:让AI大脑更高效处理长文的秘密武器

清华大学推出NOSA技术:让AI大脑更高效处理长文的秘密武器

清华大学研究团队开发的NOSA技术通过创新的双重选择机制和智能存储管理,解决了大语言模型在处理长文本时的效率瓶颈。该技术将信息选择分为查询感知和查询无关两个组件,显著提高了相邻处理步骤间的信息重叠度,实现了高达2.3倍的处理速度提升,同时保持了近乎无损的模型准确性,为AI系统的高效部署提供了新的解决方案。

邮件订阅