Skip to content

AI & ML 2026-1-21

美团发布LongCat-Flash-Thinking-2601,开源模型工具调用性能达新高;Differential Transformer V2优化序列建模,推动高效推理前沿。

美团 LongCat-Flash-Thinking-2601 发布,工具调用能力登顶开源 SOTA! 94

  • Tags: 大模型 智能体 强化学习 工具调用 推理优化 开源模型

  • Source: Meituan_Tech | 阅读原文

[摘要]
LongCat-Flash-Thinking-2601 通过创新的「重思考」模式与多环境强化学习,实现开源模型在智能体工具调用、搜索及复杂任务泛化上的 SOTA 表现,显著提升推理深度与现实场景适应性。


Differential Transformer V2 85

  • Tags: Transformer 大模型 注意力机制 推理优化 FlashAttention

  • Source: HuggingFace | 阅读原文

[摘要]
Differential Transformer V2通过双倍查询头设计实现高效推理,无需自定义核函数,在保持与标准Transformer相当的解码速度的同时提升算术强度,支持快速部署与训练。