AI & ML 2026-1-21
美团发布LongCat-Flash-Thinking-2601,开源模型工具调用性能达新高;Differential Transformer V2优化序列建模,推动高效推理前沿。
美团 LongCat-Flash-Thinking-2601 发布,工具调用能力登顶开源 SOTA! 94
Tags:
大模型智能体强化学习工具调用推理优化开源模型Source:
Meituan_Tech| 阅读原文
[摘要]
LongCat-Flash-Thinking-2601 通过创新的「重思考」模式与多环境强化学习,实现开源模型在智能体工具调用、搜索及复杂任务泛化上的 SOTA 表现,显著提升推理深度与现实场景适应性。
Differential Transformer V2 85
Tags:
Transformer大模型注意力机制推理优化FlashAttentionSource:
HuggingFace| 阅读原文
[摘要]
Differential Transformer V2通过双倍查询头设计实现高效推理,无需自定义核函数,在保持与标准Transformer相当的解码速度的同时提升算术强度,支持快速部署与训练。