Skip to content

AI & ML 2026-2-3

多模态与推理能力持续突破,LongCat-Flash-Thinking-2601展现强泛化潜力;Llama 3.1微调实现高效推理优化;美团2025技术年货重磅发布,智启未来。

多维创新打造强泛化智能体模型,LongCat-Flash-Thinking-2601技术报告发布 94

  • Tags: MoE 强化学习 智能体 多环境训练 抗噪训练 通用人工智能

  • Source: Meituan_Tech | 阅读原文

[摘要]
LongCat-Flash-Thinking-2601通过环境扩展、多环境强化学习与抗噪训练,构建具备强泛化能力的通用智能体模型,实现复杂真实任务中稳定执行。


Unlock Reasoning in Llama 3.1-8B via Full Fine-Tuning on NVIDIA DGX Spark 85

  • Tags: 本地大模型 全量微调 合成数据生成 推理增强 DGX Spark

  • Source: Pytorch_Blog | 阅读原文

[摘要]
通过在本地DGX Spark上对Llama 3.1-8B-Instruct进行全量微调,利用合成思维链数据实现推理能力增强,验证了小规模本地训练的可行性与高效性。


2025美团技术年货,「马」上到来 78

  • Tags: 大模型 开源 AI Coding 技术博客 多模态 产学研合作

  • Source: Meituan_Tech | 阅读原文

[摘要]
美团技术团队汇编过去一年40余篇优质技术文章,涵盖大模型、开源项目、AI Coding与多领域实践,形成500页电子书以共享前沿技术成果。