Skip to content

AI & ML 2026-4-9

AI 领域再突破:LongCat-Flash-Prover 实现严谨数学证明,Monarch 提供超算级 API 支持,Safetensors 加入 PyTorch 基金会,加速模型部署与训练效率。

LongCat-Flash-Prover:AI 攻克数学定理证明,不仅要“算得对”,更要“证得严” 95

  • Tags: 大模型 形式化证明 混合专家系统 工具集成推理 Lean4 数学推理

  • Source: Meituan_Tech | 阅读原文

[摘要]
提出首个面向数学定理证明的混合专家迭代框架,通过自动形式化、草稿生成与证明生成三阶段协同,在仅72次预算下实现MiniF2F-Test 97.1%通过率,推动AI在形式化推理领域达到开源SOTA。


Faster Diffusion on Blackwell: MXFP8 and NVFP4 with Diffusers and TorchAO 92

  • Tags: Diffusion Models Quantization NVIDIA Blackwell MXFP8 NVFP4 TorchAO Inference Optimization

  • Source: Pytorch_Blog | 阅读原文

[摘要]
提出基于NVIDIA Blackwell架构的MXFP8与NVFP4微缩放量化技术,结合TorchAO与Diffusers实现扩散模型高效推理,显著提升速度并保持视觉质量。


Safetensors is Joining the PyTorch Foundation 92

  • Tags: 模型格式 安全性 开源生态 PyTorch Hugging Face

  • Source: HuggingFace | 阅读原文

[摘要]
Safetensors 提出安全、高效、零拷贝的模型权重存储格式,解决 pickle 格式潜在代码执行风险,已成为开源 ML 模型共享的行业标准。


ALTK‑Evolve: On‑the‑Job Learning for AI Agents 92

  • Tags: AI Agents Long-Term Memory On-the-Job Learning Knowledge Distillation Reinforcement Learning

  • Source: HuggingFace | 阅读原文

[摘要]
ALTK-Evolve enables AI agents to distill reusable principles from past interactions, improving adaptability and reliability on complex, novel tasks without increasing context size.


SOTA Normalization Performance with torch.compile 88

  • Tags: Transformer 大模型 深度学习优化 PyTorch Kernel优化

  • Source: Pytorch_Blog | 阅读原文

[摘要]
通过优化torch.compile在H100/B200上的LayerNorm/RMSNorm内核实现,实现接近SOTA性能,并利用自动融合进一步提速。


Monarch: an API to your supercomputer 87

  • Tags: PyTorch 分布式训练 代理开发 RDMA 超算编程 集群抽象

  • Source: Pytorch_Blog | 阅读原文

[摘要]
Monarch 是一个基于 PyTorch 的分布式编程框架,通过简洁的 Python API 将超算集群抽象为可直接控制的系统,实现类本地开发体验,支持代理驱动的高效训练开发与调试。