AI & ML 2026-4-9
AI 领域再突破:LongCat-Flash-Prover 实现严谨数学证明,Monarch 提供超算级 API 支持,Safetensors 加入 PyTorch 基金会,加速模型部署与训练效率。
LongCat-Flash-Prover:AI 攻克数学定理证明,不仅要“算得对”,更要“证得严” 95
Tags:
大模型形式化证明混合专家系统工具集成推理Lean4数学推理Source:
Meituan_Tech| 阅读原文
[摘要]
提出首个面向数学定理证明的混合专家迭代框架,通过自动形式化、草稿生成与证明生成三阶段协同,在仅72次预算下实现MiniF2F-Test 97.1%通过率,推动AI在形式化推理领域达到开源SOTA。
Faster Diffusion on Blackwell: MXFP8 and NVFP4 with Diffusers and TorchAO 92
Tags:
Diffusion ModelsQuantizationNVIDIA BlackwellMXFP8NVFP4TorchAOInference OptimizationSource:
Pytorch_Blog| 阅读原文
[摘要]
提出基于NVIDIA Blackwell架构的MXFP8与NVFP4微缩放量化技术,结合TorchAO与Diffusers实现扩散模型高效推理,显著提升速度并保持视觉质量。
Safetensors is Joining the PyTorch Foundation 92
Tags:
模型格式安全性开源生态PyTorchHugging FaceSource:
HuggingFace| 阅读原文
[摘要]
Safetensors 提出安全、高效、零拷贝的模型权重存储格式,解决 pickle 格式潜在代码执行风险,已成为开源 ML 模型共享的行业标准。
ALTK‑Evolve: On‑the‑Job Learning for AI Agents 92
Tags:
AI AgentsLong-Term MemoryOn-the-Job LearningKnowledge DistillationReinforcement LearningSource:
HuggingFace| 阅读原文
[摘要]
ALTK-Evolve enables AI agents to distill reusable principles from past interactions, improving adaptability and reliability on complex, novel tasks without increasing context size.
SOTA Normalization Performance with torch.compile 88
Tags:
Transformer大模型深度学习优化PyTorchKernel优化Source:
Pytorch_Blog| 阅读原文
[摘要]
通过优化torch.compile在H100/B200上的LayerNorm/RMSNorm内核实现,实现接近SOTA性能,并利用自动融合进一步提速。
Monarch: an API to your supercomputer 87
Tags:
PyTorch分布式训练代理开发RDMA超算编程集群抽象Source:
Pytorch_Blog| 阅读原文
[摘要]
Monarch 是一个基于 PyTorch 的分布式编程框架,通过简洁的 Python API 将超算集群抽象为可直接控制的系统,实现类本地开发体验,支持代理驱动的高效训练开发与调试。