Skip to content

AI & ML 2025-12-19

NVIDIA推出72GB RTX PRO 5000 Blackwell GPU,助力桌面端智能代理AI;PyTorch硬件-软件协同设计提升部署效率,政府与企业联手推进AI基础设施与研发。

Now Generally Available, NVIDIA RTX PRO 5000 72GB Blackwell GPU Expands Memory Options for Desktop Agentic AI 92

  • Tags: GPU硬件 大模型 本地AI开发 Blackwell架构 显存扩展

  • Source: NVIDIA_Blog | 阅读原文

[摘要]
NVIDIA RTX PRO 5000 72GB Blackwell GPU通过72GB GDDR7显存与2,142 TOPS AI算力,显著提升本地化大模型训练、推理与多模态AI代理开发的可行性,解决内存瓶颈问题。


Enabling Cluster Launch Control with TLX 92

  • Tags: GPU优化 持久化内核 动态调度 Triton CLC TLX

  • Source: Pytorch_Blog | 阅读原文

[摘要]
CLC(Cluster Launch Control)通过动态调度实现GPU线程块的异步抢占与负载均衡,结合持久化内核的低开销与非持久化内核的灵活性,提升大规模并行计算效率;TLX则为专家提供底层GPU操作控制能力,支持细粒度优化。


Deploying Smarter: Hardware-Software Co-design in PyTorch 87

  • Tags: 混合精度量化 软硬件协同设计 边缘计算 PyTorch ExecuTorch Arm架构

  • Source: Pytorch_Blog | 阅读原文

[摘要]
提出基于混合精度量化与软硬件协同设计的高效边缘AI部署方案,通过自适应精度分配与可训练量化损失函数,在保持高精度的同时显著压缩模型体积,适配Arm设备高效推理。


NVIDIA, US Government to Boost AI Infrastructure and R&D Investments Through Landmark Genesis Mission 85

  • Tags: 大模型 高性能计算 数字孪生 能源AI 科学发现

  • Source: NVIDIA_Blog | 阅读原文

[摘要]
NVIDIA与美国能源部合作推进Genesis Mission,利用AI、高性能计算与数字孪生技术推动能源、科学与国家安全领域的系统性突破。


Tokenization in Transformers v5: Simpler, Clearer, and More Modular 85

  • Tags: Transformer Tokenization NLP Modular Design Open-Source

  • Source: HuggingFace | 阅读原文

[摘要]
Transformers v5 decouples tokenizer architecture from trained vocabulary, enabling modular, inspectable, and trainable tokenizers—resembling the separation of model architecture and weights in PyTorch.


Deck the Vaults: ‘Fallout: New Vegas’ Joins the Cloud This Holiday Season 0

AI过滤:低价值