昨日,发分布PyTorch 团队发布 PyTorch 1.7 版本。布支该版本增添了很多新特性,式训如支持 CUDA 11、发分布Windows 分布式训练、布支增加了支持快速傅里叶变换(FFT)的式训新型 API 等。 PyTorch 1.7 版本包含很多新的发分布 API,如支持 NumPy 兼容的布支 FFT 操作、性能分析工具,式训以及对基于分布式数据并行(DDP)和基于远程过程调用(RPC)的发分布分布式训练的重要更新。 此外,布支一些特性也更新为稳定版,式训包括自定义 C++ 类、发分布内存分析器、布支通过自定义类张量对象进行扩展、式训RPC 中的用户异步函数,以及 torch.distributed 中的许多其他特性(如 Per-RPC 超时、DDP dynamic bucketing、RRef helper)。 本次更新的亮点包括: (1) CUDA 11 得到 PyTorch 官方支持; (2) 对 autograd 分析器,高防服务器更新和添加了 RPC、TorchScript 和堆栈跟踪(Stack trace)的分析和性能; (3) (测试版)通过 torch.fft 支持 NumPy 兼容的 FFT 操作; (4) 原型版)支持英伟达 A100 GPU 和原生 TF32 格式; (5) 原型版)支持 Windows 系统上的分布式训练。 (6) torchvision (7) torchaudio (注:从 PyTorch 1.6 版本开始,PyTorch 特性分为 Stable(稳定版)、Beta(测试版)和 Prototype(原型版)。 新特性 PyTorch 1.7 相比之前版本,增加了很多新特性,包括 Python API、C++ API、Autograd、CUDA、量化等多个方面。 例如 Python API 增添了多个新的 namespace、operator 以及 API 扩展,CUDA 增加了 TF32 支持等,量化方面增加了新的量化操作、支持 FP16 量化等。源码库 PyTorch 1.7 部分新特性,详情参见 https://github.com/pytorch/pytorch/releases/tag/v1.7.0。 开发者对 PyTorch 1.7 的态度 有开发者对 PyTorch 1.7「支持 Windows 上的分布式训练」这一新功能表示赞赏: 以及乐见于「PyTorch 对 CUDA 11 的支持」: 依然有人趁机表白 PyTorch,并列出偏好 PyTorch 的原因,如报错易读、代码直观、易于实验。 当然,版本更迭的路似乎永无止境。有开发者提出了自己的需求,例如 fp32 卷积、TensorFlow 有而 PyTorch 没有的 Semantic Versioning: 此时距离 PyTorch 1.6 版本发布仅三个月,不知道 PyTorch 的下一个版本又将带给我们哪些惊喜。 参考链接: 【本文是专栏机构“机器之心”的原创译文,微信公众号“机器之心( id: almosthuman2014)”】 戳这里,看该作者更多好文