目录

torch.backends

torch.backends 控制 PyTorch 支持的各种后端的行为。

这些后端包括:

  • torch.backends.cuda

  • torch.backends.cudnn

  • torch.backends.mkl

  • torch.backends.mkldnn

  • torch.backends.openmp

torch.backends.cuda

torch.backends.cuda.is_built()[来源]

返回 PyTorch 是否使用 CUDA 支持构建。请注意,此 并不一定意味着 CUDA 可用;只是如果这个 PyTorch binary 运行一台具有正常工作 CUDA 驱动程序和设备的机器,我们 将能够使用它。

torch.backends.cuda.matmul.allow_tf32

控制是否可以在矩阵中使用 TensorFloat-32 张量核心的 A Ampere 或更高版本的 GPU 上的乘法。请参阅 Ampere 设备上的 TensorFloat-32(TF32)。

torch.backends.cuda.cufft_plan_cache

cufft_plan_cache缓存 cuFFT 计划

size

一个只读,显示当前在 cuFFT 计划缓存中的计划数量。

max_size

A 控制 cuFFT 计划的缓存容量。

clear()

清除 cuFFT 计划缓存。

torch.backends.cudnn

torch.backends.cudnn.version()[来源]

返回 cuDNN 的版本

torch.backends.cudnn.is_available()[来源]

返回一个布尔值,指示 CUDNN 当前是否可用。

torch.backends.cudnn.enabled

A 控制是否启用 cuDNN。

torch.backends.cudnn.allow_tf32

A 控制 TensorFloat-32 张量核在 cuDNN 中的使用位置 Ampere 或更高版本 GPU 上的卷积。请参阅 Ampere 设备上的 TensorFloat-32(TF32)。

torch.backends.cudnn.deterministic

A 如果为 True,则会导致 cuDNN 仅使用确定性卷积算法。 另请参阅

torch.backends.cudnn.benchmark

A 如果为 True,则会导致 cuDNN 对多个卷积算法进行基准测试 并选择最快的。

torch.backends.mkl 中

torch.backends.mkl.is_available()[来源]

返回 PyTorch 是否使用 MKL 支持构建。

torch.backends.mkldnn

torch.backends.mkldnn.is_available()[来源]

返回 PyTorch 是否使用 MKL-DNN 支持构建。

torch.backends.openmp

torch.backends.openmp.is_available()[来源]

返回 PyTorch 是否使用 OpenMP 支持构建。

文档

访问 PyTorch 的全面开发人员文档

查看文档

教程

获取面向初学者和高级开发人员的深入教程

查看教程

资源

查找开发资源并解答您的问题

查看资源