目录

torch.backends

torch.backends 控制 PyTorch 支持的各种后端的行为。

这些后端包括:

  • torch.backends.cuda

  • torch.backends.cudnn

  • torch.backends.mkl

  • torch.backends.mkldnn

  • torch.backends.openmp

torch.backends.cuda

torch.backends.cuda.is_built()[source]

返回 PyTorch 是否以 CUDA 支持构建。请注意,这并不一定意味着 CUDA 是可用的;这只是表示如果在具有正常工作的 CUDA 驱动程序和设备的机器上运行此 PyTorch 二进制文件,我们将能够使用它。

torch.backends.cuda.matmul.allow_tf32

A bool that controls whether TensorFloat-32 tensor cores may be used in matrix multiplications on Ampere or newer GPUs. See TensorFloat-32(TF32) on Ampere devices.

torch.backends.cuda.matmul.allow_fp16_reduced_precision_reduction

一个bool,用于控制是否允许使用fp16精度的归约(例如,具有fp16累加类型的归约)与fp16 GEMM结合。

torch.backends.cuda.cufft_plan_cache

cufft_plan_cache 缓存 cuFFT 计划

size

一个只读的 int,用于显示当前在 cuFFT 计划缓存中的计划数量。

max_size

一个 int 用于控制 cuFFT 计划的缓存容量。

clear()

清除 cuFFT 计划缓存。

torch.backends.cuda.preferred_linalg_library(backend=None)[source]

警告

此标志为实验性质,可能会发生变化。

当 PyTorch 运行一个 CUDA 线性代数操作时,它通常会使用 cuSOLVER 或 MAGMA 库,并且如果两者都可用,它会根据启发式方法决定使用哪个库。此标志(值为 str)允许覆盖这些启发式方法。

  • 如果设置为“cusolver”,则在可能的情况下使用cuSOLVER。

  • 如果设置为“magma”,则在可能的情况下会使用MAGMA。

  • 如果设置为“default”(默认值),则在 cuSOLVER 和 MAGMA 都可用时,将使用启发式方法进行选择。

  • 在没有输入的情况下,此函数返回当前首选的库。

注意:当优先选择某个库时,如果该优先库未实现所需的操作,仍可使用其他库。 此标志在 PyTorch 的启发式库选择对应用程序输入不正确的情况下,可能会获得更好的性能。

当前支持的线性代数运算符:

torch.backends.cudnn

torch.backends.cudnn.version()[source]

返回 cuDNN 的版本

torch.backends.cudnn.is_available()[source]

返回一个布尔值,表示当前是否可用 CUDNN。

torch.backends.cudnn.enabled

一个bool,用于控制是否启用cuDNN。

torch.backends.cudnn.allow_tf32

A bool that controls where TensorFloat-32 tensor cores may be used in cuDNN convolutions on Ampere or newer GPUs. See TensorFloat-32(TF32) on Ampere devices.

torch.backends.cudnn.deterministic

如果为 True,则会导致 cuDNN 只使用确定性的卷积算法的 bool。 另请参见 torch.are_deterministic_algorithms_enabled()torch.use_deterministic_algorithms()

torch.backends.cudnn.benchmark

如果为 bool,则会导致 cuDNN 对多个卷积算法进行基准测试并选择最快的一种。

torch.backends.mkl

torch.backends.mkl.is_available()[source]

返回 PyTorch 是否使用 MKL 支持构建。

torch.backends.mkldnn

torch.backends.mkldnn.is_available()[source]

返回 PyTorch 是否使用 MKL-DNN 支持构建。

torch.backends.openmp

torch.backends.openmp.is_available()[source]

返回 PyTorch 是否使用 OpenMP 支持构建。

文档

访问 PyTorch 的全面开发人员文档

查看文档

教程

获取面向初学者和高级开发人员的深入教程

查看教程

资源

查找开发资源并解答您的问题

查看资源