目录

torch.backends

torch.backends 控制 PyTorch 支持的各种后端的行为。

这些后端包括:

  • torch.backends.cuda

  • torch.backends.cudnn

  • torch.backends.mkl

  • torch.backends.mkldnn

  • torch.backends.openmp

torch.backends.cuda

torch.backends.cuda.is_built()[source]

返回 PyTorch 是否以 CUDA 支持构建。请注意,这并不一定意味着 CUDA 是可用的;这只是表示如果在具有正常工作的 CUDA 驱动程序和设备的机器上运行此 PyTorch 二进制文件,我们将能够使用它。

torch.backends.cuda.matmul.allow_tf32

A bool that controls whether TensorFloat-32 tensor cores may be used in matrix multiplications on Ampere or newer GPUs. See TensorFloat-32(TF32) on Ampere devices.

torch.backends.cuda.cufft_plan_cache

cufft_plan_cache 缓存 cuFFT 计划

size

一个只读的 int,用于显示当前在 cuFFT 计划缓存中的计划数量。

max_size

一个 int 用于控制 cuFFT 计划的缓存容量。

clear()

清除 cuFFT 计划缓存。

torch.backends.cudnn

torch.backends.cudnn.version()[source]

返回 cuDNN 的版本

torch.backends.cudnn.is_available()[source]

返回一个布尔值,表示当前是否可用 CUDNN。

torch.backends.cudnn.enabled

一个bool,用于控制是否启用cuDNN。

torch.backends.cudnn.allow_tf32

A bool that controls where TensorFloat-32 tensor cores may be used in cuDNN convolutions on Ampere or newer GPUs. See TensorFloat-32(TF32) on Ampere devices.

torch.backends.cudnn.deterministic

如果为 True,则会导致 cuDNN 只使用确定性的卷积算法的 bool。 另请参见 torch.are_deterministic_algorithms_enabled()torch.use_deterministic_algorithms()

torch.backends.cudnn.benchmark

如果为 bool,则会导致 cuDNN 对多个卷积算法进行基准测试并选择最快的一种。

torch.backends.mkl

torch.backends.mkl.is_available()[source]

返回 PyTorch 是否使用 MKL 支持构建。

torch.backends.mkldnn

torch.backends.mkldnn.is_available()[source]

返回 PyTorch 是否使用 MKL-DNN 支持构建。

torch.backends.openmp

torch.backends.openmp.is_available()[source]

返回 PyTorch 是否使用 OpenMP 支持构建。

文档

访问 PyTorch 的全面开发人员文档

查看文档

教程

获取面向初学者和高级开发人员的深入教程

查看教程

资源

查找开发资源并解答您的问题

查看资源