torch.backends
torch.backends 控制 PyTorch 支持的各种后端的行为。
这些后端包括:
torch.backends.cuda
torch.backends.cudnn
torch.backends.mkl
torch.backends.mkldnn
torch.backends.openmp
torch.backends.cuda
-
torch.backends.cuda.
is_built
()[来源]
返回 PyTorch 是否使用 CUDA 支持构建。请注意,此
并不一定意味着 CUDA 可用;只是如果这个 PyTorch
binary 运行一台具有正常工作 CUDA 驱动程序和设备的机器,我们
将能够使用它。
-
torch.backends.cuda.matmul.
allow_tf32
控制是否可以在矩阵中使用 TensorFloat-32 张量核心的 A
Ampere 或更高版本的 GPU 上的乘法。请参阅 Ampere 设备上的 TensorFloat-32(TF32)。
-
torch.backends.cuda.
cufft_plan_cache
cufft_plan_cache
缓存 cuFFT 计划
-
size
一个只读
,显示当前在 cuFFT 计划缓存中的计划数量。
-
max_size
A
控制 cuFFT 计划的缓存容量。
-
clear
()
清除 cuFFT 计划缓存。
torch.backends.cudnn
-
torch.backends.cudnn.
version
()[来源]
返回 cuDNN 的版本
-
torch.backends.cudnn.
is_available
()[来源]
返回一个布尔值,指示 CUDNN 当前是否可用。
-
torch.backends.cudnn.
enabled
A
控制是否启用 cuDNN。
-
torch.backends.cudnn.
allow_tf32
A
控制 TensorFloat-32 张量核在 cuDNN 中的使用位置
Ampere 或更高版本 GPU 上的卷积。请参阅 Ampere 设备上的 TensorFloat-32(TF32)。
-
torch.backends.cudnn.
deterministic
A
如果为 True,则会导致 cuDNN 仅使用确定性卷积算法。
另请参阅
和
。
-
torch.backends.cudnn.
benchmark
A
如果为 True,则会导致 cuDNN 对多个卷积算法进行基准测试
并选择最快的。
torch.backends.mkl 中
-
torch.backends.mkl.
is_available
()[来源]
返回 PyTorch 是否使用 MKL 支持构建。
torch.backends.mkldnn
-
torch.backends.mkldnn.
is_available
()[来源]
返回 PyTorch 是否使用 MKL-DNN 支持构建。
torch.backends.openmp
-
torch.backends.openmp.
is_available
()[来源]
返回 PyTorch 是否使用 OpenMP 支持构建。