torch.backends¶
torch.backends 控制 PyTorch 支持的各种后端的行为。
这些后端包括:
torch.backends.cuda
torch.backends.cudnn
torch.backends.mkl
torch.backends.mkldnn
torch.backends.openmp
torch.backends.cuda¶
-
torch.backends.cuda.
is_built
()[来源]¶ 返回 PyTorch 是否使用 CUDA 支持构建。请注意,此 并不一定意味着 CUDA 可用;只是如果这个 PyTorch binary 运行一台具有正常工作 CUDA 驱动程序和设备的机器,我们 将能够使用它。
-
torch.backends.cuda.matmul.
allow_tf32
¶ 控制是否可以在矩阵中使用 TensorFloat-32 张量核心的 A
Ampere 或更高版本的 GPU 上的乘法。请参阅 Ampere 设备上的 TensorFloat-32(TF32)。
-
torch.backends.cuda.matmul.
allow_fp16_reduced_precision_reduction
¶
-
torch.backends.cuda.
cufft_plan_cache
¶ cufft_plan_cache
缓存 cuFFT 计划-
size
¶
-
torch.backends.cuda.
max_size
¶
-
torch.backends.cuda.
clear
()¶ 清除 cuFFT 计划缓存。
-
-
torch.backends.cuda.
preferred_linalg_library
(backend=None)[来源]¶ 警告
此标志是实验性的,可能会发生变化。
当 PyTorch 运行 CUDA 线性代数运算时,它通常使用 cuSOLVER 或 MAGMA 库, 如果两者都可用,它会决定将哪个与 heuristic 一起使用。 此标志 (a
) 允许覆盖这些启发式方法。
如果设置了 “cusolver” ,则将尽可能使用 cuSOLVER 。
如果设置了 “magma”,则将尽可能使用 MAGMA。
如果设置了 “default” (default),则将使用启发式方法在 cuSOLVER 和 MAGMA(如果两者都可用)。
如果未给出 input,则此函数返回当前首选的库。
注意:当首选库时,如果首选库是首选库,则仍可使用其他库 不实现调用的操作。 如果 PyTorch 的启发式库选择不正确,此标志可能会获得更好的性能 以获取应用程序的输入。
当前支持的 linalg 运算符:
torch.backends.cudnn¶
-
torch.backends.cudnn.
enabled
¶
-
torch.backends.cudnn.
allow_tf32
¶ A
控制 TensorFloat-32 张量核在 cuDNN 中的使用位置 Ampere 或更高版本 GPU 上的卷积。请参阅 Ampere 设备上的 TensorFloat-32(TF32)。
-
torch.backends.cudnn.
deterministic
¶
-
torch.backends.cudnn.
benchmark
¶