目录

torch.backends

torch.backends 控制 PyTorch 支持的各种后端的行为。

这些后端包括:

  • torch.backends.cuda

  • torch.backends.cudnn

  • torch.backends.mkl

  • torch.backends.mkldnn

  • torch.backends.openmp

torch.backends.cuda

torch.backends.cuda.is_built()[来源]

返回 PyTorch 是否使用 CUDA 支持构建。请注意,此 并不一定意味着 CUDA 可用;只是如果这个 PyTorch binary 运行一台具有正常工作 CUDA 驱动程序和设备的机器,我们 将能够使用它。

torch.backends.cuda.matmul.allow_tf32

控制是否可以在矩阵中使用 TensorFloat-32 张量核心的 A Ampere 或更高版本的 GPU 上的乘法。请参阅 Ampere 设备上的 TensorFloat-32(TF32)。

torch.backends.cuda.matmul.allow_fp16_reduced_precision_reduction

A 控制 fp16 GEMM 是否允许降低精度降低(例如,使用 fp16 累积类型)。

torch.backends.cuda.cufft_plan_cache

cufft_plan_cache缓存 cuFFT 计划

size

一个只读,显示当前在 cuFFT 计划缓存中的计划数量。

torch.backends.cuda.max_size

A 控制 cuFFT 计划的缓存容量。

torch.backends.cuda.clear()

清除 cuFFT 计划缓存。

torch.backends.cuda.preferred_linalg_library(backend=None[来源]

警告

此标志是实验性的,可能会发生变化。

当 PyTorch 运行 CUDA 线性代数运算时,它通常使用 cuSOLVER 或 MAGMA 库, 如果两者都可用,它会决定将哪个与 heuristic 一起使用。 此标志 (a ) 允许覆盖这些启发式方法。

  • 如果设置了 “cusolver” ,则将尽可能使用 cuSOLVER 。

  • 如果设置了 “magma”,则将尽可能使用 MAGMA。

  • 如果设置了 “default” (default),则将使用启发式方法在 cuSOLVER 和 MAGMA(如果两者都可用)。

  • 如果未给出 input,则此函数返回当前首选的库。

注意:当首选库时,如果首选库是首选库,则仍可使用其他库 不实现调用的操作。 如果 PyTorch 的启发式库选择不正确,此标志可能会获得更好的性能 以获取应用程序的输入。

当前支持的 linalg 运算符:

torch.backends.cudnn

torch.backends.cudnn.version()[来源]

返回 cuDNN 的版本

torch.backends.cudnn.is_available()[来源]

返回一个布尔值,指示 CUDNN 当前是否可用。

torch.backends.cudnn.enabled

A 控制是否启用 cuDNN。

torch.backends.cudnn.allow_tf32

A 控制 TensorFloat-32 张量核在 cuDNN 中的使用位置 Ampere 或更高版本 GPU 上的卷积。请参阅 Ampere 设备上的 TensorFloat-32(TF32)。

torch.backends.cudnn.deterministic

A 如果为 True,则会导致 cuDNN 仅使用确定性卷积算法。 另请参阅

torch.backends.cudnn.benchmark

A 如果为 True,则会导致 cuDNN 对多个卷积算法进行基准测试 并选择最快的。

torch.backends.mps

torch.backends.mps.is_available()[来源]

返回一个布尔值,指示 MPS 当前是否可用。

torch.backends.mps.is_built()[来源]

返回 PyTorch 是否使用 MPS 支持构建。请注意,此 并不一定意味着 MPS 可用;只是如果这个 PyTorch binary 运行一台带有工作 MPS 驱动程序和设备的机器,我们 将能够使用它。

torch.backends.mkl 中

torch.backends.mkl.is_available()[来源]

返回 PyTorch 是否使用 MKL 支持构建。

torch.backends.mkldnn

torch.backends.mkldnn.is_available()[来源]

返回 PyTorch 是否使用 MKL-DNN 支持构建。

torch.backends.openmp

torch.backends.openmp.is_available()[来源]

返回 PyTorch 是否使用 OpenMP 支持构建。

文档

访问 PyTorch 的全面开发人员文档

查看文档

教程

获取面向初学者和高级开发人员的深入教程

查看教程

资源

查找开发资源并解答您的问题

查看资源