目录

torch.cuda

此软件包添加了对 CUDA 张量类型的支持。

它实现了与 CPU 张量相同的功能,但它们使用 GPU 进行计算。

它是懒加载初始化的,所以你可以随时导入它,并使用 is_available() 来确定你的系统是否支持CUDA。

CUDA语义 有关于使用CUDA的更多详细信息。

StreamContext

上下文管理器,用于选择指定的流。

can_device_access_peer

检查两台设备之间的对等访问是否可行。

current_blas_handle

返回当前 cuBLAS 处理句柄的 cublasHandle_t 指针

current_device

返回当前选定设备的索引。

current_stream

返回给定设备当前选择的 Stream

default_stream

返回给定设备的默认 Stream

device

上下文管理器,用于更改选定的设备。

device_count

返回可用的 GPU 数量。

device_of

上下文管理器,可将当前设备更改为给定对象的设备。

get_arch_list

返回此库编译所针对的 CUDA 架构列表。

get_device_capability

获取设备的 CUDA 能力。

get_device_name

获取设备的名称。

get_device_properties

获取设备的属性。

get_gencode_flags

返回此库编译时使用的 NVCC gencode 标志。

get_sync_debug_mode

返回当前用于cuda同步操作的调试模式值。

init

初始化 PyTorch 的 CUDA 状态。

ipc_collect

在 CUDA IPC 释放 GPU 内存后,强制收集该内存。

is_available

返回一个布尔值,指示当前是否可用 CUDA。

is_initialized

返回 PyTorch 的 CUDA 状态是否已初始化。

memory_usage

返回过去采样期内全局(设备)内存被读取或写入的时间百分比,由nvidia-smi给出。

set_device

设置当前设备。

set_stream

设置当前流。这是一个用于设置流的包装 API。

set_sync_debug_mode

设置cuda同步操作的调试模式。

stream

围绕选择给定流的上下文管理器 StreamContext 进行包装。

synchronize

等待设备上所有流中的所有内核完成。

utilization

返回过去采样期内GPU上一个或多个内核处于执行状态的时间百分比,由nvidia-smi给出。

temperature

返回 GPU 传感器的平均温度,单位为摄氏度 (C)。

power_draw

返回GPU传感器的平均功耗,单位为毫瓦(mW)。

clock_rate

返回过去采样期内由nvidia-smi给出的GPU SM的时钟速度(以赫兹为单位)。

OutOfMemoryError

当设备内存不足时引发异常

随机数生成器

get_rng_state

返回指定 GPU 的随机数生成器状态作为字节张量。

get_rng_state_all

返回一个列表,其中包含表示所有设备随机数状态的ByteTensor。

set_rng_state

设置指定GPU的随机数生成器状态。

set_rng_state_all

设置所有设备的随机数生成器状态。

manual_seed

为当前GPU生成随机数设置种子。

manual_seed_all

设置所有 GPU 上生成随机数的种子。

seed

将生成随机数的种子设置为当前 GPU 的一个随机数。

seed_all

在所有 GPU 上将生成随机数的种子设置为一个随机数。

initial_seed

返回当前 GPU 的当前随机种子。

通信集合

comm.broadcast

将张量广播到指定的 GPU 设备。

comm.broadcast_coalesced

将张量序列广播到指定的 GPU 上。

comm.reduce_add

从多个 GPU 上求和张量。

comm.scatter

在多个 GPU 上分配张量。

comm.gather

从多个GPU设备收集张量。

流和事件

Stream

围绕 CUDA 流的包装器。

ExternalStream

围绕外部分配的 CUDA 流的包装器。

Event

围绕 CUDA 事件的包装器。

图表(测试版)

is_current_stream_capturing

如果当前 CUDA 流中正在捕获 CUDA 图形,则返回 True,否则返回 False。

graph_pool_handle

返回一个不透明的令牌,表示图内存池的 ID。

CUDAGraph

CUDA 图形的包装器。

graph

上下文管理器,将CUDA工作捕获到一个torch.cuda.CUDAGraph对象中以便稍后重放。

make_graphed_callables

接受可调用对象(函数或nn.Module)并返回图形版本。

内存管理

empty_cache

释放当前由缓存分配器占用的所有未使用的缓存内存,以便这些内存可以在其他GPU应用程序中使用,并在nvidia-smi中可见。

list_gpu_processes

返回给定设备上正在运行的过程及其 GPU 内存使用的易读打印信息。

mem_get_info

返回给定设备的全局空闲和总 GPU 内存,使用 cudaMemGetInfo。

memory_stats

返回给定设备的 CUDA 内存分配器统计信息字典。

memory_summary

返回给定设备当前内存分配器统计信息的人类可读打印输出。

memory_snapshot

返回所有设备上 CUDA 内存分配器状态的快照。

memory_allocated

返回给定设备上张量当前占用的 GPU 内存字节数。

max_memory_allocated

返回给定设备上张量占用的最大 GPU 内存字节数。

reset_max_memory_allocated

重置给定设备上由张量占用的最大 GPU 内存的跟踪起点。

memory_reserved

返回给定设备上由缓存分配器管理的当前 GPU 内存,单位为字节。

max_memory_reserved

返回给定设备上缓存分配器管理的最大 GPU 内存(以字节为单位)。

set_per_process_memory_fraction

为进程设置内存比例。

memory_cached

已弃用;参见 memory_reserved()

max_memory_cached

已弃用;参见 max_memory_reserved()

reset_max_memory_cached

重置给定设备中由缓存分配器管理的最大 GPU 内存跟踪的起始点。

reset_peak_memory_stats

重置由 CUDA 内存分配器跟踪的“峰值”统计信息。

caching_allocator_alloc

使用 CUDA 内存分配器进行内存分配。

caching_allocator_delete

释放使用 CUDA 内存分配器分配的内存。

get_allocator_backend

返回一个字符串,描述由PYTORCH_CUDA_ALLOC_CONF设置的活动分配器后端。

CUDAPluggableAllocator

从 SO 文件加载的 CUDA 内存分配器。

change_current_allocator

将当前使用的内存分配器更改为提供的分配器。

NVIDIA 工具扩展 (NVTX)

nvtx.mark

描述某个时刻发生的一个瞬间事件。

nvtx.range_push

将一个范围推到嵌套范围跨度的栈上。

nvtx.range_pop

从嵌套范围跨度的栈中弹出一个范围。

nvtx.range

上下文管理器/装饰器,在其作用域开始时推送一个NVTX范围,并在其结束时弹出。

Jiterator (测试版)

jiterator._create_jit_fn

为元素级运算创建一个由 jiterator 生成的 CUDA 内核。

jiterator._create_multi_output_jit_fn

为元素级运算创建一个由 jiterator 生成的 CUDA 内核,支持返回一个或多个输出。

TunableOp

某些操作可以使用多个库或多种技术来实现。例如,GEMM 可以使用 cublas/cublasLt 库或 hipblas/hipblasLt 库分别在 CUDA 或 ROCm 上实现。如何知道哪种实现方式最快并应被选择?这就是 TunableOp 提供的功能。某些操作已被作为可调用操作实现了多种策略。运行时,所有策略都会被分析,选择最快的用于后续的所有操作。

参阅文档以获取如何使用它的信息。

流净化器(原型)

CUDA 诊断工具是一个用于检测 PyTorch 中流之间同步错误的原型工具。 请参阅 文档 以获取如何使用它的信息。

文档

访问 PyTorch 的全面开发人员文档

查看文档

教程

获取面向初学者和高级开发人员的深入教程

查看教程

资源

查找开发资源并解答您的问题

查看资源