torch.cuda¶
该软件包增加了对 CUDA 张量类型的支待,这些张量类型实现了与 CPU 张量相同的功能,但它们利用 GPU 进行计算。
它是懒加载初始化的,所以你可以随时导入它,并使用
is_available() 来确定你的系统是否支持CUDA。
CUDA语义 有关于使用CUDA的更多详细信息。
上下文管理器,用于选择指定的流。 |
|
检查两个设备之间是否可以进行对等访问。 |
|
返回指向当前 cuBLAS 句柄的 cublasHandle_t 指针 |
|
返回当前所选设备的索引。 |
|
返回给定设备当前选定的 |
|
返回给定设备的默认值 |
|
上下文管理器,用于更改选定的设备。 |
|
返回可用的 GPU 数量。 |
|
上下文管理器,可将当前设备更改为给定对象的设备。 |
|
返回此库编译所针对的 CUDA 架构列表。 |
|
获取设备的 cuda 能力。 |
|
获取设备的名称。 |
|
获取设备的属性。 |
|
返回编译此库时使用的 NVCC gencode 标志。 |
|
返回当前用于 CUDA 同步操作的调试模式的值。 |
|
初始化 PyTorch 的 CUDA 状态。 |
|
在 CUDA IPC 释放 GPU 内存后,强制收集该内存。 |
|
返回一个布尔值,表示当前是否可用 CUDA。 |
|
返回 PyTorch 的 CUDA 状态是否已初始化。 |
|
返回在过去采样期间内,全局(设备)内存被读取或写入的时间百分比。 |
|
设置当前设备。 |
|
设置当前流。这是一个用于设置流的封装 API。 |
|
设置 CUDA 同步操作的调试模式。 |
|
围绕上下文管理器 StreamContext 创建的包装器,用于选择指定的流。 |
|
等待 CUDA 设备上所有流中的所有内核完成。 |
|
返回在过去采样期间内,GPU 上有一个或多个内核正在执行的时间百分比,如 nvidia-smi 所示。 |
|
当 CUDA 内存不足时引发的异常 |
随机数生成器¶
返回指定 GPU 的随机数生成器状态作为 ByteTensor。 |
|
返回一个 ByteTensor 列表,表示所有设备的随机数状态。 |
|
设置指定 GPU 的随机数生成器状态。 |
|
设置所有设备的随机数生成器状态。 |
|
为当前 GPU 设置生成随机数的种子。 |
|
设置所有 GPU 上生成随机数的种子。 |
|
将当前 GPU 生成随机数的种子设置为一个随机数。 |
|
将所有 GPU 上生成随机数的种子设置为一个随机数。 |
|
返回当前 GPU 的当前随机种子。 |
通信集合¶
将张量广播到指定的 GPU 设备。 |
|
将序列张量广播到指定的 GPU 上。 |
|
将来自多个 GPU 的张量求和。 |
|
在多个 GPU 上分配张量。 |
|
从多个GPU设备收集张量。 |
流和事件¶
围绕 CUDA 流的包装器。 |
|
围绕外部分配的 CUDA 流的包装器。 |
|
围绕 CUDA 事件的包装器。 |
图表(测试版)¶
如果当前 CUDA 流正在进行 CUDA 图捕获,则返回 True,否则返回 False。 |
|
返回一个不透明的标记,表示图内存池的 id。 |
|
CUDA 图形的包装器。 |
|
上下文管理器,将CUDA工作捕获到一个 |
|
接受可调用对象(函数或 |
内存管理¶
释放缓存分配器当前持有的所有未被占用的缓存内存,以便这些内存可以被其他 GPU 应用程序使用,并在 nvidia-smi 中可见。 |
|
返回给定设备上运行进程及其 GPU 内存使用情况的人类可读输出。 |
|
使用 cudaMemGetInfo 返回给定设备的全局空闲和总 GPU 内存占用情况。 |
|
返回给定设备的 CUDA 内存分配器统计信息字典。 |
|
返回给定设备当前内存分配器统计信息的人类可读输出。 |
|
返回所有设备上 CUDA 内存分配器状态的快照。 |
|
返回给定设备上张量当前占用的 GPU 内存字节数。 |
|
返回给定设备上张量占用的最大 GPU 内存(以字节为单位)。 |
|
重置跟踪指定设备上张量占用最大 GPU 内存的起始点。 |
|
返回给定设备上由缓存分配器管理的当前 GPU 内存量(以字节为单位)。 |
|
返回给定设备上缓存分配器管理的最大 GPU 内存量(以字节为单位)。 |
|
为进程设置内存比例。 |
|
已弃用;参见 |
|
已弃用;参见 |
|
重置跟踪指定设备上由缓存分配器管理的最大 GPU 内存的起始点。 |
|
重置 CUDA 内存分配器跟踪的“峰值”统计信息。 |
|
使用 CUDA 内存分配器执行内存分配。 |
|
释放使用 CUDA 内存分配器分配的内存。 |
NVIDIA 工具扩展 (NVTX)¶
描述某个时刻发生的一个瞬间事件。 |
|
将一个范围推送到嵌套范围跨度的堆栈上。 |
|
从嵌套范围跨度的堆栈中弹出一个范围。 |
Jiterator (测试版)¶
为元素级运算创建一个由 jiterator 生成的 CUDA 内核。 |
|
为元素级运算创建一个由 jiterator 生成的 CUDA 内核,支持返回一个或多个输出。 |
流净化器(原型)¶
CUDA 诊断工具是一个用于检测 PyTorch 中流之间同步错误的原型工具。 请参阅 文档 以获取如何使用它的信息。