目录

torch.Storage

A torch.Storage 是一个连续的、一维的单一数据类型的数组。

每个 torch.Tensor 都有一个对应相同数据类型的存储。

class torch.DoubleStorage(*args, **kwargs)[source]
bfloat16()

将此存储转换为 bfloat16 类型

bool()

将此存储转换为布尔类型

byte()

将此存储转换为字节类型

char()

将此存储转换为字符类型

clone()

返回此存储的副本

complex_double()

将此存储转换为复数双精度类型

complex_float()

将此存储转换为复数浮点类型

copy_()
cpu()

如果此存储不在 CPU 上,则返回其在 CPU 上的副本。

cuda(device=None, non_blocking=False, **kwargs)

返回此对象在CUDA内存中的副本。

如果该对象已经在CUDA内存中并且位于正确的设备上,那么不会执行复制操作,并返回原始对象。

Parameters
  • 设备 (int) – 目标GPU的ID。默认为当前设备。

  • non_blocking (bool) – 如果 True 且源在锁定内存中, 复制将异步于主机。否则, 该参数无效。

  • **kwargs – 为了兼容性,可以包含键 async 代替 non_blocking 参数。

data_ptr()
device
double()

将此存储转换为双精度类型

dtype
element_size()
fill_()
float()

将此存储转换为浮点类型

static from_buffer()
static from_file(filename, shared=False, size=0)Storage

如果 sharedTrue,则所有进程之间共享内存。 所有更改都会写入文件。如果 sharedFalse,则存储中的更改不会影响文件。

size 是存储中的元素数量。如果 sharedFalse, 则文件必须至少包含 size * sizeof(Type) 字节 (Type 是存储类型)。如果 sharedTrue,文件将被 创建(如需要)。

Parameters
  • 文件名 (str) – 要映射的文件名

  • 共享 (布尔值) – 是否共享内存

  • 大小 (int) – 存储中的元素数量

get_device()
half()

将此存储转换为半精度类型

int()

将此存储转换为 int 类型

is_cuda: bool = False
is_pinned()
is_shared()
is_sparse: bool = False
long()

将此存储转换为长整型

new()
pin_memory()

如果存储尚未固定,则将其复制到固定内存中。

resize_()
share_memory_()

将存储移动到共享内存。

对于已经位于共享内存中的存储以及不需要跨进程共享的 CUDA 存储,此操作不会产生任何效果。共享内存中的存储无法调整大小。

返回值: self

short()

将此存储转换为 short 类型

size()
tolist()

返回一个包含此存储元素的列表

type(dtype=None, non_blocking=False, **kwargs)

如果未提供 dtype,则返回类型,否则将此对象转换为指定的类型。

如果已经是正确的类型,则不会执行复制操作,并返回原始对象。

Parameters
  • dtype (类型字符串) – 所需的类型

  • non_blocking (bool) – 如果 True,并且源在固定内存中而目标在GPU上或相反,则复制操作相对于主机是异步执行的。否则,该参数没有效果。

  • **kwargs – 为了兼容性,可能包含键 async 来代替 non_blocking 参数。参数 async 已弃用。

class torch.FloatStorage(*args, **kwargs)[source]
bfloat16()

将此存储转换为 bfloat16 类型

bool()

将此存储转换为布尔类型

byte()

将此存储转换为字节类型

char()

将此存储转换为字符类型

clone()

返回此存储的副本

complex_double()

将此存储转换为复数双精度类型

complex_float()

将此存储转换为复数浮点类型

copy_()
cpu()

如果此存储不在 CPU 上,则返回其在 CPU 上的副本。

cuda(device=None, non_blocking=False, **kwargs)

返回此对象在CUDA内存中的副本。

如果该对象已经在CUDA内存中并且位于正确的设备上,那么不会执行复制操作,并返回原始对象。

Parameters
  • 设备 (int) – 目标GPU的ID。默认为当前设备。

  • non_blocking (bool) – 如果 True 且源在锁定内存中, 复制将异步于主机。否则, 该参数无效。

  • **kwargs – 为了兼容性,可以包含键 async 代替 non_blocking 参数。

data_ptr()
device
double()

将此存储转换为双精度类型

dtype
element_size()
fill_()
float()

将此存储转换为浮点类型

static from_buffer()
static from_file(filename, shared=False, size=0)Storage

如果 sharedTrue,则所有进程之间共享内存。 所有更改都会写入文件。如果 sharedFalse,则存储中的更改不会影响文件。

size 是存储中的元素数量。如果 sharedFalse, 则文件必须至少包含 size * sizeof(Type) 字节 (Type 是存储类型)。如果 sharedTrue,文件将被 创建(如需要)。

Parameters
  • 文件名 (str) – 要映射的文件名

  • 共享 (布尔值) – 是否共享内存

  • 大小 (int) – 存储中的元素数量

get_device()
half()

将此存储转换为半精度类型

int()

将此存储转换为 int 类型

is_cuda: bool = False
is_pinned()
is_shared()
is_sparse: bool = False
long()

将此存储转换为长整型

new()
pin_memory()

如果存储尚未固定,则将其复制到固定内存中。

resize_()
share_memory_()

将存储移动到共享内存。

对于已经位于共享内存中的存储以及不需要跨进程共享的 CUDA 存储,此操作不会产生任何效果。共享内存中的存储无法调整大小。

返回值: self

short()

将此存储转换为 short 类型

size()
tolist()

返回一个包含此存储元素的列表

type(dtype=None, non_blocking=False, **kwargs)

如果未提供 dtype,则返回类型,否则将此对象转换为指定的类型。

如果已经是正确的类型,则不会执行复制操作,并返回原始对象。

Parameters
  • dtype (类型字符串) – 所需的类型

  • non_blocking (bool) – 如果 True,并且源在固定内存中而目标在GPU上或相反,则复制操作相对于主机是异步执行的。否则,该参数没有效果。

  • **kwargs – 为了兼容性,可能包含键 async 来代替 non_blocking 参数。参数 async 已弃用。

class torch.HalfStorage(*args, **kwargs)[source]
bfloat16()

将此存储转换为 bfloat16 类型

bool()

将此存储转换为布尔类型

byte()

将此存储转换为字节类型

char()

将此存储转换为字符类型

clone()

返回此存储的副本

complex_double()

将此存储转换为复数双精度类型

complex_float()

将此存储转换为复数浮点类型

copy_()
cpu()

如果此存储不在 CPU 上,则返回其在 CPU 上的副本。

cuda(device=None, non_blocking=False, **kwargs)

返回此对象在CUDA内存中的副本。

如果该对象已经在CUDA内存中并且位于正确的设备上,那么不会执行复制操作,并返回原始对象。

Parameters
  • 设备 (int) – 目标GPU的ID。默认为当前设备。

  • non_blocking (bool) – 如果 True 且源在锁定内存中, 复制将异步于主机。否则, 该参数无效。

  • **kwargs – 为了兼容性,可以包含键 async 代替 non_blocking 参数。

data_ptr()
device
double()

将此存储转换为双精度类型

dtype
element_size()
fill_()
float()

将此存储转换为浮点类型

static from_buffer()
static from_file()
get_device()
half()

将此存储转换为半精度类型

int()

将此存储转换为 int 类型

is_cuda: bool = False
is_pinned()
is_shared()
is_sparse: bool = False
long()

将此存储转换为长整型

new()
pin_memory()

如果存储尚未固定,则将其复制到固定内存中。

resize_()
share_memory_()

将存储移动到共享内存。

对于已经位于共享内存中的存储以及不需要跨进程共享的 CUDA 存储,此操作不会产生任何效果。共享内存中的存储无法调整大小。

返回值: self

short()

将此存储转换为 short 类型

size()
tolist()

返回一个包含此存储元素的列表

type(dtype=None, non_blocking=False, **kwargs)

如果未提供 dtype,则返回类型,否则将此对象转换为指定的类型。

如果已经是正确的类型,则不会执行复制操作,并返回原始对象。

Parameters
  • dtype (类型字符串) – 所需的类型

  • non_blocking (bool) – 如果 True,并且源在固定内存中而目标在GPU上或相反,则复制操作相对于主机是异步执行的。否则,该参数没有效果。

  • **kwargs – 为了兼容性,可能包含键 async 来代替 non_blocking 参数。参数 async 已弃用。

class torch.LongStorage(*args, **kwargs)[source]
bfloat16()

将此存储转换为 bfloat16 类型

bool()

将此存储转换为布尔类型

byte()

将此存储转换为字节类型

char()

将此存储转换为字符类型

clone()

返回此存储的副本

complex_double()

将此存储转换为复数双精度类型

complex_float()

将此存储转换为复数浮点类型

copy_()
cpu()

如果此存储不在 CPU 上,则返回其在 CPU 上的副本。

cuda(device=None, non_blocking=False, **kwargs)

返回此对象在CUDA内存中的副本。

如果该对象已经在CUDA内存中并且位于正确的设备上,那么不会执行复制操作,并返回原始对象。

Parameters
  • 设备 (int) – 目标GPU的ID。默认为当前设备。

  • non_blocking (bool) – 如果 True 且源在锁定内存中, 复制将异步于主机。否则, 该参数无效。

  • **kwargs – 为了兼容性,可以包含键 async 代替 non_blocking 参数。

data_ptr()
device
double()

将此存储转换为双精度类型

dtype
element_size()
fill_()
float()

将此存储转换为浮点类型

static from_buffer()
static from_file(filename, shared=False, size=0)Storage

如果 sharedTrue,则所有进程之间共享内存。 所有更改都会写入文件。如果 sharedFalse,则存储中的更改不会影响文件。

size 是存储中的元素数量。如果 sharedFalse, 则文件必须至少包含 size * sizeof(Type) 字节 (Type 是存储类型)。如果 sharedTrue,文件将被 创建(如需要)。

Parameters
  • 文件名 (str) – 要映射的文件名

  • 共享 (布尔值) – 是否共享内存

  • 大小 (int) – 存储中的元素数量

get_device()
half()

将此存储转换为半精度类型

int()

将此存储转换为 int 类型

is_cuda: bool = False
is_pinned()
is_shared()
is_sparse: bool = False
long()

将此存储转换为长整型

new()
pin_memory()

如果存储尚未固定,则将其复制到固定内存中。

resize_()
share_memory_()

将存储移动到共享内存。

对于已经位于共享内存中的存储以及不需要跨进程共享的 CUDA 存储,此操作不会产生任何效果。共享内存中的存储无法调整大小。

返回值: self

short()

将此存储转换为 short 类型

size()
tolist()

返回一个包含此存储元素的列表

type(dtype=None, non_blocking=False, **kwargs)

如果未提供 dtype,则返回类型,否则将此对象转换为指定的类型。

如果已经是正确的类型,则不会执行复制操作,并返回原始对象。

Parameters
  • dtype (类型字符串) – 所需的类型

  • non_blocking (bool) – 如果 True,并且源在固定内存中而目标在GPU上或相反,则复制操作相对于主机是异步执行的。否则,该参数没有效果。

  • **kwargs – 为了兼容性,可能包含键 async 来代替 non_blocking 参数。参数 async 已弃用。

class torch.IntStorage(*args, **kwargs)[source]
bfloat16()

将此存储转换为 bfloat16 类型

bool()

将此存储转换为布尔类型

byte()

将此存储转换为字节类型

char()

将此存储转换为字符类型

clone()

返回此存储的副本

complex_double()

将此存储转换为复数双精度类型

complex_float()

将此存储转换为复数浮点类型

copy_()
cpu()

如果此存储不在 CPU 上,则返回其在 CPU 上的副本。

cuda(device=None, non_blocking=False, **kwargs)

返回此对象在CUDA内存中的副本。

如果该对象已经在CUDA内存中并且位于正确的设备上,那么不会执行复制操作,并返回原始对象。

Parameters
  • 设备 (int) – 目标GPU的ID。默认为当前设备。

  • non_blocking (bool) – 如果 True 且源在锁定内存中, 复制将异步于主机。否则, 该参数无效。

  • **kwargs – 为了兼容性,可以包含键 async 代替 non_blocking 参数。

data_ptr()
device
double()

将此存储转换为双精度类型

dtype
element_size()
fill_()
float()

将此存储转换为浮点类型

static from_buffer()
static from_file(filename, shared=False, size=0)Storage

如果 sharedTrue,则所有进程之间共享内存。 所有更改都会写入文件。如果 sharedFalse,则存储中的更改不会影响文件。

size 是存储中的元素数量。如果 sharedFalse, 则文件必须至少包含 size * sizeof(Type) 字节 (Type 是存储类型)。如果 sharedTrue,文件将被 创建(如需要)。

Parameters
  • 文件名 (str) – 要映射的文件名

  • 共享 (布尔值) – 是否共享内存

  • 大小 (int) – 存储中的元素数量

get_device()
half()

将此存储转换为半精度类型

int()

将此存储转换为 int 类型

is_cuda: bool = False
is_pinned()
is_shared()
is_sparse: bool = False
long()

将此存储转换为长整型

new()
pin_memory()

如果存储尚未固定,则将其复制到固定内存中。

resize_()
share_memory_()

将存储移动到共享内存。

对于已经位于共享内存中的存储以及不需要跨进程共享的 CUDA 存储,此操作不会产生任何效果。共享内存中的存储无法调整大小。

返回值: self

short()

将此存储转换为 short 类型

size()
tolist()

返回一个包含此存储元素的列表

type(dtype=None, non_blocking=False, **kwargs)

如果未提供 dtype,则返回类型,否则将此对象转换为指定的类型。

如果已经是正确的类型,则不会执行复制操作,并返回原始对象。

Parameters
  • dtype (类型字符串) – 所需的类型

  • non_blocking (bool) – 如果 True,并且源在固定内存中而目标在GPU上或相反,则复制操作相对于主机是异步执行的。否则,该参数没有效果。

  • **kwargs – 为了兼容性,可能包含键 async 来代替 non_blocking 参数。参数 async 已弃用。

class torch.ShortStorage(*args, **kwargs)[source]
bfloat16()

将此存储转换为 bfloat16 类型

bool()

将此存储转换为布尔类型

byte()

将此存储转换为字节类型

char()

将此存储转换为字符类型

clone()

返回此存储的副本

complex_double()

将此存储转换为复数双精度类型

complex_float()

将此存储转换为复数浮点类型

copy_()
cpu()

如果此存储不在 CPU 上,则返回其在 CPU 上的副本。

cuda(device=None, non_blocking=False, **kwargs)

返回此对象在CUDA内存中的副本。

如果该对象已经在CUDA内存中并且位于正确的设备上,那么不会执行复制操作,并返回原始对象。

Parameters
  • 设备 (int) – 目标GPU的ID。默认为当前设备。

  • non_blocking (bool) – 如果 True 且源在锁定内存中, 复制将异步于主机。否则, 该参数无效。

  • **kwargs – 为了兼容性,可以包含键 async 代替 non_blocking 参数。

data_ptr()
device
double()

将此存储转换为双精度类型

dtype
element_size()
fill_()
float()

将此存储转换为浮点类型

static from_buffer()
static from_file(filename, shared=False, size=0)Storage

如果 sharedTrue,则所有进程之间共享内存。 所有更改都会写入文件。如果 sharedFalse,则存储中的更改不会影响文件。

size 是存储中的元素数量。如果 sharedFalse, 则文件必须至少包含 size * sizeof(Type) 字节 (Type 是存储类型)。如果 sharedTrue,文件将被 创建(如需要)。

Parameters
  • 文件名 (str) – 要映射的文件名

  • 共享 (布尔值) – 是否共享内存

  • 大小 (int) – 存储中的元素数量

get_device()
half()

将此存储转换为半精度类型

int()

将此存储转换为 int 类型

is_cuda: bool = False
is_pinned()
is_shared()
is_sparse: bool = False
long()

将此存储转换为长整型

new()
pin_memory()

如果存储尚未固定,则将其复制到固定内存中。

resize_()
share_memory_()

将存储移动到共享内存。

对于已经位于共享内存中的存储以及不需要跨进程共享的 CUDA 存储,此操作不会产生任何效果。共享内存中的存储无法调整大小。

返回值: self

short()

将此存储转换为 short 类型

size()
tolist()

返回一个包含此存储元素的列表

type(dtype=None, non_blocking=False, **kwargs)

如果未提供 dtype,则返回类型,否则将此对象转换为指定的类型。

如果已经是正确的类型,则不会执行复制操作,并返回原始对象。

Parameters
  • dtype (类型字符串) – 所需的类型

  • non_blocking (bool) – 如果 True,并且源在固定内存中而目标在GPU上或相反,则复制操作相对于主机是异步执行的。否则,该参数没有效果。

  • **kwargs – 为了兼容性,可能包含键 async 来代替 non_blocking 参数。参数 async 已弃用。

class torch.CharStorage(*args, **kwargs)[source]
bfloat16()

将此存储转换为 bfloat16 类型

bool()

将此存储转换为布尔类型

byte()

将此存储转换为字节类型

char()

将此存储转换为字符类型

clone()

返回此存储的副本

complex_double()

将此存储转换为复数双精度类型

complex_float()

将此存储转换为复数浮点类型

copy_()
cpu()

如果此存储不在 CPU 上,则返回其在 CPU 上的副本。

cuda(device=None, non_blocking=False, **kwargs)

返回此对象在CUDA内存中的副本。

如果该对象已经在CUDA内存中并且位于正确的设备上,那么不会执行复制操作,并返回原始对象。

Parameters
  • 设备 (int) – 目标GPU的ID。默认为当前设备。

  • non_blocking (bool) – 如果 True 且源在锁定内存中, 复制将异步于主机。否则, 该参数无效。

  • **kwargs – 为了兼容性,可以包含键 async 代替 non_blocking 参数。

data_ptr()
device
double()

将此存储转换为双精度类型

dtype
element_size()
fill_()
float()

将此存储转换为浮点类型

static from_buffer()
static from_file(filename, shared=False, size=0)Storage

如果 sharedTrue,则所有进程之间共享内存。 所有更改都会写入文件。如果 sharedFalse,则存储中的更改不会影响文件。

size 是存储中的元素数量。如果 sharedFalse, 则文件必须至少包含 size * sizeof(Type) 字节 (Type 是存储类型)。如果 sharedTrue,文件将被 创建(如需要)。

Parameters
  • 文件名 (str) – 要映射的文件名

  • 共享 (布尔值) – 是否共享内存

  • 大小 (int) – 存储中的元素数量

get_device()
half()

将此存储转换为半精度类型

int()

将此存储转换为 int 类型

is_cuda: bool = False
is_pinned()
is_shared()
is_sparse: bool = False
long()

将此存储转换为长整型

new()
pin_memory()

如果存储尚未固定,则将其复制到固定内存中。

resize_()
share_memory_()

将存储移动到共享内存。

对于已经位于共享内存中的存储以及不需要跨进程共享的 CUDA 存储,此操作不会产生任何效果。共享内存中的存储无法调整大小。

返回值: self

short()

将此存储转换为 short 类型

size()
tolist()

返回一个包含此存储元素的列表

type(dtype=None, non_blocking=False, **kwargs)

如果未提供 dtype,则返回类型,否则将此对象转换为指定的类型。

如果已经是正确的类型,则不会执行复制操作,并返回原始对象。

Parameters
  • dtype (类型字符串) – 所需的类型

  • non_blocking (bool) – 如果 True,并且源在固定内存中而目标在GPU上或相反,则复制操作相对于主机是异步执行的。否则,该参数没有效果。

  • **kwargs – 为了兼容性,可能包含键 async 来代替 non_blocking 参数。参数 async 已弃用。

class torch.ByteStorage(*args, **kwargs)[source]
bfloat16()

将此存储转换为 bfloat16 类型

bool()

将此存储转换为布尔类型

byte()

将此存储转换为字节类型

char()

将此存储转换为字符类型

clone()

返回此存储的副本

complex_double()

将此存储转换为复数双精度类型

complex_float()

将此存储转换为复数浮点类型

copy_()
cpu()

如果此存储不在 CPU 上,则返回其在 CPU 上的副本。

cuda(device=None, non_blocking=False, **kwargs)

返回此对象在CUDA内存中的副本。

如果该对象已经在CUDA内存中并且位于正确的设备上,那么不会执行复制操作,并返回原始对象。

Parameters
  • 设备 (int) – 目标GPU的ID。默认为当前设备。

  • non_blocking (bool) – 如果 True 且源在锁定内存中, 复制将异步于主机。否则, 该参数无效。

  • **kwargs – 为了兼容性,可以包含键 async 代替 non_blocking 参数。

data_ptr()
device
double()

将此存储转换为双精度类型

dtype
element_size()
fill_()
float()

将此存储转换为浮点类型

static from_buffer()
static from_file(filename, shared=False, size=0)Storage

如果 sharedTrue,则所有进程之间共享内存。 所有更改都会写入文件。如果 sharedFalse,则存储中的更改不会影响文件。

size 是存储中的元素数量。如果 sharedFalse, 则文件必须至少包含 size * sizeof(Type) 字节 (Type 是存储类型)。如果 sharedTrue,文件将被 创建(如需要)。

Parameters
  • 文件名 (str) – 要映射的文件名

  • 共享 (布尔值) – 是否共享内存

  • 大小 (int) – 存储中的元素数量

get_device()
half()

将此存储转换为半精度类型

int()

将此存储转换为 int 类型

is_cuda: bool = False
is_pinned()
is_shared()
is_sparse: bool = False
long()

将此存储转换为长整型

new()
pin_memory()

如果存储尚未固定,则将其复制到固定内存中。

resize_()
share_memory_()

将存储移动到共享内存。

对于已经位于共享内存中的存储以及不需要跨进程共享的 CUDA 存储,此操作不会产生任何效果。共享内存中的存储无法调整大小。

返回值: self

short()

将此存储转换为 short 类型

size()
tolist()

返回一个包含此存储元素的列表

type(dtype=None, non_blocking=False, **kwargs)

如果未提供 dtype,则返回类型,否则将此对象转换为指定的类型。

如果已经是正确的类型,则不会执行复制操作,并返回原始对象。

Parameters
  • dtype (类型字符串) – 所需的类型

  • non_blocking (bool) – 如果 True,并且源在固定内存中而目标在GPU上或相反,则复制操作相对于主机是异步执行的。否则,该参数没有效果。

  • **kwargs – 为了兼容性,可能包含键 async 来代替 non_blocking 参数。参数 async 已弃用。

class torch.BoolStorage(*args, **kwargs)[source]
bfloat16()

将此存储转换为 bfloat16 类型

bool()

将此存储转换为布尔类型

byte()

将此存储转换为字节类型

char()

将此存储转换为字符类型

clone()

返回此存储的副本

complex_double()

将此存储转换为复数双精度类型

complex_float()

将此存储转换为复数浮点类型

copy_()
cpu()

如果此存储不在 CPU 上,则返回其在 CPU 上的副本。

cuda(device=None, non_blocking=False, **kwargs)

返回此对象在CUDA内存中的副本。

如果该对象已经在CUDA内存中并且位于正确的设备上,那么不会执行复制操作,并返回原始对象。

Parameters
  • 设备 (int) – 目标GPU的ID。默认为当前设备。

  • non_blocking (bool) – 如果 True 且源在锁定内存中, 复制将异步于主机。否则, 该参数无效。

  • **kwargs – 为了兼容性,可以包含键 async 代替 non_blocking 参数。

data_ptr()
device
double()

将此存储转换为双精度类型

dtype
element_size()
fill_()
float()

将此存储转换为浮点类型

static from_buffer()
static from_file(filename, shared=False, size=0)Storage

如果 sharedTrue,则所有进程之间共享内存。 所有更改都会写入文件。如果 sharedFalse,则存储中的更改不会影响文件。

size 是存储中的元素数量。如果 sharedFalse, 则文件必须至少包含 size * sizeof(Type) 字节 (Type 是存储类型)。如果 sharedTrue,文件将被 创建(如需要)。

Parameters
  • 文件名 (str) – 要映射的文件名

  • 共享 (布尔值) – 是否共享内存

  • 大小 (int) – 存储中的元素数量

get_device()
half()

将此存储转换为半精度类型

int()

将此存储转换为 int 类型

is_cuda: bool = False
is_pinned()
is_shared()
is_sparse: bool = False
long()

将此存储转换为长整型

new()
pin_memory()

如果存储尚未固定,则将其复制到固定内存中。

resize_()
share_memory_()

将存储移动到共享内存。

对于已经位于共享内存中的存储以及不需要跨进程共享的 CUDA 存储,此操作不会产生任何效果。共享内存中的存储无法调整大小。

返回值: self

short()

将此存储转换为 short 类型

size()
tolist()

返回一个包含此存储元素的列表

type(dtype=None, non_blocking=False, **kwargs)

如果未提供 dtype,则返回类型,否则将此对象转换为指定的类型。

如果已经是正确的类型,则不会执行复制操作,并返回原始对象。

Parameters
  • dtype (类型字符串) – 所需的类型

  • non_blocking (bool) – 如果 True,并且源在固定内存中而目标在GPU上或相反,则复制操作相对于主机是异步执行的。否则,该参数没有效果。

  • **kwargs – 为了兼容性,可能包含键 async 来代替 non_blocking 参数。参数 async 已弃用。

class torch.BFloat16Storage(*args, **kwargs)[source]
bfloat16()

将此存储转换为 bfloat16 类型

bool()

将此存储转换为布尔类型

byte()

将此存储转换为字节类型

char()

将此存储转换为字符类型

clone()

返回此存储的副本

complex_double()

将此存储转换为复数双精度类型

complex_float()

将此存储转换为复数浮点类型

copy_()
cpu()

如果此存储不在 CPU 上,则返回其在 CPU 上的副本。

cuda(device=None, non_blocking=False, **kwargs)

返回此对象在CUDA内存中的副本。

如果该对象已经在CUDA内存中并且位于正确的设备上,那么不会执行复制操作,并返回原始对象。

Parameters
  • 设备 (int) – 目标GPU的ID。默认为当前设备。

  • non_blocking (bool) – 如果 True 且源在锁定内存中, 复制将异步于主机。否则, 该参数无效。

  • **kwargs – 为了兼容性,可以包含键 async 代替 non_blocking 参数。

data_ptr()
device
double()

将此存储转换为双精度类型

dtype
element_size()
fill_()
float()

将此存储转换为浮点类型

static from_buffer()
static from_file(filename, shared=False, size=0)Storage

如果 sharedTrue,则所有进程之间共享内存。 所有更改都会写入文件。如果 sharedFalse,则存储中的更改不会影响文件。

size 是存储中的元素数量。如果 sharedFalse, 则文件必须至少包含 size * sizeof(Type) 字节 (Type 是存储类型)。如果 sharedTrue,文件将被 创建(如需要)。

Parameters
  • 文件名 (str) – 要映射的文件名

  • 共享 (布尔值) – 是否共享内存

  • 大小 (int) – 存储中的元素数量

get_device()
half()

将此存储转换为半精度类型

int()

将此存储转换为 int 类型

is_cuda: bool = False
is_pinned()
is_shared()
is_sparse: bool = False
long()

将此存储转换为长整型

new()
pin_memory()

如果存储尚未固定,则将其复制到固定内存中。

resize_()
share_memory_()

将存储移动到共享内存。

对于已经位于共享内存中的存储以及不需要跨进程共享的 CUDA 存储,此操作不会产生任何效果。共享内存中的存储无法调整大小。

返回值: self

short()

将此存储转换为 short 类型

size()
tolist()

返回一个包含此存储元素的列表

type(dtype=None, non_blocking=False, **kwargs)

如果未提供 dtype,则返回类型,否则将此对象转换为指定的类型。

如果已经是正确的类型,则不会执行复制操作,并返回原始对象。

Parameters
  • dtype (类型字符串) – 所需的类型

  • non_blocking (bool) – 如果 True,并且源在固定内存中而目标在GPU上或相反,则复制操作相对于主机是异步执行的。否则,该参数没有效果。

  • **kwargs – 为了兼容性,可能包含键 async 来代替 non_blocking 参数。参数 async 已弃用。

class torch.ComplexDoubleStorage(*args, **kwargs)[source]
bfloat16()

将此存储转换为 bfloat16 类型

bool()

将此存储转换为布尔类型

byte()

将此存储转换为字节类型

char()

将此存储转换为字符类型

clone()

返回此存储的副本

complex_double()

将此存储转换为复数双精度类型

complex_float()

将此存储转换为复数浮点类型

copy_()
cpu()

如果此存储不在 CPU 上,则返回其在 CPU 上的副本。

cuda(device=None, non_blocking=False, **kwargs)

返回此对象在CUDA内存中的副本。

如果该对象已经在CUDA内存中并且位于正确的设备上,那么不会执行复制操作,并返回原始对象。

Parameters
  • 设备 (int) – 目标GPU的ID。默认为当前设备。

  • non_blocking (bool) – 如果 True 且源在锁定内存中, 复制将异步于主机。否则, 该参数无效。

  • **kwargs – 为了兼容性,可以包含键 async 代替 non_blocking 参数。

data_ptr()
device
double()

将此存储转换为双精度类型

dtype
element_size()
fill_()
float()

将此存储转换为浮点类型

static from_buffer()
static from_file(filename, shared=False, size=0)Storage

如果 sharedTrue,则所有进程之间共享内存。 所有更改都会写入文件。如果 sharedFalse,则存储中的更改不会影响文件。

size 是存储中的元素数量。如果 sharedFalse, 则文件必须至少包含 size * sizeof(Type) 字节 (Type 是存储类型)。如果 sharedTrue,文件将被 创建(如需要)。

Parameters
  • 文件名 (str) – 要映射的文件名

  • 共享 (布尔值) – 是否共享内存

  • 大小 (int) – 存储中的元素数量

get_device()
half()

将此存储转换为半精度类型

int()

将此存储转换为 int 类型

is_cuda: bool = False
is_pinned()
is_shared()
is_sparse: bool = False
long()

将此存储转换为长整型

new()
pin_memory()

如果存储尚未固定,则将其复制到固定内存中。

resize_()
share_memory_()

将存储移动到共享内存。

对于已经位于共享内存中的存储以及不需要跨进程共享的 CUDA 存储,此操作不会产生任何效果。共享内存中的存储无法调整大小。

返回值: self

short()

将此存储转换为 short 类型

size()
tolist()

返回一个包含此存储元素的列表

type(dtype=None, non_blocking=False, **kwargs)

如果未提供 dtype,则返回类型,否则将此对象转换为指定的类型。

如果已经是正确的类型,则不会执行复制操作,并返回原始对象。

Parameters
  • dtype (类型字符串) – 所需的类型

  • non_blocking (bool) – 如果 True,并且源在固定内存中而目标在GPU上或相反,则复制操作相对于主机是异步执行的。否则,该参数没有效果。

  • **kwargs – 为了兼容性,可能包含键 async 来代替 non_blocking 参数。参数 async 已弃用。

class torch.ComplexFloatStorage(*args, **kwargs)[source]
bfloat16()

将此存储转换为 bfloat16 类型

bool()

将此存储转换为布尔类型

byte()

将此存储转换为字节类型

char()

将此存储转换为字符类型

clone()

返回此存储的副本

complex_double()

将此存储转换为复数双精度类型

complex_float()

将此存储转换为复数浮点类型

copy_()
cpu()

如果此存储不在 CPU 上,则返回其在 CPU 上的副本。

cuda(device=None, non_blocking=False, **kwargs)

返回此对象在CUDA内存中的副本。

如果该对象已经在CUDA内存中并且位于正确的设备上,那么不会执行复制操作,并返回原始对象。

Parameters
  • 设备 (int) – 目标GPU的ID。默认为当前设备。

  • non_blocking (bool) – 如果 True 且源在锁定内存中, 复制将异步于主机。否则, 该参数无效。

  • **kwargs – 为了兼容性,可以包含键 async 代替 non_blocking 参数。

data_ptr()
device
double()

将此存储转换为双精度类型

dtype
element_size()
fill_()
float()

将此存储转换为浮点类型

static from_buffer()
static from_file(filename, shared=False, size=0)Storage

如果 sharedTrue,则所有进程之间共享内存。 所有更改都会写入文件。如果 sharedFalse,则存储中的更改不会影响文件。

size 是存储中的元素数量。如果 sharedFalse, 则文件必须至少包含 size * sizeof(Type) 字节 (Type 是存储类型)。如果 sharedTrue,文件将被 创建(如需要)。

Parameters
  • 文件名 (str) – 要映射的文件名

  • 共享 (布尔值) – 是否共享内存

  • 大小 (int) – 存储中的元素数量

get_device()
half()

将此存储转换为半精度类型

int()

将此存储转换为 int 类型

is_cuda: bool = False
is_pinned()
is_shared()
is_sparse: bool = False
long()

将此存储转换为长整型

new()
pin_memory()

如果存储尚未固定,则将其复制到固定内存中。

resize_()
share_memory_()

将存储移动到共享内存。

对于已经位于共享内存中的存储以及不需要跨进程共享的 CUDA 存储,此操作不会产生任何效果。共享内存中的存储无法调整大小。

返回值: self

short()

将此存储转换为 short 类型

size()
tolist()

返回一个包含此存储元素的列表

type(dtype=None, non_blocking=False, **kwargs)

如果未提供 dtype,则返回类型,否则将此对象转换为指定的类型。

如果已经是正确的类型,则不会执行复制操作,并返回原始对象。

Parameters
  • dtype (类型字符串) – 所需的类型

  • non_blocking (bool) – 如果 True,并且源在固定内存中而目标在GPU上或相反,则复制操作相对于主机是异步执行的。否则,该参数没有效果。

  • **kwargs – 为了兼容性,可能包含键 async 来代替 non_blocking 参数。参数 async 已弃用。

class torch.QUInt8Storage(*args, **kwargs)[source]
bfloat16()

将此存储转换为 bfloat16 类型

bool()

将此存储转换为布尔类型

byte()

将此存储转换为字节类型

char()

将此存储转换为字符类型

clone()

返回此存储的副本

complex_double()

将此存储转换为复数双精度类型

complex_float()

将此存储转换为复数浮点类型

copy_()
cpu()

如果此存储不在 CPU 上,则返回其在 CPU 上的副本。

cuda(device=None, non_blocking=False, **kwargs)

返回此对象在CUDA内存中的副本。

如果该对象已经在CUDA内存中并且位于正确的设备上,那么不会执行复制操作,并返回原始对象。

Parameters
  • 设备 (int) – 目标GPU的ID。默认为当前设备。

  • non_blocking (bool) – 如果 True 且源在锁定内存中, 复制将异步于主机。否则, 该参数无效。

  • **kwargs – 为了兼容性,可以包含键 async 代替 non_blocking 参数。

data_ptr()
device
double()

将此存储转换为双精度类型

dtype
element_size()
fill_()
float()

将此存储转换为浮点类型

static from_buffer()
static from_file()
get_device()
half()

将此存储转换为半精度类型

int()

将此存储转换为 int 类型

is_cuda: bool = False
is_pinned()
is_shared()
is_sparse: bool = False
long()

将此存储转换为长整型

new()
pin_memory()

如果存储尚未固定,则将其复制到固定内存中。

resize_()
share_memory_()

将存储移动到共享内存。

对于已经位于共享内存中的存储以及不需要跨进程共享的 CUDA 存储,此操作不会产生任何效果。共享内存中的存储无法调整大小。

返回值: self

short()

将此存储转换为 short 类型

size()
tolist()

返回一个包含此存储元素的列表

type(dtype=None, non_blocking=False, **kwargs)

如果未提供 dtype,则返回类型,否则将此对象转换为指定的类型。

如果已经是正确的类型,则不会执行复制操作,并返回原始对象。

Parameters
  • dtype (类型字符串) – 所需的类型

  • non_blocking (bool) – 如果 True,并且源在固定内存中而目标在GPU上或相反,则复制操作相对于主机是异步执行的。否则,该参数没有效果。

  • **kwargs – 为了兼容性,可能包含键 async 来代替 non_blocking 参数。参数 async 已弃用。

class torch.QInt8Storage(*args, **kwargs)[source]
bfloat16()

将此存储转换为 bfloat16 类型

bool()

将此存储转换为布尔类型

byte()

将此存储转换为字节类型

char()

将此存储转换为字符类型

clone()

返回此存储的副本

complex_double()

将此存储转换为复数双精度类型

complex_float()

将此存储转换为复数浮点类型

copy_()
cpu()

如果此存储不在 CPU 上,则返回其在 CPU 上的副本。

cuda(device=None, non_blocking=False, **kwargs)

返回此对象在CUDA内存中的副本。

如果该对象已经在CUDA内存中并且位于正确的设备上,那么不会执行复制操作,并返回原始对象。

Parameters
  • 设备 (int) – 目标GPU的ID。默认为当前设备。

  • non_blocking (bool) – 如果 True 且源在锁定内存中, 复制将异步于主机。否则, 该参数无效。

  • **kwargs – 为了兼容性,可以包含键 async 代替 non_blocking 参数。

data_ptr()
device
double()

将此存储转换为双精度类型

dtype
element_size()
fill_()
float()

将此存储转换为浮点类型

static from_buffer()
static from_file()
get_device()
half()

将此存储转换为半精度类型

int()

将此存储转换为 int 类型

is_cuda: bool = False
is_pinned()
is_shared()
is_sparse: bool = False
long()

将此存储转换为长整型

new()
pin_memory()

如果存储尚未固定,则将其复制到固定内存中。

resize_()
share_memory_()

将存储移动到共享内存。

对于已经位于共享内存中的存储以及不需要跨进程共享的 CUDA 存储,此操作不会产生任何效果。共享内存中的存储无法调整大小。

返回值: self

short()

将此存储转换为 short 类型

size()
tolist()

返回一个包含此存储元素的列表

type(dtype=None, non_blocking=False, **kwargs)

如果未提供 dtype,则返回类型,否则将此对象转换为指定的类型。

如果已经是正确的类型,则不会执行复制操作,并返回原始对象。

Parameters
  • dtype (类型字符串) – 所需的类型

  • non_blocking (bool) – 如果 True,并且源在固定内存中而目标在GPU上或相反,则复制操作相对于主机是异步执行的。否则,该参数没有效果。

  • **kwargs – 为了兼容性,可能包含键 async 来代替 non_blocking 参数。参数 async 已弃用。

class torch.QInt32Storage(*args, **kwargs)[source]
bfloat16()

将此存储转换为 bfloat16 类型

bool()

将此存储转换为布尔类型

byte()

将此存储转换为字节类型

char()

将此存储转换为字符类型

clone()

返回此存储的副本

complex_double()

将此存储转换为复数双精度类型

complex_float()

将此存储转换为复数浮点类型

copy_()
cpu()

如果此存储不在 CPU 上,则返回其在 CPU 上的副本。

cuda(device=None, non_blocking=False, **kwargs)

返回此对象在CUDA内存中的副本。

如果该对象已经在CUDA内存中并且位于正确的设备上,那么不会执行复制操作,并返回原始对象。

Parameters
  • 设备 (int) – 目标GPU的ID。默认为当前设备。

  • non_blocking (bool) – 如果 True 且源在锁定内存中, 复制将异步于主机。否则, 该参数无效。

  • **kwargs – 为了兼容性,可以包含键 async 代替 non_blocking 参数。

data_ptr()
device
double()

将此存储转换为双精度类型

dtype
element_size()
fill_()
float()

将此存储转换为浮点类型

static from_buffer()
static from_file()
get_device()
half()

将此存储转换为半精度类型

int()

将此存储转换为 int 类型

is_cuda: bool = False
is_pinned()
is_shared()
is_sparse: bool = False
long()

将此存储转换为长整型

new()
pin_memory()

如果存储尚未固定,则将其复制到固定内存中。

resize_()
share_memory_()

将存储移动到共享内存。

对于已经位于共享内存中的存储以及不需要跨进程共享的 CUDA 存储,此操作不会产生任何效果。共享内存中的存储无法调整大小。

返回值: self

short()

将此存储转换为 short 类型

size()
tolist()

返回一个包含此存储元素的列表

type(dtype=None, non_blocking=False, **kwargs)

如果未提供 dtype,则返回类型,否则将此对象转换为指定的类型。

如果已经是正确的类型,则不会执行复制操作,并返回原始对象。

Parameters
  • dtype (类型字符串) – 所需的类型

  • non_blocking (bool) – 如果 True,并且源在固定内存中而目标在GPU上或相反,则复制操作相对于主机是异步执行的。否则,该参数没有效果。

  • **kwargs – 为了兼容性,可能包含键 async 来代替 non_blocking 参数。参数 async 已弃用。

class torch.QUInt4x2Storage(*args, **kwargs)[source]
bfloat16()

将此存储转换为 bfloat16 类型

bool()

将此存储转换为布尔类型

byte()

将此存储转换为字节类型

char()

将此存储转换为字符类型

clone()

返回此存储的副本

complex_double()

将此存储转换为复数双精度类型

complex_float()

将此存储转换为复数浮点类型

copy_()
cpu()

如果此存储不在 CPU 上,则返回其在 CPU 上的副本。

cuda(device=None, non_blocking=False, **kwargs)

返回此对象在CUDA内存中的副本。

如果该对象已经在CUDA内存中并且位于正确的设备上,那么不会执行复制操作,并返回原始对象。

Parameters
  • 设备 (int) – 目标GPU的ID。默认为当前设备。

  • non_blocking (bool) – 如果 True 且源在锁定内存中, 复制将异步于主机。否则, 该参数无效。

  • **kwargs – 为了兼容性,可以包含键 async 代替 non_blocking 参数。

data_ptr()
device
double()

将此存储转换为双精度类型

dtype
element_size()
fill_()
float()

将此存储转换为浮点类型

static from_buffer()
static from_file()
get_device()
half()

将此存储转换为半精度类型

int()

将此存储转换为 int 类型

is_cuda: bool = False
is_pinned()
is_shared()
is_sparse: bool = False
long()

将此存储转换为长整型

new()
pin_memory()

如果存储尚未固定,则将其复制到固定内存中。

resize_()
share_memory_()

将存储移动到共享内存。

对于已经位于共享内存中的存储以及不需要跨进程共享的 CUDA 存储,此操作不会产生任何效果。共享内存中的存储无法调整大小。

返回值: self

short()

将此存储转换为 short 类型

size()
tolist()

返回一个包含此存储元素的列表

type(dtype=None, non_blocking=False, **kwargs)

如果未提供 dtype,则返回类型,否则将此对象转换为指定的类型。

如果已经是正确的类型,则不会执行复制操作,并返回原始对象。

Parameters
  • dtype (类型字符串) – 所需的类型

  • non_blocking (bool) – 如果 True,并且源在固定内存中而目标在GPU上或相反,则复制操作相对于主机是异步执行的。否则,该参数没有效果。

  • **kwargs – 为了兼容性,可能包含键 async 来代替 non_blocking 参数。参数 async 已弃用。

文档

访问 PyTorch 的全面开发人员文档

查看文档

教程

获取面向初学者和高级开发人员的深入教程

查看教程

资源

查找开发资源并解答您的问题

查看资源