torch.Storage¶
一个torch._TypedStorage是
元素torch.dtype.它可以被赋予任何torch.dtype,内部数据将得到适当的解释。
每个 strangetorch.Tensor包含一个torch._TypedStorage,
它存储了torch.Tensor视图。
为了向后兼容,还有 classes
(如torch.<type>Storagetorch.FloatStorage,torch.IntStorage等)。这些
类实际上并没有被实例化,并且调用它们的构造函数会创建
一个torch._TypedStorage替换为适当的torch.dtype. 类具有所有相同的类方法torch.<type>Storagetorch._TypedStorage有。
此外,为了向后兼容,还有
与默认数据类型对应的 Storage 类
(torch.Storagetorch.get_default_dtype()).例如,如果默认数据类型为 ,则解析为torch.floattorch.Storagetorch.FloatStorage.
- 
class (*args, wrap_storage=None, dtype=None, device=None)[来源]torch._TypedStorage¶
- 
- 
cuda(device=None, non_blocking=False, **kwargs)[来源]¶
- 返回 CUDA 内存中此对象的副本。 - 如果此对象已在 CUDA 内存中并且位于正确的设备上,则 不执行复制,返回原始对象。 
 - 
财产 device¶
 - 
dtype: torch.dtype¶
 - 
类方法(文件名,shared=False,大小=0)→存储[源代码]from_file¶
- 如果 shared 为 True,则内存在所有进程之间共享。 所有更改都将写入文件。如果 shared 为 False,则对 存储不会影响文件。 - size 是存储中的元素数。如果 shared 为 False,则 则文件必须至少包含 size * sizeof(Type) 字节 (Type 是存储的类型)。如果 shared 为 True,则文件将为 如果需要,请创建。 
 - 
财产 is_cuda¶
 - 
is_sparse= 假¶
 - 将存储移动到共享内存。 - 对于共享内存中已有的存储和 CUDA,这是无作 存储,无需移动即可跨进程共享。 共享内存中的存储无法调整大小。 - 返回: self 
 
- 
- 
class (*args, wrap_storage=None, dtype=None, device=None)[来源]torch.DoubleStorage¶
- 
dtype: torch.dtype = torch.float64[来源]¶
 
- 
- 
class (*args, wrap_storage=None, dtype=None, device=None)[来源]torch.FloatStorage¶
- 
dtype: torch.dtype = torch.float32[来源]¶
 
- 
- 
class (*args, wrap_storage=None, dtype=None, device=None)[来源]torch.HalfStorage¶
- 
dtype: torch.dtype = torch.float16[来源]¶
 
- 
- 
class (*args, wrap_storage=None, dtype=None, device=None)[来源]torch.LongStorage¶
- 
dtype: torch.dtype = torch.int64[来源]¶
 
- 
- 
class (*args, wrap_storage=None, dtype=None, device=None)[来源]torch.IntStorage¶
- 
dtype: torch.dtype = torch.int32[来源]¶
 
- 
- 
class (*args, wrap_storage=None, dtype=None, device=None)[来源]torch.ShortStorage¶
- 
dtype: torch.dtype = torch.int16[来源]¶
 
- 
- 
class (*args, wrap_storage=None, dtype=None, device=None)[来源]torch.CharStorage¶
- 
dtype: torch.dtype = torch.int8[来源]¶
 
- 
- 
class (*args, wrap_storage=None, dtype=None, device=None)[来源]torch.ByteStorage¶
- 
dtype: torch.dtype = torch.uint8[来源]¶
 
- 
- 
class (*args, wrap_storage=None, dtype=None, device=None)[来源]torch.BoolStorage¶
- 
dtype: torch.dtype = torch.bool[来源]¶
 
- 
- 
class (*args, wrap_storage=None, dtype=None, device=None)[来源]torch.BFloat16Storage¶
- 
dtype: torch.dtype = torch.bfloat16[来源]¶
 
- 
- 
class (*args, wrap_storage=None, dtype=None, device=None)[来源]torch.ComplexDoubleStorage¶
- 
dtype: torch.dtype = torch.complex128[来源]¶
 
- 
- 
class (*args, wrap_storage=None, dtype=None, device=None)[来源]torch.ComplexFloatStorage¶
- 
dtype: torch.dtype = torch.complex64[来源]¶
 
- 
- 
class (*args, wrap_storage=None, dtype=None, device=None)[来源]torch.QUInt8Storage¶
- 
dtype: torch.dtype = torch.quint8[来源]¶
 
- 
- 
class (*args, wrap_storage=None, dtype=None, device=None)[来源]torch.QInt8Storage¶
- 
dtype: torch.dtype = torch.qint8[来源]¶
 
- 
- 
class (*args, wrap_storage=None, dtype=None, device=None)[来源]torch.QInt32Storage¶
- 
dtype: torch.dtype = torch.qint32[来源]¶
 
- 
- 
class (*args, wrap_storage=None, dtype=None, device=None)[来源]torch.QUInt4x2Storage¶
- 
dtype: torch.dtype = torch.quint4x2[来源]¶
 
- 
- 
class (*args, wrap_storage=None, dtype=None, device=None)[来源]torch.QUInt2x4Storage¶
- 
dtype: torch.dtype = torch.quint2x4[来源]¶
 
-