Tensor.new_tensor
|
返回一个新的 Tensor 作为张量数据。data |
Tensor.new_full
|
返回一个大小为 的 Tensor,其中填充了 。size fill_value |
Tensor.new_empty
|
返回一个大小为填充了未初始化数据的 Tensor。size |
Tensor.new_ones
|
返回一个大小为 的 Tensor,其中填充了 。size 1 |
Tensor.new_zeros
|
返回一个大小为 的 Tensor,其中填充了 。size 0 |
Tensor.is_cuda
|
如果 Tensor 存储在 GPU 上,否则。True False |
Tensor.is_quantized
|
如果 Tensor 被量化,否则。True False |
Tensor.is_meta
|
如果 Tensor 是元张量,否则。True False |
Tensor.device
|
是torch.device 其中 Tensor 所在的位置。 |
Tensor.grad
|
默认情况下,此属性在第一次调用计算 的梯度时变为 Tensor。None backward() self |
Tensor.ndim
|
别名dim() |
Tensor.real
|
返回一个新张量,其中包含复值输入张量的张量的实数值。self |
Tensor.imag
|
返回包含张量的虚数值的新张量。self |
Tensor.abs
|
看torch.abs() |
Tensor.abs_
|
的就地版本abs() |
Tensor.absolute
|
别名abs() |
Tensor.absolute_
|
的就地版本absolute() 别名abs_() |
Tensor.acos
|
看torch.acos() |
Tensor.acos_
|
的就地版本acos() |
Tensor.arccos
|
看torch.arccos() |
Tensor.arccos_
|
的就地版本arccos() |
Tensor.add
|
将标量或张量添加到 tensor。self |
Tensor.add_
|
的就地版本add() |
Tensor.addbmm
|
看torch.addbmm() |
Tensor.addbmm_
|
的就地版本addbmm() |
Tensor.addcdiv
|
看torch.addcdiv() |
Tensor.addcdiv_
|
的就地版本addcdiv() |
Tensor.addcmul
|
看torch.addcmul() |
Tensor.addcmul_
|
的就地版本addcmul() |
Tensor.addmm
|
看torch.addmm() |
Tensor.addmm_
|
的就地版本addmm() |
Tensor.sspaddmm
|
看torch.sspaddmm() |
Tensor.addmv
|
看torch.addmv() |
Tensor.addmv_
|
的就地版本addmv() |
Tensor.addr
|
看torch.addr() |
Tensor.addr_
|
的就地版本addr() |
Tensor.adjoint
|
别名adjoint() |
Tensor.allclose
|
看torch.allclose() |
Tensor.amax
|
看torch.amax() |
Tensor.amin
|
看torch.amin() |
Tensor.aminmax
|
看torch.aminmax() |
Tensor.angle
|
看torch.angle() |
Tensor.apply_
|
将函数应用于张量中的每个元素,将每个元素替换为 返回的值。callable callable |
Tensor.argmax
|
看torch.argmax() |
Tensor.argmin
|
看torch.argmin() |
Tensor.argsort
|
看torch.argsort() |
Tensor.argwhere
|
看torch.argwhere() |
Tensor.asin
|
看torch.asin() |
Tensor.asin_
|
的就地版本asin() |
Tensor.arcsin
|
看torch.arcsin() |
Tensor.arcsin_
|
的就地版本arcsin() |
Tensor.as_strided
|
看torch.as_strided() |
Tensor.atan
|
看torch.atan() |
Tensor.atan_
|
的就地版本atan() |
Tensor.arctan
|
看torch.arctan() |
Tensor.arctan_
|
的就地版本arctan() |
Tensor.atan2
|
看torch.atan2() |
Tensor.atan2_
|
的就地版本atan2() |
Tensor.arctan2
|
看torch.arctan2() |
Tensor.arctan2_
|
atan2_(其他) -> 张量 |
Tensor.all
|
看torch.all() |
Tensor.any
|
看torch.any() |
Tensor.backward
|
计算当前张量的梯度 w.r.t. |
Tensor.baddbmm
|
看torch.baddbmm() |
Tensor.baddbmm_
|
的就地版本baddbmm() |
Tensor.bernoulli
|
返回一个结果张量,其中每个结果[i]独立采样自伯努利(自我[i]). |
Tensor.bernoulli_
|
用独立的样品填充 的每个位置self 伯努利 (p). |
Tensor.bfloat16
|
self.bfloat16() 等效于 。self.to(torch.bfloat16)
|
Tensor.bincount
|
看torch.bincount() |
Tensor.bitwise_not
|
看torch.bitwise_not() |
Tensor.bitwise_not_
|
的就地版本bitwise_not() |
Tensor.bitwise_and
|
看torch.bitwise_and() |
Tensor.bitwise_and_
|
的就地版本bitwise_and() |
Tensor.bitwise_or
|
看torch.bitwise_or() |
Tensor.bitwise_or_
|
的就地版本bitwise_or() |
Tensor.bitwise_xor
|
看torch.bitwise_xor() |
Tensor.bitwise_xor_
|
的就地版本bitwise_xor() |
Tensor.bitwise_left_shift
|
看torch.bitwise_left_shift() |
Tensor.bitwise_left_shift_
|
的就地版本bitwise_left_shift() |
Tensor.bitwise_right_shift
|
看torch.bitwise_right_shift() |
Tensor.bitwise_right_shift_
|
的就地版本bitwise_right_shift() |
Tensor.bmm
|
看torch.bmm() |
Tensor.bool
|
self.bool() 等效于 。self.to(torch.bool)
|
Tensor.byte
|
self.byte() 等效于 。self.to(torch.uint8)
|
Tensor.broadcast_to
|
看torch.broadcast_to() . |
Tensor.cauchy_
|
用从 Cauchy 分布中提取的数字填充张量: |
Tensor.ceil
|
看torch.ceil() |
Tensor.ceil_
|
的就地版本ceil() |
Tensor.char
|
self.char() 等效于 。self.to(torch.int8)
|
Tensor.cholesky
|
看torch.cholesky() |
Tensor.cholesky_inverse
|
看torch.cholesky_inverse() |
Tensor.cholesky_solve
|
看torch.cholesky_solve() |
Tensor.chunk
|
看torch.chunk() |
Tensor.clamp
|
看torch.clamp() |
Tensor.clamp_
|
的就地版本clamp() |
Tensor.clip
|
别名clamp() . |
Tensor.clip_
|
别名clamp_() . |
Tensor.clone
|
看torch.clone() |
Tensor.contiguous
|
返回包含与 tensor 相同数据的 contiguous in memory tensor。self |
Tensor.copy_
|
将元素从 复制到 tensor 中并返回 。src self self |
Tensor.conj
|
看torch.conj() |
Tensor.conj_physical
|
看torch.conj_physical() |
Tensor.conj_physical_
|
的就地版本conj_physical() |
Tensor.resolve_conj
|
看torch.resolve_conj() |
Tensor.resolve_neg
|
看torch.resolve_neg() |
Tensor.copysign
|
看torch.copysign() |
Tensor.copysign_
|
的就地版本copysign() |
Tensor.cos
|
看torch.cos() |
Tensor.cos_
|
的就地版本cos() |
Tensor.cosh
|
看torch.cosh() |
Tensor.cosh_
|
的就地版本cosh() |
Tensor.corrcoef
|
看torch.corrcoef() |
Tensor.count_nonzero
|
看torch.count_nonzero() |
Tensor.cov
|
看torch.cov() |
Tensor.acosh
|
看torch.acosh() |
Tensor.acosh_
|
的就地版本acosh() |
Tensor.arccosh
|
acosh() -> 张量 |
Tensor.arccosh_
|
acosh_() -> 张量 |
Tensor.cpu
|
返回 CPU 内存中此对象的副本。 |
Tensor.cross
|
看torch.cross() |
Tensor.cuda
|
返回 CUDA 内存中此对象的副本。 |
Tensor.logcumsumexp
|
看torch.logcumsumexp() |
Tensor.cummax
|
看torch.cummax() |
Tensor.cummin
|
看torch.cummin() |
Tensor.cumprod
|
看torch.cumprod() |
Tensor.cumprod_
|
的就地版本cumprod() |
Tensor.cumsum
|
看torch.cumsum() |
Tensor.cumsum_
|
的就地版本cumsum() |
Tensor.chalf
|
self.chalf() 等效于 。self.to(torch.complex32)
|
Tensor.cfloat
|
self.cfloat() 等效于 。self.to(torch.complex64)
|
Tensor.cdouble
|
self.cdouble() 等效于 。self.to(torch.complex128)
|
Tensor.data_ptr
|
返回 tensor 的第一个元素的地址。self |
Tensor.deg2rad
|
看torch.deg2rad() |
Tensor.dequantize
|
给定一个量化的 Tensor,对其进行反量化并返回反量化的 float Tensor。 |
Tensor.det
|
看torch.det() |
Tensor.dense_dim
|
返回 sparse tensor 中的密集维度数。self |
Tensor.detach
|
返回与当前图形分离的新 Tensor。 |
Tensor.detach_
|
将 Tensor 与创建它的图形分离,使其成为叶子。 |
Tensor.diag
|
看torch.diag() |
Tensor.diag_embed
|
看torch.diag_embed() |
Tensor.diagflat
|
看torch.diagflat() |
Tensor.diagonal
|
看torch.diagonal() |
Tensor.diagonal_scatter
|
对角线(src, offset=0, dim1=0, dim2=1) -> 张量 |
Tensor.fill_diagonal_
|
填充至少具有 2 维的张量的主对角线。 |
Tensor.fmax
|
看torch.fmax() |
Tensor.fmin
|
看torch.fmin() |
Tensor.diff
|
看torch.diff() |
Tensor.digamma
|
看torch.digamma() |
Tensor.digamma_
|
的就地版本digamma() |
Tensor.dim
|
返回 tensor 的维数。self |
Tensor.dist
|
看torch.dist() |
Tensor.div
|
看torch.div() |
Tensor.div_
|
的就地版本div() |
Tensor.divide
|
看torch.divide() |
Tensor.divide_
|
的就地版本divide() |
Tensor.dot
|
看torch.dot() |
Tensor.double
|
self.double() 等效于 。self.to(torch.float64)
|
Tensor.dsplit
|
看torch.dsplit() |
Tensor.eig
|
看torch.eig() |
Tensor.element_size
|
返回单个元素的大小(以字节为单位)。 |
Tensor.eq
|
看torch.eq() |
Tensor.eq_
|
的就地版本eq() |
Tensor.equal
|
看torch.equal() |
Tensor.erf
|
看torch.erf() |
Tensor.erf_
|
的就地版本erf() |
Tensor.erfc
|
看torch.erfc() |
Tensor.erfc_
|
的就地版本erfc() |
Tensor.erfinv
|
看torch.erfinv() |
Tensor.erfinv_
|
的就地版本erfinv() |
Tensor.exp
|
看torch.exp() |
Tensor.exp_
|
的就地版本exp() |
Tensor.expm1
|
看torch.expm1() |
Tensor.expm1_
|
的就地版本expm1() |
Tensor.expand
|
返回张量的新视图,其中单例维度扩展为更大的大小。self |
Tensor.expand_as
|
将此张量扩展为与 相同的大小。other |
Tensor.exponential_
|
用从指数分布中提取的元素填充张量:self |
Tensor.fix
|
看torch.fix() . |
Tensor.fix_
|
的就地版本fix() |
Tensor.fill_
|
用指定的值填充 tensor。self |
Tensor.flatten
|
看torch.flatten() |
Tensor.flip
|
看torch.flip() |
Tensor.fliplr
|
看torch.fliplr() |
Tensor.flipud
|
看torch.flipud() |
Tensor.float
|
self.float() 等效于 。self.to(torch.float32)
|
Tensor.float_power
|
看torch.float_power() |
Tensor.float_power_
|
的就地版本float_power() |
Tensor.floor
|
看torch.floor() |
Tensor.floor_
|
的就地版本floor() |
Tensor.floor_divide
|
看torch.floor_divide() |
Tensor.floor_divide_
|
的就地版本floor_divide() |
Tensor.fmod
|
看torch.fmod() |
Tensor.fmod_
|
的就地版本fmod() |
Tensor.frac
|
看torch.frac() |
Tensor.frac_
|
的就地版本frac() |
Tensor.frexp
|
看torch.frexp() |
Tensor.gather
|
看torch.gather() |
Tensor.gcd
|
看torch.gcd() |
Tensor.gcd_
|
的就地版本gcd() |
Tensor.ge
|
看torch.ge() . |
Tensor.ge_
|
的就地版本ge() . |
Tensor.greater_equal
|
看torch.greater_equal() . |
Tensor.greater_equal_
|
的就地版本greater_equal() . |
Tensor.geometric_
|
用从几何分布中提取的元素填充张量:self |
Tensor.geqrf
|
看torch.geqrf() |
Tensor.ger
|
看torch.ger() |
Tensor.get_device
|
对于 CUDA 张量,此函数返回张量所在的 GPU 的设备序号。 |
Tensor.gt
|
看torch.gt() . |
Tensor.gt_
|
的就地版本gt() . |
Tensor.greater
|
看torch.greater() . |
Tensor.greater_
|
的就地版本greater() . |
Tensor.half
|
self.half() 等效于 。self.to(torch.float16)
|
Tensor.hardshrink
|
看torch.nn.functional.hardshrink() |
Tensor.heaviside
|
看torch.heaviside() |
Tensor.histc
|
看torch.histc() |
Tensor.histogram
|
看torch.histogram() |
Tensor.hsplit
|
看torch.hsplit() |
Tensor.hypot
|
看torch.hypot() |
Tensor.hypot_
|
的就地版本hypot() |
Tensor.i0
|
看torch.i0() |
Tensor.i0_
|
的就地版本i0() |
Tensor.igamma
|
看torch.igamma() |
Tensor.igamma_
|
的就地版本igamma() |
Tensor.igammac
|
看torch.igammac() |
Tensor.igammac_
|
的就地版本igammac() |
Tensor.index_add_
|
按照 中给出的顺序添加到索引中,将 times 的元素累积到张量中。alpha source self index |
Tensor.index_add
|
的 Out-of-place versiontorch.Tensor.index_add_() . |
Tensor.index_copy_
|
复制 的元素tensor 通过按照 中给定的顺序选择索引,将其放入张量中。self index |
Tensor.index_copy
|
的 Out-of-place versiontorch.Tensor.index_copy_() . |
Tensor.index_fill_
|
通过按照 中给出的顺序选择索引,用 value 填充张量的元素。self value index |
Tensor.index_fill
|
的 Out-of-place versiontorch.Tensor.index_fill_() . |
Tensor.index_put_
|
使用 中指定的索引(这是一个 Tensor 元组)将 tensor 中的值放入 tensor 中。values self indices |
Tensor.index_put
|
的 Out-place 版本index_put_() . |
Tensor.index_reduce_
|
通过使用参数给出的 reduction 给出的顺序累积到索引,将 的元素累积到张量中。source self index reduce |
Tensor.index_reduce
|
|
Tensor.index_select
|
看torch.index_select() |
Tensor.indices
|
返回稀疏 COO 张量的 indices 张量。 |
Tensor.inner
|
看torch.inner() . |
Tensor.int
|
self.int() 等效于 。self.to(torch.int32)
|
Tensor.int_repr
|
给定一个量化的 Tensor,返回一个数据类型为 uint8_t 的 CPU Tensor,用于存储给定 Tensor 的底层 uint8_t 值。self.int_repr() |
Tensor.inverse
|
看torch.inverse() |
Tensor.isclose
|
看torch.isclose() |
Tensor.isfinite
|
看torch.isfinite() |
Tensor.isinf
|
看torch.isinf() |
Tensor.isposinf
|
看torch.isposinf() |
Tensor.isneginf
|
看torch.isneginf() |
Tensor.isnan
|
看torch.isnan() |
Tensor.is_contiguous
|
如果 tensor 在内存中按内存格式指定的顺序连续,则返回 True。self |
Tensor.is_complex
|
如果 的数据类型是复杂数据类型,则返回 True。self |
Tensor.is_conj
|
如果共轭位 设置为 true,则返回 True。self |
Tensor.is_floating_point
|
如果 的数据类型是浮点数据类型,则返回 True。self |
Tensor.is_inference
|
看torch.is_inference() |
Tensor.is_leaf
|
按照约定,所有具有 which is 的 Tensor 都将是叶 Tensor。requires_grad False |
Tensor.is_pinned
|
如果此张量驻留在固定内存中,则返回 true。 |
Tensor.is_set_to
|
如果两个张量都指向完全相同的内存(相同的存储、偏移量、大小和步幅),则返回 True。 |
Tensor.is_shared
|
检查 tensor 是否在共享内存中。 |
Tensor.is_signed
|
如果 的数据类型是有符号数据类型,则返回 True。self |
Tensor.is_sparse
|
如果 Tensor 使用稀疏存储布局,否则。True False |
Tensor.istft
|
看torch.istft() |
Tensor.isreal
|
看torch.isreal() |
Tensor.item
|
将此张量的值作为标准 Python 数字返回。 |
Tensor.kthvalue
|
看torch.kthvalue() |
Tensor.lcm
|
看torch.lcm() |
Tensor.lcm_
|
的就地版本lcm() |
Tensor.ldexp
|
看torch.ldexp() |
Tensor.ldexp_
|
的就地版本ldexp() |
Tensor.le
|
看torch.le() . |
Tensor.le_
|
的就地版本le() . |
Tensor.less_equal
|
看torch.less_equal() . |
Tensor.less_equal_
|
的就地版本less_equal() . |
Tensor.lerp
|
看torch.lerp() |
Tensor.lerp_
|
的就地版本lerp() |
Tensor.lgamma
|
看torch.lgamma() |
Tensor.lgamma_
|
的就地版本lgamma() |
Tensor.log
|
看torch.log() |
Tensor.log_
|
的就地版本log() |
Tensor.logdet
|
看torch.logdet() |
Tensor.log10
|
看torch.log10() |
Tensor.log10_
|
的就地版本log10() |
Tensor.log1p
|
看torch.log1p() |
Tensor.log1p_
|
的就地版本log1p() |
Tensor.log2
|
看torch.log2() |
Tensor.log2_
|
的就地版本log2() |
Tensor.log_normal_
|
用来自对数正态分布的数字样本填充张量,该分布由给定均值参数化self μ和标准差σ. |
Tensor.logaddexp
|
看torch.logaddexp() |
Tensor.logaddexp2
|
看torch.logaddexp2() |
Tensor.logsumexp
|
看torch.logsumexp() |
Tensor.logical_and
|
看torch.logical_and() |
Tensor.logical_and_
|
的就地版本logical_and() |
Tensor.logical_not
|
看torch.logical_not() |
Tensor.logical_not_
|
的就地版本logical_not() |
Tensor.logical_or
|
看torch.logical_or() |
Tensor.logical_or_
|
的就地版本logical_or() |
Tensor.logical_xor
|
看torch.logical_xor() |
Tensor.logical_xor_
|
的就地版本logical_xor() |
Tensor.logit
|
看torch.logit() |
Tensor.logit_
|
的就地版本logit() |
Tensor.long
|
self.long() 等效于 。self.to(torch.int64)
|
Tensor.lstsq
|
看torch.lstsq() |
Tensor.lt
|
看torch.lt() . |
Tensor.lt_
|
的就地版本lt() . |
Tensor.less
|
lt(other) -> 张量 |
Tensor.less_
|
的就地版本less() . |
Tensor.lu
|
看torch.lu() |
Tensor.lu_solve
|
看torch.lu_solve() |
Tensor.as_subclass
|
创建具有与 相同的数据指针的实例。cls self |
Tensor.map_
|
适用于 tensor 中的每个元素和给定的callable self tensor 并将结果存储在 Tensor 中。self |
Tensor.masked_scatter_
|
将元素从 复制到 tensor 中 为 True 的位置。source self mask |
Tensor.masked_scatter
|
的 Out-of-place versiontorch.Tensor.masked_scatter_() |
Tensor.masked_fill_
|
用 where 为 True 填充 tensor 的元素。self value mask |
Tensor.masked_fill
|
的 Out-of-place versiontorch.Tensor.masked_fill_() |
Tensor.masked_select
|
看torch.masked_select() |
Tensor.matmul
|
看torch.matmul() |
Tensor.matrix_power
|
|
Tensor.matrix_exp
|
看torch.matrix_exp() |
Tensor.max
|
看torch.max() |
Tensor.maximum
|
看torch.maximum() |
Tensor.mean
|
看torch.mean() |
Tensor.nanmean
|
看torch.nanmean() |
Tensor.median
|
看torch.median() |
Tensor.nanmedian
|
看torch.nanmedian() |
Tensor.min
|
看torch.min() |
Tensor.minimum
|
看torch.minimum() |
Tensor.mm
|
看torch.mm() |
Tensor.smm
|
看torch.smm() |
Tensor.mode
|
看torch.mode() |
Tensor.movedim
|
看torch.movedim() |
Tensor.moveaxis
|
看torch.moveaxis() |
Tensor.msort
|
看torch.msort() |
Tensor.mul
|
看torch.mul() . |
Tensor.mul_
|
的就地版本mul() . |
Tensor.multiply
|
看torch.multiply() . |
Tensor.multiply_
|
的就地版本multiply() . |
Tensor.multinomial
|
看torch.multinomial() |
Tensor.mv
|
看torch.mv() |
Tensor.mvlgamma
|
看torch.mvlgamma() |
Tensor.mvlgamma_
|
的就地版本mvlgamma() |
Tensor.nansum
|
看torch.nansum() |
Tensor.narrow
|
看torch.narrow() |
Tensor.narrow_copy
|
等同Tensor.narrow() 除了返回副本而不是共享存储。 |
Tensor.ndimension
|
别名dim() |
Tensor.nan_to_num
|
看torch.nan_to_num() . |
Tensor.nan_to_num_
|
的就地版本nan_to_num() . |
Tensor.ne
|
看torch.ne() . |
Tensor.ne_
|
的就地版本ne() . |
Tensor.not_equal
|
看torch.not_equal() . |
Tensor.not_equal_
|
的就地版本not_equal() . |
Tensor.neg
|
看torch.neg() |
Tensor.neg_
|
的就地版本neg() |
Tensor.negative
|
看torch.negative() |
Tensor.negative_
|
的就地版本negative() |
Tensor.nelement
|
别名numel() |
Tensor.nextafter
|
看torch.nextafter() |
Tensor.nextafter_
|
的就地版本nextafter() |
Tensor.nonzero
|
看torch.nonzero() |
Tensor.norm
|
看torch.norm() |
Tensor.normal_
|
用来自正态分布的元素样本填充张量,参数化为self mean 和std . |
Tensor.numel
|
看torch.numel() |
Tensor.numpy
|
将 tensor 作为 NumPy 返回。self ndarray |
Tensor.orgqr
|
看torch.orgqr() |
Tensor.ormqr
|
看torch.ormqr() |
Tensor.outer
|
看torch.outer() . |
Tensor.permute
|
看torch.permute() |
Tensor.pin_memory
|
将张量复制到固定内存(如果尚未固定)。 |
Tensor.pinverse
|
看torch.pinverse() |
Tensor.polygamma
|
看torch.polygamma() |
Tensor.polygamma_
|
的就地版本polygamma() |
Tensor.positive
|
看torch.positive() |
Tensor.pow
|
看torch.pow() |
Tensor.pow_
|
的就地版本pow() |
Tensor.prod
|
看torch.prod() |
Tensor.put_
|
将元素从 复制到 中指定的位置。source index |
Tensor.qr
|
看torch.qr() |
Tensor.qscheme
|
返回给定 QTensor 的量化方案。 |
Tensor.quantile
|
看torch.quantile() |
Tensor.nanquantile
|
看torch.nanquantile() |
Tensor.q_scale
|
给定一个通过线性(仿射)量化量化的 Tensor,返回底层 quantizer() 的 scale 。 |
Tensor.q_zero_point
|
给定一个通过线性(仿射)量化量化的 Tensor,返回底层 quantizer() 的 zero_point。 |
Tensor.q_per_channel_scales
|
给定一个通过线性(仿射)每通道量化量化的 Tensor,返回底层量化器的尺度的 Tensor。 |
Tensor.q_per_channel_zero_points
|
给定一个通过线性(仿射)每通道量化量化的 Tensor,返回底层量化器的 zero_points 张量。 |
Tensor.q_per_channel_axis
|
给定一个通过线性(仿射)每通道量化量化的 Tensor,返回应用每通道量化的维度索引。 |
Tensor.rad2deg
|
看torch.rad2deg() |
Tensor.random_
|
用从离散均匀分布中采样的数字填充张量。self [from, to - 1] |
Tensor.ravel
|
看torch.ravel() |
Tensor.reciprocal
|
看torch.reciprocal() |
Tensor.reciprocal_
|
的就地版本reciprocal() |
Tensor.record_stream
|
确保在当前排队的所有工作完成之前,张量内存不会被另一个张量重复使用。stream |
Tensor.register_hook
|
注册一个向后钩子。 |
Tensor.remainder
|
看torch.remainder() |
Tensor.remainder_
|
的就地版本remainder() |
Tensor.renorm
|
看torch.renorm() |
Tensor.renorm_
|
的就地版本renorm() |
Tensor.repeat
|
沿指定维度重复此张量。 |
Tensor.repeat_interleave
|
看torch.repeat_interleave() . |
Tensor.requires_grad
|
是如果需要为此 Tensor 计算梯度,否则。True False |
Tensor.requires_grad_
|
更改 autograd 是否应该记录对此张量的作:就地设置此张量的属性。requires_grad |
Tensor.reshape
|
返回一个张量,其数据和元素数与指定形状相同。self |
Tensor.reshape_as
|
返回与 相同的形状的此张量。other |
Tensor.resize_
|
将 tensor 大小调整为指定大小。self |
Tensor.resize_as_
|
将张量大小调整为与指定大小相同的self tensor . |
Tensor.retain_grad
|
允许此 Tensor 在 期间填充其 。grad backward() |
Tensor.retains_grad
|
如果此 Tensor 是非叶子的,并且允许在 期间填充它,否则。True grad backward() False |
Tensor.roll
|
看torch.roll() |
Tensor.rot90
|
看torch.rot90() |
Tensor.round
|
看torch.round() |
Tensor.round_
|
的就地版本round() |
Tensor.rsqrt
|
看torch.rsqrt() |
Tensor.rsqrt_
|
的就地版本rsqrt() |
Tensor.scatter
|
的 Out-of-place versiontorch.Tensor.scatter_() |
Tensor.scatter_
|
将张量中的所有值写入张量中指定的索引处。src self index |
Tensor.scatter_add_
|
将张量中的所有值添加到张量中指定的索引处,其方式与other self index scatter_() . |
Tensor.scatter_add
|
的 Out-of-place versiontorch.Tensor.scatter_add_() |
Tensor.scatter_reduce_
|
使用通过参数 (、) 定义的应用缩减,将张量中的所有值减少到张量中张量中指定的索引。src index self reduce "sum" "prod" "mean" "amax" "amin" |
Tensor.scatter_reduce
|
的 Out-of-place versiontorch.Tensor.scatter_reduce_() |
Tensor.select
|
看torch.select() |
Tensor.select_scatter
|
看torch.select_scatter() |
Tensor.set_
|
设置底层存储、大小和步幅。 |
Tensor.share_memory_
|
将底层存储移动到共享内存。 |
Tensor.short
|
self.short() 等效于 。self.to(torch.int16)
|
Tensor.sigmoid
|
看torch.sigmoid() |
Tensor.sigmoid_
|
的就地版本sigmoid() |
Tensor.sign
|
看torch.sign() |
Tensor.sign_
|
的就地版本sign() |
Tensor.signbit
|
看torch.signbit() |
Tensor.sgn
|
看torch.sgn() |
Tensor.sgn_
|
的就地版本sgn() |
Tensor.sin
|
看torch.sin() |
Tensor.sin_
|
的就地版本sin() |
Tensor.sinc
|
看torch.sinc() |
Tensor.sinc_
|
的就地版本sinc() |
Tensor.sinh
|
看torch.sinh() |
Tensor.sinh_
|
的就地版本sinh() |
Tensor.asinh
|
看torch.asinh() |
Tensor.asinh_
|
的就地版本asinh() |
Tensor.arcsinh
|
看torch.arcsinh() |
Tensor.arcsinh_
|
的就地版本arcsinh() |
Tensor.size
|
返回张量的大小。self |
Tensor.slogdet
|
看torch.slogdet() |
Tensor.slice_scatter
|
看torch.slice_scatter() |
Tensor.sort
|
看torch.sort() |
Tensor.split
|
看torch.split() |
Tensor.sparse_mask
|
返回一个新的稀疏张量,其中包含由 sparse 张量的索引过滤的跨步张量中的值。self mask |
Tensor.sparse_dim
|
返回稀疏张量中的稀疏维度数。self |
Tensor.sqrt
|
看torch.sqrt() |
Tensor.sqrt_
|
的就地版本sqrt() |
Tensor.square
|
看torch.square() |
Tensor.square_
|
的就地版本square() |
Tensor.squeeze
|
看torch.squeeze() |
Tensor.squeeze_
|
的就地版本squeeze() |
Tensor.std
|
看torch.std() |
Tensor.stft
|
看torch.stft() |
Tensor.storage
|
返回基础存储。 |
Tensor.storage_offset
|
返回 tensor 在底层存储中的偏移量,以存储元素(而不是字节)的数量表示。self |
Tensor.storage_type
|
返回底层存储的类型。 |
Tensor.stride
|
返回 tensor 的步幅。self |
Tensor.sub
|
看torch.sub() . |
Tensor.sub_
|
的就地版本sub() |
Tensor.subtract
|
看torch.subtract() . |
Tensor.subtract_
|
的就地版本subtract() . |
Tensor.sum
|
看torch.sum() |
Tensor.sum_to_size
|
将张量求和 为 。this size |
Tensor.svd
|
看torch.svd() |
Tensor.swapaxes
|
看torch.swapaxes() |
Tensor.swapdims
|
看torch.swapdims() |
Tensor.symeig
|
看torch.symeig() |
Tensor.t
|
看torch.t() |
Tensor.t_
|
的就地版本t() |
Tensor.tensor_split
|
看torch.tensor_split() |
Tensor.tile
|
看torch.tile() |
Tensor.to
|
执行 Tensor dtype 和/或 device 转换。 |
Tensor.to_mkldnn
|
返回 layout 中张量的副本。torch.mkldnn |
Tensor.take
|
看torch.take() |
Tensor.take_along_dim
|
看torch.take_along_dim() |
Tensor.tan
|
看torch.tan() |
Tensor.tan_
|
的就地版本tan() |
Tensor.tanh
|
看torch.tanh() |
Tensor.tanh_
|
的就地版本tanh() |
Tensor.atanh
|
看torch.atanh() |
Tensor.atanh_
|
的就地版本atanh() |
Tensor.arctanh
|
看torch.arctanh() |
Tensor.arctanh_
|
的就地版本arctanh() |
Tensor.tolist
|
以 (嵌套) 列表的形式返回张量。 |
Tensor.topk
|
看torch.topk() |
Tensor.to_sparse
|
返回张量的稀疏副本。 |
Tensor.trace
|
看torch.trace() |
Tensor.transpose
|
看torch.transpose() |
Tensor.transpose_
|
的就地版本transpose() |
Tensor.triangular_solve
|
看torch.triangular_solve() |
Tensor.tril
|
看torch.tril() |
Tensor.tril_
|
的就地版本tril() |
Tensor.triu
|
看torch.triu() |
Tensor.triu_
|
的就地版本triu() |
Tensor.true_divide
|
看torch.true_divide() |
Tensor.true_divide_
|
的就地版本true_divide_() |
Tensor.trunc
|
看torch.trunc() |
Tensor.trunc_
|
的就地版本trunc() |
Tensor.type
|
如果未提供 dtype,则返回类型,否则将此对象强制转换为指定类型。 |
Tensor.type_as
|
将此张量强制转换为给定张量的类型。 |
Tensor.unbind
|
看torch.unbind() |
Tensor.unfold
|
返回原始张量的视图,其中包含维度中 tensor 的所有大小切片。size self dimension |
Tensor.uniform_
|
用从连续均匀分布中采样的数字填充张量:self |
Tensor.unique
|
返回输入张量的唯一元素。 |
Tensor.unique_consecutive
|
从每组连续的等效元素中消除除第一个元素之外的所有元素。 |
Tensor.unsqueeze
|
看torch.unsqueeze() |
Tensor.unsqueeze_
|
的就地版本unsqueeze() |
Tensor.values
|
返回稀疏 COO 张量的 values tensor。 |
Tensor.var
|
看torch.var() |
Tensor.vdot
|
看torch.vdot() |
Tensor.view
|
返回一个新张量,其数据与张量相同,但具有不同的 。self shape |
Tensor.view_as
|
将此张量视为与 相同的大小。other |
Tensor.vsplit
|
看torch.vsplit() |
Tensor.where
|
self.where(condition, y) 等效于 。torch.where(condition, self, y)
|
Tensor.xlogy
|
看torch.xlogy() |
Tensor.xlogy_
|
的就地版本xlogy() |
Tensor.zero_
|
用零填充 tensor。self |