| Tensor.new_tensor
 | 返回一个新的 Tensor 作为张量数据。data | 
| Tensor.new_full
 | 返回一个大小为 的 Tensor,其中填充了 。sizefill_value | 
| Tensor.new_empty
 | 返回一个大小为填充了未初始化数据的 Tensor。size | 
| Tensor.new_ones
 | 返回一个大小为 的 Tensor,其中填充了 。size1 | 
| Tensor.new_zeros
 | 返回一个大小为 的 Tensor,其中填充了 。size0 | 
| Tensor.is_cuda
 | 如果 Tensor 存储在 GPU 上,否则。TrueFalse | 
| Tensor.is_quantized
 | 如果 Tensor 被量化,否则。TrueFalse | 
| Tensor.is_meta
 | 如果 Tensor 是元张量,否则。TrueFalse | 
| Tensor.device
 | 是torch.device其中 Tensor 所在的位置。 | 
| Tensor.grad
 | 默认情况下,此属性在第一次调用计算 的梯度时变为 Tensor。Nonebackward()self | 
| Tensor.ndim
 | 别名dim() | 
| Tensor.real
 | 返回一个新张量,其中包含复值输入张量的张量的实数值。self | 
| Tensor.imag
 | 返回包含张量的虚数值的新张量。self | 
| Tensor.abs
 | 看torch.abs() | 
| Tensor.abs_
 | 的就地版本abs() | 
| Tensor.absolute
 | 别名abs() | 
| Tensor.absolute_
 | 的就地版本absolute()别名abs_() | 
| Tensor.acos
 | 看torch.acos() | 
| Tensor.acos_
 | 的就地版本acos() | 
| Tensor.arccos
 | 看torch.arccos() | 
| Tensor.arccos_
 | 的就地版本arccos() | 
| Tensor.add
 | 将标量或张量添加到 tensor。self | 
| Tensor.add_
 | 的就地版本add() | 
| Tensor.addbmm
 | 看torch.addbmm() | 
| Tensor.addbmm_
 | 的就地版本addbmm() | 
| Tensor.addcdiv
 | 看torch.addcdiv() | 
| Tensor.addcdiv_
 | 的就地版本addcdiv() | 
| Tensor.addcmul
 | 看torch.addcmul() | 
| Tensor.addcmul_
 | 的就地版本addcmul() | 
| Tensor.addmm
 | 看torch.addmm() | 
| Tensor.addmm_
 | 的就地版本addmm() | 
| Tensor.sspaddmm
 | 看torch.sspaddmm() | 
| Tensor.addmv
 | 看torch.addmv() | 
| Tensor.addmv_
 | 的就地版本addmv() | 
| Tensor.addr
 | 看torch.addr() | 
| Tensor.addr_
 | 的就地版本addr() | 
| Tensor.adjoint
 | 别名adjoint() | 
| Tensor.allclose
 | 看torch.allclose() | 
| Tensor.amax
 | 看torch.amax() | 
| Tensor.amin
 | 看torch.amin() | 
| Tensor.aminmax
 | 看torch.aminmax() | 
| Tensor.angle
 | 看torch.angle() | 
| Tensor.apply_
 | 将函数应用于张量中的每个元素,将每个元素替换为 返回的值。callablecallable | 
| Tensor.argmax
 | 看torch.argmax() | 
| Tensor.argmin
 | 看torch.argmin() | 
| Tensor.argsort
 | 看torch.argsort() | 
| Tensor.argwhere
 | 看torch.argwhere() | 
| Tensor.asin
 | 看torch.asin() | 
| Tensor.asin_
 | 的就地版本asin() | 
| Tensor.arcsin
 | 看torch.arcsin() | 
| Tensor.arcsin_
 | 的就地版本arcsin() | 
| Tensor.as_strided
 | 看torch.as_strided() | 
| Tensor.atan
 | 看torch.atan() | 
| Tensor.atan_
 | 的就地版本atan() | 
| Tensor.arctan
 | 看torch.arctan() | 
| Tensor.arctan_
 | 的就地版本arctan() | 
| Tensor.atan2
 | 看torch.atan2() | 
| Tensor.atan2_
 | 的就地版本atan2() | 
| Tensor.arctan2
 | 看torch.arctan2() | 
| Tensor.arctan2_
 | atan2_(其他) -> 张量 | 
| Tensor.all
 | 看torch.all() | 
| Tensor.any
 | 看torch.any() | 
| Tensor.backward
 | 计算当前张量的梯度 w.r.t. | 
| Tensor.baddbmm
 | 看torch.baddbmm() | 
| Tensor.baddbmm_
 | 的就地版本baddbmm() | 
| Tensor.bernoulli
 | 返回一个结果张量,其中每个结果[i]独立采样自伯努利(自我[i]). | 
| Tensor.bernoulli_
 | 用独立的样品填充 的每个位置self伯努利 (p). | 
| Tensor.bfloat16
 | self.bfloat16()等效于 。self.to(torch.bfloat16)
 | 
| Tensor.bincount
 | 看torch.bincount() | 
| Tensor.bitwise_not
 | 看torch.bitwise_not() | 
| Tensor.bitwise_not_
 | 的就地版本bitwise_not() | 
| Tensor.bitwise_and
 | 看torch.bitwise_and() | 
| Tensor.bitwise_and_
 | 的就地版本bitwise_and() | 
| Tensor.bitwise_or
 | 看torch.bitwise_or() | 
| Tensor.bitwise_or_
 | 的就地版本bitwise_or() | 
| Tensor.bitwise_xor
 | 看torch.bitwise_xor() | 
| Tensor.bitwise_xor_
 | 的就地版本bitwise_xor() | 
| Tensor.bitwise_left_shift
 | 看torch.bitwise_left_shift() | 
| Tensor.bitwise_left_shift_
 | 的就地版本bitwise_left_shift() | 
| Tensor.bitwise_right_shift
 | 看torch.bitwise_right_shift() | 
| Tensor.bitwise_right_shift_
 | 的就地版本bitwise_right_shift() | 
| Tensor.bmm
 | 看torch.bmm() | 
| Tensor.bool
 | self.bool()等效于 。self.to(torch.bool)
 | 
| Tensor.byte
 | self.byte()等效于 。self.to(torch.uint8)
 | 
| Tensor.broadcast_to
 | 看torch.broadcast_to(). | 
| Tensor.cauchy_
 | 用从 Cauchy 分布中提取的数字填充张量: | 
| Tensor.ceil
 | 看torch.ceil() | 
| Tensor.ceil_
 | 的就地版本ceil() | 
| Tensor.char
 | self.char()等效于 。self.to(torch.int8)
 | 
| Tensor.cholesky
 | 看torch.cholesky() | 
| Tensor.cholesky_inverse
 | 看torch.cholesky_inverse() | 
| Tensor.cholesky_solve
 | 看torch.cholesky_solve() | 
| Tensor.chunk
 | 看torch.chunk() | 
| Tensor.clamp
 | 看torch.clamp() | 
| Tensor.clamp_
 | 的就地版本clamp() | 
| Tensor.clip
 | 别名clamp(). | 
| Tensor.clip_
 | 别名clamp_(). | 
| Tensor.clone
 | 看torch.clone() | 
| Tensor.contiguous
 | 返回包含与 tensor 相同数据的 contiguous in memory tensor。self | 
| Tensor.copy_
 | 将元素从 复制到 tensor 中并返回 。srcselfself | 
| Tensor.conj
 | 看torch.conj() | 
| Tensor.conj_physical
 | 看torch.conj_physical() | 
| Tensor.conj_physical_
 | 的就地版本conj_physical() | 
| Tensor.resolve_conj
 | 看torch.resolve_conj() | 
| Tensor.resolve_neg
 | 看torch.resolve_neg() | 
| Tensor.copysign
 | 看torch.copysign() | 
| Tensor.copysign_
 | 的就地版本copysign() | 
| Tensor.cos
 | 看torch.cos() | 
| Tensor.cos_
 | 的就地版本cos() | 
| Tensor.cosh
 | 看torch.cosh() | 
| Tensor.cosh_
 | 的就地版本cosh() | 
| Tensor.corrcoef
 | 看torch.corrcoef() | 
| Tensor.count_nonzero
 | 看torch.count_nonzero() | 
| Tensor.cov
 | 看torch.cov() | 
| Tensor.acosh
 | 看torch.acosh() | 
| Tensor.acosh_
 | 的就地版本acosh() | 
| Tensor.arccosh
 | acosh() -> 张量 | 
| Tensor.arccosh_
 | acosh_() -> 张量 | 
| Tensor.cpu
 | 返回 CPU 内存中此对象的副本。 | 
| Tensor.cross
 | 看torch.cross() | 
| Tensor.cuda
 | 返回 CUDA 内存中此对象的副本。 | 
| Tensor.logcumsumexp
 | 看torch.logcumsumexp() | 
| Tensor.cummax
 | 看torch.cummax() | 
| Tensor.cummin
 | 看torch.cummin() | 
| Tensor.cumprod
 | 看torch.cumprod() | 
| Tensor.cumprod_
 | 的就地版本cumprod() | 
| Tensor.cumsum
 | 看torch.cumsum() | 
| Tensor.cumsum_
 | 的就地版本cumsum() | 
| Tensor.chalf
 | self.chalf()等效于 。self.to(torch.complex32)
 | 
| Tensor.cfloat
 | self.cfloat()等效于 。self.to(torch.complex64)
 | 
| Tensor.cdouble
 | self.cdouble()等效于 。self.to(torch.complex128)
 | 
| Tensor.data_ptr
 | 返回 tensor 的第一个元素的地址。self | 
| Tensor.deg2rad
 | 看torch.deg2rad() | 
| Tensor.dequantize
 | 给定一个量化的 Tensor,对其进行反量化并返回反量化的 float Tensor。 | 
| Tensor.det
 | 看torch.det() | 
| Tensor.dense_dim
 | 返回 sparse tensor 中的密集维度数。self | 
| Tensor.detach
 | 返回与当前图形分离的新 Tensor。 | 
| Tensor.detach_
 | 将 Tensor 与创建它的图形分离,使其成为叶子。 | 
| Tensor.diag
 | 看torch.diag() | 
| Tensor.diag_embed
 | 看torch.diag_embed() | 
| Tensor.diagflat
 | 看torch.diagflat() | 
| Tensor.diagonal
 | 看torch.diagonal() | 
| Tensor.diagonal_scatter
 | 对角线(src, offset=0, dim1=0, dim2=1) -> 张量 | 
| Tensor.fill_diagonal_
 | 填充至少具有 2 维的张量的主对角线。 | 
| Tensor.fmax
 | 看torch.fmax() | 
| Tensor.fmin
 | 看torch.fmin() | 
| Tensor.diff
 | 看torch.diff() | 
| Tensor.digamma
 | 看torch.digamma() | 
| Tensor.digamma_
 | 的就地版本digamma() | 
| Tensor.dim
 | 返回 tensor 的维数。self | 
| Tensor.dist
 | 看torch.dist() | 
| Tensor.div
 | 看torch.div() | 
| Tensor.div_
 | 的就地版本div() | 
| Tensor.divide
 | 看torch.divide() | 
| Tensor.divide_
 | 的就地版本divide() | 
| Tensor.dot
 | 看torch.dot() | 
| Tensor.double
 | self.double()等效于 。self.to(torch.float64)
 | 
| Tensor.dsplit
 | 看torch.dsplit() | 
| Tensor.eig
 | 看torch.eig() | 
| Tensor.element_size
 | 返回单个元素的大小(以字节为单位)。 | 
| Tensor.eq
 | 看torch.eq() | 
| Tensor.eq_
 | 的就地版本eq() | 
| Tensor.equal
 | 看torch.equal() | 
| Tensor.erf
 | 看torch.erf() | 
| Tensor.erf_
 | 的就地版本erf() | 
| Tensor.erfc
 | 看torch.erfc() | 
| Tensor.erfc_
 | 的就地版本erfc() | 
| Tensor.erfinv
 | 看torch.erfinv() | 
| Tensor.erfinv_
 | 的就地版本erfinv() | 
| Tensor.exp
 | 看torch.exp() | 
| Tensor.exp_
 | 的就地版本exp() | 
| Tensor.expm1
 | 看torch.expm1() | 
| Tensor.expm1_
 | 的就地版本expm1() | 
| Tensor.expand
 | 返回张量的新视图,其中单例维度扩展为更大的大小。self | 
| Tensor.expand_as
 | 将此张量扩展为与 相同的大小。other | 
| Tensor.exponential_
 | 用从指数分布中提取的元素填充张量:self | 
| Tensor.fix
 | 看torch.fix(). | 
| Tensor.fix_
 | 的就地版本fix() | 
| Tensor.fill_
 | 用指定的值填充 tensor。self | 
| Tensor.flatten
 | 看torch.flatten() | 
| Tensor.flip
 | 看torch.flip() | 
| Tensor.fliplr
 | 看torch.fliplr() | 
| Tensor.flipud
 | 看torch.flipud() | 
| Tensor.float
 | self.float()等效于 。self.to(torch.float32)
 | 
| Tensor.float_power
 | 看torch.float_power() | 
| Tensor.float_power_
 | 的就地版本float_power() | 
| Tensor.floor
 | 看torch.floor() | 
| Tensor.floor_
 | 的就地版本floor() | 
| Tensor.floor_divide
 | 看torch.floor_divide() | 
| Tensor.floor_divide_
 | 的就地版本floor_divide() | 
| Tensor.fmod
 | 看torch.fmod() | 
| Tensor.fmod_
 | 的就地版本fmod() | 
| Tensor.frac
 | 看torch.frac() | 
| Tensor.frac_
 | 的就地版本frac() | 
| Tensor.frexp
 | 看torch.frexp() | 
| Tensor.gather
 | 看torch.gather() | 
| Tensor.gcd
 | 看torch.gcd() | 
| Tensor.gcd_
 | 的就地版本gcd() | 
| Tensor.ge
 | 看torch.ge(). | 
| Tensor.ge_
 | 的就地版本ge(). | 
| Tensor.greater_equal
 | 看torch.greater_equal(). | 
| Tensor.greater_equal_
 | 的就地版本greater_equal(). | 
| Tensor.geometric_
 | 用从几何分布中提取的元素填充张量:self | 
| Tensor.geqrf
 | 看torch.geqrf() | 
| Tensor.ger
 | 看torch.ger() | 
| Tensor.get_device
 | 对于 CUDA 张量,此函数返回张量所在的 GPU 的设备序号。 | 
| Tensor.gt
 | 看torch.gt(). | 
| Tensor.gt_
 | 的就地版本gt(). | 
| Tensor.greater
 | 看torch.greater(). | 
| Tensor.greater_
 | 的就地版本greater(). | 
| Tensor.half
 | self.half()等效于 。self.to(torch.float16)
 | 
| Tensor.hardshrink
 | 看torch.nn.functional.hardshrink() | 
| Tensor.heaviside
 | 看torch.heaviside() | 
| Tensor.histc
 | 看torch.histc() | 
| Tensor.histogram
 | 看torch.histogram() | 
| Tensor.hsplit
 | 看torch.hsplit() | 
| Tensor.hypot
 | 看torch.hypot() | 
| Tensor.hypot_
 | 的就地版本hypot() | 
| Tensor.i0
 | 看torch.i0() | 
| Tensor.i0_
 | 的就地版本i0() | 
| Tensor.igamma
 | 看torch.igamma() | 
| Tensor.igamma_
 | 的就地版本igamma() | 
| Tensor.igammac
 | 看torch.igammac() | 
| Tensor.igammac_
 | 的就地版本igammac() | 
| Tensor.index_add_
 | 按照 中给出的顺序添加到索引中,将 times 的元素累积到张量中。alphasourceselfindex | 
| Tensor.index_add
 | 的 Out-of-place versiontorch.Tensor.index_add_(). | 
| Tensor.index_copy_
 | 复制 的元素tensor通过按照 中给定的顺序选择索引,将其放入张量中。selfindex | 
| Tensor.index_copy
 | 的 Out-of-place versiontorch.Tensor.index_copy_(). | 
| Tensor.index_fill_
 | 通过按照 中给出的顺序选择索引,用 value 填充张量的元素。selfvalueindex | 
| Tensor.index_fill
 | 的 Out-of-place versiontorch.Tensor.index_fill_(). | 
| Tensor.index_put_
 | 使用 中指定的索引(这是一个 Tensor 元组)将 tensor 中的值放入 tensor 中。valuesselfindices | 
| Tensor.index_put
 | 的 Out-place 版本index_put_(). | 
| Tensor.index_reduce_
 | 通过使用参数给出的 reduction 给出的顺序累积到索引,将 的元素累积到张量中。sourceselfindexreduce | 
| Tensor.index_reduce
 |  | 
| Tensor.index_select
 | 看torch.index_select() | 
| Tensor.indices
 | 返回稀疏 COO 张量的 indices 张量。 | 
| Tensor.inner
 | 看torch.inner(). | 
| Tensor.int
 | self.int()等效于 。self.to(torch.int32)
 | 
| Tensor.int_repr
 | 给定一个量化的 Tensor,返回一个数据类型为 uint8_t 的 CPU Tensor,用于存储给定 Tensor 的底层 uint8_t 值。self.int_repr() | 
| Tensor.inverse
 | 看torch.inverse() | 
| Tensor.isclose
 | 看torch.isclose() | 
| Tensor.isfinite
 | 看torch.isfinite() | 
| Tensor.isinf
 | 看torch.isinf() | 
| Tensor.isposinf
 | 看torch.isposinf() | 
| Tensor.isneginf
 | 看torch.isneginf() | 
| Tensor.isnan
 | 看torch.isnan() | 
| Tensor.is_contiguous
 | 如果 tensor 在内存中按内存格式指定的顺序连续,则返回 True。self | 
| Tensor.is_complex
 | 如果 的数据类型是复杂数据类型,则返回 True。self | 
| Tensor.is_conj
 | 如果共轭位 设置为 true,则返回 True。self | 
| Tensor.is_floating_point
 | 如果 的数据类型是浮点数据类型,则返回 True。self | 
| Tensor.is_inference
 | 看torch.is_inference() | 
| Tensor.is_leaf
 | 按照约定,所有具有 which is 的 Tensor 都将是叶 Tensor。requires_gradFalse | 
| Tensor.is_pinned
 | 如果此张量驻留在固定内存中,则返回 true。 | 
| Tensor.is_set_to
 | 如果两个张量都指向完全相同的内存(相同的存储、偏移量、大小和步幅),则返回 True。 | 
| Tensor.is_shared
 | 检查 tensor 是否在共享内存中。 | 
| Tensor.is_signed
 | 如果 的数据类型是有符号数据类型,则返回 True。self | 
| Tensor.is_sparse
 | 如果 Tensor 使用稀疏存储布局,否则。TrueFalse | 
| Tensor.istft
 | 看torch.istft() | 
| Tensor.isreal
 | 看torch.isreal() | 
| Tensor.item
 | 将此张量的值作为标准 Python 数字返回。 | 
| Tensor.kthvalue
 | 看torch.kthvalue() | 
| Tensor.lcm
 | 看torch.lcm() | 
| Tensor.lcm_
 | 的就地版本lcm() | 
| Tensor.ldexp
 | 看torch.ldexp() | 
| Tensor.ldexp_
 | 的就地版本ldexp() | 
| Tensor.le
 | 看torch.le(). | 
| Tensor.le_
 | 的就地版本le(). | 
| Tensor.less_equal
 | 看torch.less_equal(). | 
| Tensor.less_equal_
 | 的就地版本less_equal(). | 
| Tensor.lerp
 | 看torch.lerp() | 
| Tensor.lerp_
 | 的就地版本lerp() | 
| Tensor.lgamma
 | 看torch.lgamma() | 
| Tensor.lgamma_
 | 的就地版本lgamma() | 
| Tensor.log
 | 看torch.log() | 
| Tensor.log_
 | 的就地版本log() | 
| Tensor.logdet
 | 看torch.logdet() | 
| Tensor.log10
 | 看torch.log10() | 
| Tensor.log10_
 | 的就地版本log10() | 
| Tensor.log1p
 | 看torch.log1p() | 
| Tensor.log1p_
 | 的就地版本log1p() | 
| Tensor.log2
 | 看torch.log2() | 
| Tensor.log2_
 | 的就地版本log2() | 
| Tensor.log_normal_
 | 用来自对数正态分布的数字样本填充张量,该分布由给定均值参数化selfμ和标准差σ. | 
| Tensor.logaddexp
 | 看torch.logaddexp() | 
| Tensor.logaddexp2
 | 看torch.logaddexp2() | 
| Tensor.logsumexp
 | 看torch.logsumexp() | 
| Tensor.logical_and
 | 看torch.logical_and() | 
| Tensor.logical_and_
 | 的就地版本logical_and() | 
| Tensor.logical_not
 | 看torch.logical_not() | 
| Tensor.logical_not_
 | 的就地版本logical_not() | 
| Tensor.logical_or
 | 看torch.logical_or() | 
| Tensor.logical_or_
 | 的就地版本logical_or() | 
| Tensor.logical_xor
 | 看torch.logical_xor() | 
| Tensor.logical_xor_
 | 的就地版本logical_xor() | 
| Tensor.logit
 | 看torch.logit() | 
| Tensor.logit_
 | 的就地版本logit() | 
| Tensor.long
 | self.long()等效于 。self.to(torch.int64)
 | 
| Tensor.lstsq
 | 看torch.lstsq() | 
| Tensor.lt
 | 看torch.lt(). | 
| Tensor.lt_
 | 的就地版本lt(). | 
| Tensor.less
 | lt(other) -> 张量 | 
| Tensor.less_
 | 的就地版本less(). | 
| Tensor.lu
 | 看torch.lu() | 
| Tensor.lu_solve
 | 看torch.lu_solve() | 
| Tensor.as_subclass
 | 创建具有与 相同的数据指针的实例。clsself | 
| Tensor.map_
 | 适用于 tensor 中的每个元素和给定的callableselftensor并将结果存储在 Tensor 中。self | 
| Tensor.masked_scatter_
 | 将元素从 复制到 tensor 中 为 True 的位置。sourceselfmask | 
| Tensor.masked_scatter
 | 的 Out-of-place versiontorch.Tensor.masked_scatter_() | 
| Tensor.masked_fill_
 | 用 where 为 True 填充 tensor 的元素。selfvaluemask | 
| Tensor.masked_fill
 | 的 Out-of-place versiontorch.Tensor.masked_fill_() | 
| Tensor.masked_select
 | 看torch.masked_select() | 
| Tensor.matmul
 | 看torch.matmul() | 
| Tensor.matrix_power
 |  | 
| Tensor.matrix_exp
 | 看torch.matrix_exp() | 
| Tensor.max
 | 看torch.max() | 
| Tensor.maximum
 | 看torch.maximum() | 
| Tensor.mean
 | 看torch.mean() | 
| Tensor.nanmean
 | 看torch.nanmean() | 
| Tensor.median
 | 看torch.median() | 
| Tensor.nanmedian
 | 看torch.nanmedian() | 
| Tensor.min
 | 看torch.min() | 
| Tensor.minimum
 | 看torch.minimum() | 
| Tensor.mm
 | 看torch.mm() | 
| Tensor.smm
 | 看torch.smm() | 
| Tensor.mode
 | 看torch.mode() | 
| Tensor.movedim
 | 看torch.movedim() | 
| Tensor.moveaxis
 | 看torch.moveaxis() | 
| Tensor.msort
 | 看torch.msort() | 
| Tensor.mul
 | 看torch.mul(). | 
| Tensor.mul_
 | 的就地版本mul(). | 
| Tensor.multiply
 | 看torch.multiply(). | 
| Tensor.multiply_
 | 的就地版本multiply(). | 
| Tensor.multinomial
 | 看torch.multinomial() | 
| Tensor.mv
 | 看torch.mv() | 
| Tensor.mvlgamma
 | 看torch.mvlgamma() | 
| Tensor.mvlgamma_
 | 的就地版本mvlgamma() | 
| Tensor.nansum
 | 看torch.nansum() | 
| Tensor.narrow
 | 看torch.narrow() | 
| Tensor.narrow_copy
 | 等同Tensor.narrow()除了返回副本而不是共享存储。 | 
| Tensor.ndimension
 | 别名dim() | 
| Tensor.nan_to_num
 | 看torch.nan_to_num(). | 
| Tensor.nan_to_num_
 | 的就地版本nan_to_num(). | 
| Tensor.ne
 | 看torch.ne(). | 
| Tensor.ne_
 | 的就地版本ne(). | 
| Tensor.not_equal
 | 看torch.not_equal(). | 
| Tensor.not_equal_
 | 的就地版本not_equal(). | 
| Tensor.neg
 | 看torch.neg() | 
| Tensor.neg_
 | 的就地版本neg() | 
| Tensor.negative
 | 看torch.negative() | 
| Tensor.negative_
 | 的就地版本negative() | 
| Tensor.nelement
 | 别名numel() | 
| Tensor.nextafter
 | 看torch.nextafter() | 
| Tensor.nextafter_
 | 的就地版本nextafter() | 
| Tensor.nonzero
 | 看torch.nonzero() | 
| Tensor.norm
 | 看torch.norm() | 
| Tensor.normal_
 | 用来自正态分布的元素样本填充张量,参数化为selfmean和std. | 
| Tensor.numel
 | 看torch.numel() | 
| Tensor.numpy
 | 将 tensor 作为 NumPy 返回。selfndarray | 
| Tensor.orgqr
 | 看torch.orgqr() | 
| Tensor.ormqr
 | 看torch.ormqr() | 
| Tensor.outer
 | 看torch.outer(). | 
| Tensor.permute
 | 看torch.permute() | 
| Tensor.pin_memory
 | 将张量复制到固定内存(如果尚未固定)。 | 
| Tensor.pinverse
 | 看torch.pinverse() | 
| Tensor.polygamma
 | 看torch.polygamma() | 
| Tensor.polygamma_
 | 的就地版本polygamma() | 
| Tensor.positive
 | 看torch.positive() | 
| Tensor.pow
 | 看torch.pow() | 
| Tensor.pow_
 | 的就地版本pow() | 
| Tensor.prod
 | 看torch.prod() | 
| Tensor.put_
 | 将元素从 复制到 中指定的位置。sourceindex | 
| Tensor.qr
 | 看torch.qr() | 
| Tensor.qscheme
 | 返回给定 QTensor 的量化方案。 | 
| Tensor.quantile
 | 看torch.quantile() | 
| Tensor.nanquantile
 | 看torch.nanquantile() | 
| Tensor.q_scale
 | 给定一个通过线性(仿射)量化量化的 Tensor,返回底层 quantizer() 的 scale 。 | 
| Tensor.q_zero_point
 | 给定一个通过线性(仿射)量化量化的 Tensor,返回底层 quantizer() 的 zero_point。 | 
| Tensor.q_per_channel_scales
 | 给定一个通过线性(仿射)每通道量化量化的 Tensor,返回底层量化器的尺度的 Tensor。 | 
| Tensor.q_per_channel_zero_points
 | 给定一个通过线性(仿射)每通道量化量化的 Tensor,返回底层量化器的 zero_points 张量。 | 
| Tensor.q_per_channel_axis
 | 给定一个通过线性(仿射)每通道量化量化的 Tensor,返回应用每通道量化的维度索引。 | 
| Tensor.rad2deg
 | 看torch.rad2deg() | 
| Tensor.random_
 | 用从离散均匀分布中采样的数字填充张量。self[from, to - 1] | 
| Tensor.ravel
 | 看torch.ravel() | 
| Tensor.reciprocal
 | 看torch.reciprocal() | 
| Tensor.reciprocal_
 | 的就地版本reciprocal() | 
| Tensor.record_stream
 | 确保在当前排队的所有工作完成之前,张量内存不会被另一个张量重复使用。stream | 
| Tensor.register_hook
 | 注册一个向后钩子。 | 
| Tensor.remainder
 | 看torch.remainder() | 
| Tensor.remainder_
 | 的就地版本remainder() | 
| Tensor.renorm
 | 看torch.renorm() | 
| Tensor.renorm_
 | 的就地版本renorm() | 
| Tensor.repeat
 | 沿指定维度重复此张量。 | 
| Tensor.repeat_interleave
 | 看torch.repeat_interleave(). | 
| Tensor.requires_grad
 | 是如果需要为此 Tensor 计算梯度,否则。TrueFalse | 
| Tensor.requires_grad_
 | 更改 autograd 是否应该记录对此张量的作:就地设置此张量的属性。requires_grad | 
| Tensor.reshape
 | 返回一个张量,其数据和元素数与指定形状相同。self | 
| Tensor.reshape_as
 | 返回与 相同的形状的此张量。other | 
| Tensor.resize_
 | 将 tensor 大小调整为指定大小。self | 
| Tensor.resize_as_
 | 将张量大小调整为与指定大小相同的selftensor. | 
| Tensor.retain_grad
 | 允许此 Tensor 在 期间填充其 。gradbackward() | 
| Tensor.retains_grad
 | 如果此 Tensor 是非叶子的,并且允许在 期间填充它,否则。Truegradbackward()False | 
| Tensor.roll
 | 看torch.roll() | 
| Tensor.rot90
 | 看torch.rot90() | 
| Tensor.round
 | 看torch.round() | 
| Tensor.round_
 | 的就地版本round() | 
| Tensor.rsqrt
 | 看torch.rsqrt() | 
| Tensor.rsqrt_
 | 的就地版本rsqrt() | 
| Tensor.scatter
 | 的 Out-of-place versiontorch.Tensor.scatter_() | 
| Tensor.scatter_
 | 将张量中的所有值写入张量中指定的索引处。srcselfindex | 
| Tensor.scatter_add_
 | 将张量中的所有值添加到张量中指定的索引处,其方式与otherselfindexscatter_(). | 
| Tensor.scatter_add
 | 的 Out-of-place versiontorch.Tensor.scatter_add_() | 
| Tensor.scatter_reduce_
 | 使用通过参数 (、) 定义的应用缩减,将张量中的所有值减少到张量中张量中指定的索引。srcindexselfreduce"sum""prod""mean""amax""amin" | 
| Tensor.scatter_reduce
 | 的 Out-of-place versiontorch.Tensor.scatter_reduce_() | 
| Tensor.select
 | 看torch.select() | 
| Tensor.select_scatter
 | 看torch.select_scatter() | 
| Tensor.set_
 | 设置底层存储、大小和步幅。 | 
| Tensor.share_memory_
 | 将底层存储移动到共享内存。 | 
| Tensor.short
 | self.short()等效于 。self.to(torch.int16)
 | 
| Tensor.sigmoid
 | 看torch.sigmoid() | 
| Tensor.sigmoid_
 | 的就地版本sigmoid() | 
| Tensor.sign
 | 看torch.sign() | 
| Tensor.sign_
 | 的就地版本sign() | 
| Tensor.signbit
 | 看torch.signbit() | 
| Tensor.sgn
 | 看torch.sgn() | 
| Tensor.sgn_
 | 的就地版本sgn() | 
| Tensor.sin
 | 看torch.sin() | 
| Tensor.sin_
 | 的就地版本sin() | 
| Tensor.sinc
 | 看torch.sinc() | 
| Tensor.sinc_
 | 的就地版本sinc() | 
| Tensor.sinh
 | 看torch.sinh() | 
| Tensor.sinh_
 | 的就地版本sinh() | 
| Tensor.asinh
 | 看torch.asinh() | 
| Tensor.asinh_
 | 的就地版本asinh() | 
| Tensor.arcsinh
 | 看torch.arcsinh() | 
| Tensor.arcsinh_
 | 的就地版本arcsinh() | 
| Tensor.size
 | 返回张量的大小。self | 
| Tensor.slogdet
 | 看torch.slogdet() | 
| Tensor.slice_scatter
 | 看torch.slice_scatter() | 
| Tensor.sort
 | 看torch.sort() | 
| Tensor.split
 | 看torch.split() | 
| Tensor.sparse_mask
 | 返回一个新的稀疏张量,其中包含由 sparse 张量的索引过滤的跨步张量中的值。selfmask | 
| Tensor.sparse_dim
 | 返回稀疏张量中的稀疏维度数。self | 
| Tensor.sqrt
 | 看torch.sqrt() | 
| Tensor.sqrt_
 | 的就地版本sqrt() | 
| Tensor.square
 | 看torch.square() | 
| Tensor.square_
 | 的就地版本square() | 
| Tensor.squeeze
 | 看torch.squeeze() | 
| Tensor.squeeze_
 | 的就地版本squeeze() | 
| Tensor.std
 | 看torch.std() | 
| Tensor.stft
 | 看torch.stft() | 
| Tensor.storage
 | 返回基础存储。 | 
| Tensor.storage_offset
 | 返回 tensor 在底层存储中的偏移量,以存储元素(而不是字节)的数量表示。self | 
| Tensor.storage_type
 | 返回底层存储的类型。 | 
| Tensor.stride
 | 返回 tensor 的步幅。self | 
| Tensor.sub
 | 看torch.sub(). | 
| Tensor.sub_
 | 的就地版本sub() | 
| Tensor.subtract
 | 看torch.subtract(). | 
| Tensor.subtract_
 | 的就地版本subtract(). | 
| Tensor.sum
 | 看torch.sum() | 
| Tensor.sum_to_size
 | 将张量求和 为 。thissize | 
| Tensor.svd
 | 看torch.svd() | 
| Tensor.swapaxes
 | 看torch.swapaxes() | 
| Tensor.swapdims
 | 看torch.swapdims() | 
| Tensor.symeig
 | 看torch.symeig() | 
| Tensor.t
 | 看torch.t() | 
| Tensor.t_
 | 的就地版本t() | 
| Tensor.tensor_split
 | 看torch.tensor_split() | 
| Tensor.tile
 | 看torch.tile() | 
| Tensor.to
 | 执行 Tensor dtype 和/或 device 转换。 | 
| Tensor.to_mkldnn
 | 返回 layout 中张量的副本。torch.mkldnn | 
| Tensor.take
 | 看torch.take() | 
| Tensor.take_along_dim
 | 看torch.take_along_dim() | 
| Tensor.tan
 | 看torch.tan() | 
| Tensor.tan_
 | 的就地版本tan() | 
| Tensor.tanh
 | 看torch.tanh() | 
| Tensor.tanh_
 | 的就地版本tanh() | 
| Tensor.atanh
 | 看torch.atanh() | 
| Tensor.atanh_
 | 的就地版本atanh() | 
| Tensor.arctanh
 | 看torch.arctanh() | 
| Tensor.arctanh_
 | 的就地版本arctanh() | 
| Tensor.tolist
 | 以 (嵌套) 列表的形式返回张量。 | 
| Tensor.topk
 | 看torch.topk() | 
| Tensor.to_sparse
 | 返回张量的稀疏副本。 | 
| Tensor.trace
 | 看torch.trace() | 
| Tensor.transpose
 | 看torch.transpose() | 
| Tensor.transpose_
 | 的就地版本transpose() | 
| Tensor.triangular_solve
 | 看torch.triangular_solve() | 
| Tensor.tril
 | 看torch.tril() | 
| Tensor.tril_
 | 的就地版本tril() | 
| Tensor.triu
 | 看torch.triu() | 
| Tensor.triu_
 | 的就地版本triu() | 
| Tensor.true_divide
 | 看torch.true_divide() | 
| Tensor.true_divide_
 | 的就地版本true_divide_() | 
| Tensor.trunc
 | 看torch.trunc() | 
| Tensor.trunc_
 | 的就地版本trunc() | 
| Tensor.type
 | 如果未提供 dtype,则返回类型,否则将此对象强制转换为指定类型。 | 
| Tensor.type_as
 | 将此张量强制转换为给定张量的类型。 | 
| Tensor.unbind
 | 看torch.unbind() | 
| Tensor.unfold
 | 返回原始张量的视图,其中包含维度中 tensor 的所有大小切片。sizeselfdimension | 
| Tensor.uniform_
 | 用从连续均匀分布中采样的数字填充张量:self | 
| Tensor.unique
 | 返回输入张量的唯一元素。 | 
| Tensor.unique_consecutive
 | 从每组连续的等效元素中消除除第一个元素之外的所有元素。 | 
| Tensor.unsqueeze
 | 看torch.unsqueeze() | 
| Tensor.unsqueeze_
 | 的就地版本unsqueeze() | 
| Tensor.values
 | 返回稀疏 COO 张量的 values tensor。 | 
| Tensor.var
 | 看torch.var() | 
| Tensor.vdot
 | 看torch.vdot() | 
| Tensor.view
 | 返回一个新张量,其数据与张量相同,但具有不同的 。selfshape | 
| Tensor.view_as
 | 将此张量视为与 相同的大小。other | 
| Tensor.vsplit
 | 看torch.vsplit() | 
| Tensor.where
 | self.where(condition, y)等效于 。torch.where(condition, self, y)
 | 
| Tensor.xlogy
 | 看torch.xlogy() | 
| Tensor.xlogy_
 | 的就地版本xlogy() | 
| Tensor.zero_
 | 用零填充 tensor。self |