广播语义¶
许多PyTorch操作支持NumPy的广播语义。 详情请见 https://numpy.org/doc/stable/user/basics.broadcasting.html。
简而言之,如果一个PyTorch操作支持广播,那么它的Tensor参数可以自动扩展为相同的大小(无需复制数据)。
一般语义¶
两个张量是“可广播”的,如果满足以下规则:
每个张量至少有一个维度。
在遍历维度大小时,从尾部维度开始, 维度大小必须相等,其中一个为1,或者其中一个不存在。
例如:
>>> x=torch.empty(5,7,3)
>>> y=torch.empty(5,7,3)
# same shapes are always broadcastable (i.e. the above rules always hold)
>>> x=torch.empty((0,))
>>> y=torch.empty(2,2)
# x and y are not broadcastable, because x does not have at least 1 dimension
# can line up trailing dimensions
>>> x=torch.empty(5,3,4,1)
>>> y=torch.empty( 3,1,1)
# x and y are broadcastable.
# 1st trailing dimension: both have size 1
# 2nd trailing dimension: y has size 1
# 3rd trailing dimension: x size == y size
# 4th trailing dimension: y dimension doesn't exist
# but:
>>> x=torch.empty(5,2,4,1)
>>> y=torch.empty( 3,1,1)
# x and y are not broadcastable, because in the 3rd trailing dimension 2 != 3
如果两个张量 x, y 是“可广播”的,那么结果张量的大小
将按照以下方式计算:
如果维度数为
x和y不相等,则在维度较少的张量的维度前添加1,以使它们长度相等。然后,对于每个维度大小,结果的维度大小是沿该维度的
x和y的最大值。
例如:
# can line up trailing dimensions to make reading easier
>>> x=torch.empty(5,1,4,1)
>>> y=torch.empty( 3,1,1)
>>> (x+y).size()
torch.Size([5, 3, 4, 1])
# but not necessary:
>>> x=torch.empty(1)
>>> y=torch.empty(3,1,7)
>>> (x+y).size()
torch.Size([3, 1, 7])
>>> x=torch.empty(5,2,4,1)
>>> y=torch.empty(3,1,1)
>>> (x+y).size()
RuntimeError: The size of tensor a (2) must match the size of tensor b (3) at non-singleton dimension 1
原地语义¶
一个复杂之处在于,原地操作不允许广播导致的原地张量形状发生变化。
例如:
>>> x=torch.empty(5,3,4,1)
>>> y=torch.empty(3,1,1)
>>> (x.add_(y)).size()
torch.Size([5, 3, 4, 1])
# but:
>>> x=torch.empty(1,3,1)
>>> y=torch.empty(3,1,7)
>>> (x.add_(y)).size()
RuntimeError: The expanded size of the tensor (1) must match the existing size (7) at non-singleton dimension 2.
向后兼容性¶
PyTorch的早期版本允许某些逐点函数在形状不同的张量上执行,只要每个张量中的元素数量相等即可。然后通过将每个张量视为一维来执行逐点操作。现在PyTorch支持广播,并且“一维”逐点行为被视为已弃用,在张量不可广播但具有相同元素数量的情况下将生成Python警告。
请注意,广播的引入可能会导致在两个张量形状不同但可广播且具有相同元素数量的情况下出现向后不兼容的更改。 例如:
>>> torch.add(torch.ones(4,1), torch.randn(4))
之前会生成一个大小为: torch.Size([4,1]) 的张量,但现在生成的张量大小为: torch.Size([4,4])。 为了帮助识别代码中可能存在广播引入的向后不兼容情况, 你可以将 torch.utils.backcompat.broadcast_warning.enabled 设置为 True,这样在这些情况下会生成一个 Python 警告。
例如:
>>> torch.utils.backcompat.broadcast_warning.enabled=True
>>> torch.add(torch.ones(4,1), torch.ones(4))
__main__:1: UserWarning: self and other do not have the same shape, but are broadcastable, and have the same number of elements.
Changing behavior in a backwards incompatible manner to broadcasting rather than viewing as 1-dimensional.