目录

(beta) PyTorch 中的通道后布局格式

创建日期: 2020年4月20日 | 最后更新日期: 2023年10月4日 | 最后验证日期: 2024年11月5日

作者: Vitaly Fedyunin

什么是Channels Last

通道后布局是一种在内存中重新排列NCHW张量的方式,同时保持维度顺序。在这种布局下,通道成为最密集的维度(即以像素为单位存储图像)。

例如,在经典(连续)存储中,NCHW 形式的张量(在这种情况下,是两个 4x4 的图像,每张图像有 3 个颜色通道)看起来像这样:

classic_memory_format

通道最后内存格式会以不同的方式排列数据:

channels_last_memory_format

Pytorch 支持内存格式,并通过利用现有的步幅结构提供与现有模型(包括 eager、JIT 和 TorchScript)的后向兼容性。 例如,在 Channels Last 格式下,一个 10x3x16x16 的批量数据的步幅将等于 (768, 1, 48, 3)。

通道后布局仅适用于4D NCHW张量。

Memory Format API

这里是如何将张量在连续存储和通道最后存储之间进行转换的方法。

经典连续的PyTorch张量

import torch

N, C, H, W = 10, 3, 32, 32
x = torch.empty(N, C, H, W)
print(x.stride())  # Outputs: (3072, 1024, 32, 1)
(3072, 1024, 32, 1)

转换操作

x = x.to(memory_format=torch.channels_last)
print(x.shape)  # Outputs: (10, 3, 32, 32) as dimensions order preserved
print(x.stride())  # Outputs: (3072, 1, 96, 3)
torch.Size([10, 3, 32, 32])
(3072, 1, 96, 3)

回到连续区域

x = x.to(memory_format=torch.contiguous_format)
print(x.stride())  # Outputs: (3072, 1024, 32, 1)
(3072, 1024, 32, 1)

替代选项

x = x.contiguous(memory_format=torch.channels_last)
print(x.stride())  # Outputs: (3072, 1, 96, 3)
(3072, 1, 96, 3)

格式检查

print(x.is_contiguous(memory_format=torch.channels_last))  # Outputs: True
True

两个API tocontiguous 之间有一些细微差别。我们建议在显式转换张量的内存格式时使用 to

对于一般情况,两个API的行为相同。但在特殊情况下,对于一个大小为NCHW的4D张量,当任意一个是C==1H==1 && W==1时,只有to才能生成正确的步长来表示通道最后存储格式。

这正是因为上述两种情况中的任意一种,张量的内存格式都是模糊的,即一个大小为 N1HW 的连续张量同时既是 contiguous 格式也是通道最后格式。 因此,它们已经被视为给定内存格式下的 is_contiguous ,所以 contiguous 调用会变成一个空操作且不会更新步长。相反,to 会在尺寸为 1 的维度上重新排列张量以正确表示所需的内存格式

special_x = torch.empty(4, 1, 4, 4)
print(special_x.is_contiguous(memory_format=torch.channels_last))  # Outputs: True
print(special_x.is_contiguous(memory_format=torch.contiguous_format))  # Outputs: True
True
True

同理也适用于显式排列API permute。在可能存在歧义的特殊情况下,permute 不保证生成一个合适的步长来正确携带预期的内存格式。我们建议使用带有明确内存格式的 to 来避免意外行为。

并且一个侧记,在三个非批量维度全部等于 1 (C==1 && H==1 && W==1) 的极端情况下,当前实现无法将张量标记为通道最后存储格式。

创建为通道最后

x = torch.empty(N, C, H, W, memory_format=torch.channels_last)
print(x.stride())  # Outputs: (3072, 1, 96, 3)
(3072, 1, 96, 3)

clone 保留了内存格式

y = x.clone()
print(y.stride())  # Outputs: (3072, 1, 96, 3)
(3072, 1, 96, 3)

to, cuda, float … 保留内存格式

if torch.cuda.is_available():
    y = x.cuda()
    print(y.stride())  # Outputs: (3072, 1, 96, 3)
(3072, 1, 96, 3)

empty_like, *_like 操作符保留内存格式

y = torch.empty_like(x)
print(y.stride())  # Outputs: (3072, 1, 96, 3)
(3072, 1, 96, 3)

点wise操作保留内存格式

z = x + y
print(z.stride())  # Outputs: (3072, 1, 96, 3)
(3072, 1, 96, 3)

Conv, Batchnorm 模块使用 cudnn 后端支持 channels last(仅在 cuDNN >= 7.6 时生效)。卷积模块与二元点wise操作符不同,其内存格式以 channels last 为主导。如果所有输入都在连续内存格式中,则操作符会产生连续内存格式的输出。否则,输出将处于 channels last 内存格式。

if torch.backends.cudnn.is_available() and torch.backends.cudnn.version() >= 7603:
    model = torch.nn.Conv2d(8, 4, 3).cuda().half()
    model = model.to(memory_format=torch.channels_last)  # Module parameters need to be channels last

    input = torch.randint(1, 10, (2, 8, 4, 4), dtype=torch.float32, requires_grad=True)
    input = input.to(device="cuda", memory_format=torch.channels_last, dtype=torch.float16)

    out = model(input)
    print(out.is_contiguous(memory_format=torch.channels_last))  # Outputs: True
True

当输入张量到达一个不支持通道最后布局的操作符时,内核会自动应用一个重排操作来恢复输入张量的连续性。这会引入额外开销并阻止通道最后内存格式的传播。不过,它能保证输出的正确性。

性能提升

Channels last 内存格式优化同时适用于GPU和CPU。 在GPU上,最显著的性能提升出现在支持Tensor Cores的NVIDIA硬件上,运行在低精度模式下(torch.float16)。 我们在使用‘AMP(自动混合精度)’训练脚本时,通过channels last格式实现了超过22%的性能提升,与连续格式相比。 我们的脚本使用了NVIDIA提供的AMP(https://github.com/NVIDIA/apex)。

python main_amp.py -a resnet50 --b 200 --workers 16 --opt-level O2  ./data

# opt_level = O2
# keep_batchnorm_fp32 = None <class 'NoneType'>
# loss_scale = None <class 'NoneType'>
# CUDNN VERSION: 7603
# => creating model 'resnet50'
# Selected optimization level O2:  FP16 training with FP32 batchnorm and FP32 master weights.
# Defaults for this optimization level are:
# enabled                : True
# opt_level              : O2
# cast_model_type        : torch.float16
# patch_torch_functions  : False
# keep_batchnorm_fp32    : True
# master_weights         : True
# loss_scale             : dynamic
# Processing user overrides (additional kwargs that are not None)...
# After processing overrides, optimization options are:
# enabled                : True
# opt_level              : O2
# cast_model_type        : torch.float16
# patch_torch_functions  : False
# keep_batchnorm_fp32    : True
# master_weights         : True
# loss_scale             : dynamic
# Epoch: [0][10/125] Time 0.866 (0.866) Speed 230.949 (230.949) Loss 0.6735125184 (0.6735) Prec@1 61.000 (61.000) Prec@5 100.000 (100.000)
# Epoch: [0][20/125] Time 0.259 (0.562) Speed 773.481 (355.693) Loss 0.6968704462 (0.6852) Prec@1 55.000 (58.000) Prec@5 100.000 (100.000)
# Epoch: [0][30/125] Time 0.258 (0.461) Speed 775.089 (433.965) Loss 0.7877287269 (0.7194) Prec@1 51.500 (55.833) Prec@5 100.000 (100.000)
# Epoch: [0][40/125] Time 0.259 (0.410) Speed 771.710 (487.281) Loss 0.8285319805 (0.7467) Prec@1 48.500 (54.000) Prec@5 100.000 (100.000)
# Epoch: [0][50/125] Time 0.260 (0.380) Speed 770.090 (525.908) Loss 0.7370464802 (0.7447) Prec@1 56.500 (54.500) Prec@5 100.000 (100.000)
# Epoch: [0][60/125] Time 0.258 (0.360) Speed 775.623 (555.728) Loss 0.7592862844 (0.7472) Prec@1 51.000 (53.917) Prec@5 100.000 (100.000)
# Epoch: [0][70/125] Time 0.258 (0.345) Speed 774.746 (579.115) Loss 1.9698858261 (0.9218) Prec@1 49.500 (53.286) Prec@5 100.000 (100.000)
# Epoch: [0][80/125] Time 0.260 (0.335) Speed 770.324 (597.659) Loss 2.2505953312 (1.0879) Prec@1 50.500 (52.938) Prec@5 100.000 (100.000)

Passing --channels-last true 允许在通道后格式下运行模型,并获得22%的性能提升。

python main_amp.py -a resnet50 --b 200 --workers 16 --opt-level O2 --channels-last true ./data

# opt_level = O2
# keep_batchnorm_fp32 = None <class 'NoneType'>
# loss_scale = None <class 'NoneType'>
#
# CUDNN VERSION: 7603
#
# => creating model 'resnet50'
# Selected optimization level O2:  FP16 training with FP32 batchnorm and FP32 master weights.
#
# Defaults for this optimization level are:
# enabled                : True
# opt_level              : O2
# cast_model_type        : torch.float16
# patch_torch_functions  : False
# keep_batchnorm_fp32    : True
# master_weights         : True
# loss_scale             : dynamic
# Processing user overrides (additional kwargs that are not None)...
# After processing overrides, optimization options are:
# enabled                : True
# opt_level              : O2
# cast_model_type        : torch.float16
# patch_torch_functions  : False
# keep_batchnorm_fp32    : True
# master_weights         : True
# loss_scale             : dynamic
#
# Epoch: [0][10/125] Time 0.767 (0.767) Speed 260.785 (260.785) Loss 0.7579724789 (0.7580) Prec@1 53.500 (53.500) Prec@5 100.000 (100.000)
# Epoch: [0][20/125] Time 0.198 (0.482) Speed 1012.135 (414.716) Loss 0.7007197738 (0.7293) Prec@1 49.000 (51.250) Prec@5 100.000 (100.000)
# Epoch: [0][30/125] Time 0.198 (0.387) Speed 1010.977 (516.198) Loss 0.7113101482 (0.7233) Prec@1 55.500 (52.667) Prec@5 100.000 (100.000)
# Epoch: [0][40/125] Time 0.197 (0.340) Speed 1013.023 (588.333) Loss 0.8943189979 (0.7661) Prec@1 54.000 (53.000) Prec@5 100.000 (100.000)
# Epoch: [0][50/125] Time 0.198 (0.312) Speed 1010.541 (641.977) Loss 1.7113249302 (0.9551) Prec@1 51.000 (52.600) Prec@5 100.000 (100.000)
# Epoch: [0][60/125] Time 0.198 (0.293) Speed 1011.163 (683.574) Loss 5.8537774086 (1.7716) Prec@1 50.500 (52.250) Prec@5 100.000 (100.000)
# Epoch: [0][70/125] Time 0.198 (0.279) Speed 1011.453 (716.767) Loss 5.7595844269 (2.3413) Prec@1 46.500 (51.429) Prec@5 100.000 (100.000)
# Epoch: [0][80/125] Time 0.198 (0.269) Speed 1011.827 (743.883) Loss 2.8196096420 (2.4011) Prec@1 47.500 (50.938) Prec@5 100.000 (100.000)

以下模型支持Channels last,并在Volta设备上表现出8%-35%的性能提升: alexnet, mnasnet0_5, mnasnet0_75, mnasnet1_0, mnasnet1_3, mobilenet_v2, resnet101, resnet152, resnet18, resnet34, resnet50, resnext50_32x4d, shufflenet_v2_x0_5, shufflenet_v2_x1_0, shufflenet_v2_x1_5, shufflenet_v2_x2_0, squeezenet1_0, squeezenet1_1, vgg11, vgg11_bn, vgg13, vgg13_bn, vgg16, vgg16_bn, vgg19, vgg19_bn, wide_resnet101_2, wide_resnet50_2

以下模型支持Channels last,并在Intel(R) Xeon(R) Ice Lake (或更新版本) CPU 上获得了26%-76% 的性能提升: alexnet, densenet121, densenet161, densenet169, googlenet, inception_v3, mnasnet0_5, mnasnet1_0, resnet101, resnet152, resnet18, resnet34, resnet50, resnext101_32x8d, resnext50_32x4d, shufflenet_v2_x0_5, shufflenet_v2_x1_0, squeezenet1_0, squeezenet1_1, vgg11, vgg11_bn, vgg13, vgg13_bn, vgg16, vgg16_bn, vgg19, vgg19_bn, wide_resnet101_2, wide_resnet50_2

转换现有模型

通道最后支持不受现有模型的限制,因为任何模型都可以转换为通道最后格式,并在输入(或某些权重)正确格式化后,将该格式通过整个计算图进行传播。

# Need to be done once, after model initialization (or load)
model = model.to(memory_format=torch.channels_last)  # Replace with your model

# Need to be done for every input
input = input.to(memory_format=torch.channels_last)  # Replace with your input
output = model(input)

然而,并非所有操作符都完全转换为支持 channels last 方式(通常返回连续内存格式的输出)。在上面的例子中,不支持 channels last 的层将会阻止内存格式的传播。尽管如此,既然我们已经将模型转换为 channels last 内存格式,这意味着每个卷积层(其4维权重以 channels last 内存格式存储)将会恢复 channels last 内存格式,并从中受益于更快的内核。

但不支持 channels last 的操作符会在重新排列时引入额外开销。如果你希望提高转换模型的性能,可以选择调查并识别出模型中不支持 channels last 的操作符。

这意味你需要验证所使用的操作符列表 与支持的操作符列表 https://github.com/pytorch/pytorch/wiki/Operators-with-Channels-Last-support, 或者在启用模式中引入内存格式检查并运行你的模型。

运行以下代码后,操作符会在操作的输出格式与输入不符时抛出异常。

def contains_cl(args):
    for t in args:
        if isinstance(t, torch.Tensor):
            if t.is_contiguous(memory_format=torch.channels_last) and not t.is_contiguous():
                return True
        elif isinstance(t, list) or isinstance(t, tuple):
            if contains_cl(list(t)):
                return True
    return False


def print_inputs(args, indent=""):
    for t in args:
        if isinstance(t, torch.Tensor):
            print(indent, t.stride(), t.shape, t.device, t.dtype)
        elif isinstance(t, list) or isinstance(t, tuple):
            print(indent, type(t))
            print_inputs(list(t), indent=indent + "    ")
        else:
            print(indent, t)


def check_wrapper(fn):
    name = fn.__name__

    def check_cl(*args, **kwargs):
        was_cl = contains_cl(args)
        try:
            result = fn(*args, **kwargs)
        except Exception as e:
            print("`{}` inputs are:".format(name))
            print_inputs(args)
            print("-------------------")
            raise e
        failed = False
        if was_cl:
            if isinstance(result, torch.Tensor):
                if result.dim() == 4 and not result.is_contiguous(memory_format=torch.channels_last):
                    print(
                        "`{}` got channels_last input, but output is not channels_last:".format(name),
                        result.shape,
                        result.stride(),
                        result.device,
                        result.dtype,
                    )
                    failed = True
        if failed and True:
            print("`{}` inputs are:".format(name))
            print_inputs(args)
            raise Exception("Operator `{}` lost channels_last property".format(name))
        return result

    return check_cl


old_attrs = dict()


def attribute(m):
    old_attrs[m] = dict()
    for i in dir(m):
        e = getattr(m, i)
        exclude_functions = ["is_cuda", "has_names", "numel", "stride", "Tensor", "is_contiguous", "__class__"]
        if i not in exclude_functions and not i.startswith("_") and "__call__" in dir(e):
            try:
                old_attrs[m][i] = e
                setattr(m, i, check_wrapper(e))
            except Exception as e:
                print(i)
                print(e)


attribute(torch.Tensor)
attribute(torch.nn.functional)
attribute(torch)

如果发现一个操作符不支持通道最后张量,并且您想要贡献,请参阅以下开发人员指南 https://github.com/pytorch/pytorch/wiki/Writing-memory-format-aware-operators.

以下代码用于恢复 torch 的属性。

for (m, attrs) in old_attrs.items():
    for (k, v) in attrs.items():
        setattr(m, k, v)

工作待完成

还有很多事情要做,例如:

  • Resolving ambiguity of N1HWNC11张量;

  • 分布式训练支持的测试;

  • 提高操作符覆盖范围。

如果您有反馈或改进建议,请通过创建一个问题告诉我们。

脚本总运行时间: ( 0 分钟 0.043 秒)

通过 Sphinx-Gallery 生成的画廊

文档

访问 PyTorch 的全面开发人员文档

查看文档

教程

获取面向初学者和高级开发人员的深入教程

查看教程

资源

查找开发资源并解答您的问题

查看资源