PyTorch 功能示例¶ Recipes 是有关如何使用特定 PyTorch 功能的一口大小的可操作示例,与我们的完整教程不同。 All 定义神经网络 了解如何使用 PyTorch 的 torch.nn 包为 MNIST 数据集创建和定义神经网络。 基本 什么是 PyTorch 中的 state_dict 了解如何使用 state_dict 对象和 Python 字典从 PyTorch 保存或加载模型。 基本 在 PyTorch 中保存和加载用于推理的模型 了解在 PyTorch 中保存和加载模型以进行推理的两种方法 - 通过 state_dict 和通过整个模型。 基本 在 PyTorch 中保存和加载通用检查点 保存和加载用于推理或恢复训练的常规检查点模型有助于您上次离开的地方。在此配方中,探索如何保存和加载多个检查点。 基本 使用 PyTorch 在一个文件中保存和加载多个模型 在此方案中,了解保存和加载多个模型如何有助于重用您之前训练的模型。 基本 在 PyTorch 中使用来自不同模型的参数的热启动模型 了解通过部分加载模型或加载部分模型来预启动训练过程如何帮助您的模型比从头开始训练更快地收敛。 基本 在 PyTorch 中跨设备保存和加载模型 了解如何使用 PyTorch 相对简单地跨设备(CPU 和 GPU)保存和加载模型。 基本 在 PyTorch 中将梯度归零 了解何时应将梯度归零,以及这样做如何帮助提高模型的准确性。 基本 PyTorch 基准测试 了解如何使用 PyTorch 的基准测试模块来测量和比较代码的性能 基本 PyTorch 基准测试(快速入门) 了解如何衡量代码段运行时间和收集说明。 基本 PyTorch 分析器 了解如何使用 PyTorch 的分析器来测量操作员的时间和内存消耗 基本 具有检测和跟踪技术 API (ITT API) 支持的 PyTorch 分析器 了解如何将 PyTorch 的分析器与检测和跟踪技术 API (ITT API) 结合使用,以在英特尔® VTune™ Profiler GUI 中可视化运算符标记 基本 Torch 编译 IPEX 后端 了解如何使用 torch.compile IPEX 后端 基本 PyTorch 中形状的推理 了解如何使用 meta 设备来推断模型中的形状。 基本 加载 nn.来自 Checkpoint 的模块 了解加载 nn.Module 的 Module。 基本 (测试版)使用 TORCH_LOGS 观察 torch.compile 了解如何使用 torch 日志记录 API 来观察编译过程。 基本 nn 中的扩展点。用于加载 state_dict 和 Tensor 子类的模块 nn.模块。 基本 torch.export AOTInductor Python 运行时教程 了解如何使用 AOTInductor 进行 Python 运行时的端到端示例。 基本 使用 Captum 的模型可解释性 了解如何使用 Captum 将图像分类器的预测归因于其相应的图像特征,并可视化归因结果。 可解释性,Captum 如何将 TensorBoard 与 PyTorch 结合使用 了解 TensorBoard 与 PyTorch 的基本用法,以及如何在 TensorBoard UI 中可视化数据 可视化,TensorBoard 动态量化 将动态量化应用于简单的 LSTM 模型。 量化,文本,模型优化 用于部署的 TorchScript 了解如何以 TorchScript 格式导出经过训练的模型,以及如何在 C++ 中加载 TorchScript 模型并进行推理。 TorchScript 脚本 使用 Flask 部署 了解如何使用轻量级 Web 服务器 Flask 从经过训练的 PyTorch 模型快速设置 Web API。 生产,TorchScript PyTorch Mobile 性能配方 在移动设备(Android 和 iOS)上使用 PyTorch 的性能优化配方列表。 移动端,模型优化 制作使用 PyTorch 的 Android 原生应用程序Android 预构建库 了解如何使用 LibTorch C++ API 并使用带有自定义 C++ 运算符的 TorchScript 模型从头开始制作 Android 应用程序。 移动 Fuse Modules 配方 了解如何将 PyTorch 模块列表融合到单个模块中,以便在量化之前减小模型大小。 移动 移动配方的量化 了解如何减小模型大小并使其运行得更快,而不会对准确性造成太大损失。 移动,量化 针对移动设备编写脚本和优化 了解如何将模型转换为 TorchScipt 并(可选)针对移动应用程序对其进行优化。 移动 iOS 配方的模型准备 了解如何在 iOS 项目中添加模型以及使用适用于 iOS 的 PyTorch Pod。 移动 Android 配方的模型准备 了解如何在 Android 项目中添加模型以及使用适用于 Android 的 PyTorch 库。 移动 Android 和 iOS 中的移动口译工作流程 了解如何在 iOS 和 Andriod 设备上使用移动口译员。 移动 分析基于 RPC 的 PyTorch 工作负载 如何使用 PyTorch 分析器分析基于 RPC 的工作负载。 生产 自动混合精度 使用 torch.cuda.amp 来减少运行时并节省 NVIDIA GPU 上的内存。 模型优化 性能调优指南 实现最佳性能的提示。 模型优化 使用 run_cpu 脚本优化 Intel® Xeon® 上的 CPU 性能 如何使用 run_cpu 脚本在 Intel® Xeon CPU 上实现最佳运行时配置。 模型优化 AWS Graviton 处理器上的 PyTorch 推理性能优化 在 AWS Graviton CPU 上实现最佳推理性能的提示 模型优化 利用 Intel® Advanced Matrix Extensions 了解如何利用 Intel® Advanced Matrix Extensions。 模型优化 (测试版)使用 torch.compile 编译 Optimizer 使用 torch.compile 加速优化器 模型优化 (测试版)使用 LR Scheduler 运行编译的优化器 使用 LRScheduler 和 torch.compiled 优化器加快训练速度 模型优化 将用户定义的 Triton 内核与 ''torch.compile'' 一起使用 了解如何将用户定义的内核与 ''torch.compile'' 一起使用 模型优化 编译时缓存在 ''torch.compile'' 中 了解如何在 ''torch.compile'' 中配置编译时缓存 模型优化 通过区域编译减少 torch.compile 冷启动编译时间 了解如何使用区域编译来控制冷启动编译时间 模型优化 面向 PyTorch* 的英特尔®扩展 面向 PyTorch* 的英特尔®扩展简介 模型优化 适用于 PyTorch 的 Intel® Neural Compressor 使用 Intel® Neural Compressor 的 PyTorch 的易用性量化。 量化,模型优化 DeviceMesh 入门 了解如何使用 DeviceMesh 分布式训练 使用 ZeroRedundancyOptimizer 的分片优化器状态 如何使用 ZeroRedundancyOptimizer 减少内存消耗。 分布式训练 使用 TensorPipe RPC 进行直接设备到设备通信 如何将 RPC 与直接的 GPU 到 GPU 通信一起使用。 分布式训练 支持 TorchScript 的分布式优化器 如何启用 Distributed Optimizer 的 TorchScript 支持。 分布式训练,TorchScript 分布式检查点 (DCP) 入门 了解如何使用 Distributed Checkpoint 包对分布式模型进行检查点操作。 分布式训练 异步检查点 (DCP) 了解如何使用 Distributed Checkpoint 包对分布式模型进行检查点操作。 分布式训练 CommDebugMode 入门 了解如何将 CommDebugMode 用于 DTensor 分布式训练 将 PyTorch Stable Diffusion 模型部署为 Vertex AI 终端节点 了解如何使用 TorchServe 在 Vertex AI 中部署模型 生产