目录

torch.__future__

torch.__future__.set_overwrite_module_params_on_conversion(value)[source]

设置在将 nn.Module 转换时,是否将新张量分配给参数而不是就地更改现有参数。

启用后,以下方法将为模块分配新参数:

  1. module.{device}()(例如 nn.Module.cuda())用于在设备之间移动模块

  2. module.{dtype}()(例如 nn.Module.float())用于将模块转换为不同的数据类型

  3. nn.Module.to()

  4. nn.Module.to_empty()

Parameters

(布尔) – 是否分配新的张量。

torch.__future__.get_overwrite_module_params_on_conversion()[source]

返回在将一个 torch.nn.Module 转换时,是否将新张量分配给参数而不是就地修改现有参数。默认值为 False

请参阅 set_overwrite_module_params_on_conversion() 以获取更多信息。

Return type

布尔

torch.__future__.set_swap_module_params_on_conversion(value)[source]

设置是否使用 swap_tensors() 而不是设置 .data 来 在转换 nn.Module 时就地更改现有参数,以及在将状态字典加载到 nn.Module 时而不是使用 param.copy_(state_dict[key])

启用后,以下方法将就地交换现有参数:

  1. module.{device}()(例如 nn.Module.cuda())用于在设备之间移动模块

  2. module.{dtype}()(例如 nn.Module.float())用于将模块转换为不同的数据类型

  3. nn.Module.to()

  4. nn.Module.to_empty()

  5. nn.Module.load_state_dict()

当此设置为load_state_dict()时,其语义如下:

  1. 对于每个参数/缓冲区,其对应的state_dict['key']通过 module_load()(即res = param.module_load(state_dict['key']))进行转换

  2. 如果需要,res 将会被包装在一个 Parameter

  3. 模块中的参数/缓冲区将通过 swap_tensors()res 进行交换

Parameters

(布尔值) – 是否使用 swap_tensors()

torch.__future__.get_swap_module_params_on_conversion()[source]

返回是否使用 swap_tensors() 而不是设置 .data 来 在转换 nn.Module 时就地更改现有参数。默认为 False

请参阅 set_swap_module_params_on_conversion() 以获取更多信息。

Return type

布尔

文档

访问 PyTorch 的全面开发人员文档

查看文档

教程

获取面向初学者和高级开发人员的深入教程

查看教程

资源

查找开发资源并解答您的问题

查看资源