目录

torch.__future__

torch.__future__。set_overwrite_module_params_on_conversionvalue[来源]

设置是否为参数分配新张量,而不是更改 现有参数在转换 .nn.Module

启用后,以下方法将为模块分配新参数:

  1. module.{device}()(例如 ) 用于在设备之间移动模块nn.Module.cuda()

  2. module.{dtype}()(例如 ) 用于将模块转换为不同的 dtypenn.Module.float()

  3. nn.Module.to()

  4. nn.Module.to_empty()

参数

valuebool) – 是否分配新的张量。

torch.__future__。get_overwrite_module_params_on_conversion[来源]

返回是否为参数分配新张量,而不是更改 现有参数在转换torch.nn.Module.默认为 。False

set_overwrite_module_params_on_conversion()了解更多信息。

返回类型

布尔

torch.__future__。set_swap_module_params_on_conversionvalue[来源]

设置是否使用swap_tensors()而不是设置为 在转换 AND 时就地更改现有参数 of 将 state dict 加载到 ..datann.Moduleparam.copy_(state_dict[key])nn.Module

启用后,以下方法将就地交换现有参数:

  1. module.{device}()(例如 ) 用于在设备之间移动模块nn.Module.cuda()

  2. module.{dtype}()(例如 ) 用于将模块转换为不同的 dtypenn.Module.float()

  3. nn.Module.to()

  4. nn.Module.to_empty()

  5. nn.Module.load_state_dict()

设置此项时的语义如下:load_state_dict()

  1. 对于每个参数/缓冲区,其对应的参数/缓冲区通过state_dict['key']module_load()(即res = param.module_load(state_dict['key']))

  2. 如有必要,将包装在resParameter

  3. 模块中的参数/缓冲区将通过swap_tensors()res

参数

valuebool) – 是否使用swap_tensors()或者没有。

torch.__future__。get_swap_module_params_on_conversion[来源]

返回是否使用swap_tensors()而不是将 .data 设置为 在转换 .默认为 。nn.ModuleFalse

set_swap_module_params_on_conversion()了解更多信息。

返回类型

布尔

文档

访问 PyTorch 的全面开发人员文档

查看文档

教程

获取面向初学者和高级开发人员的深入教程

查看教程

资源

查找开发资源并解答您的问题

查看资源