torch.__future__¶
- torch.__future__。set_overwrite_module_params_on_conversion(value)[来源]¶
设置是否为参数分配新张量,而不是更改 现有参数在转换 .
nn.Module
启用后,以下方法将为模块分配新参数:
module.{device}()
(例如 ) 用于在设备之间移动模块nn.Module.cuda()
module.{dtype}()
(例如 ) 用于将模块转换为不同的 dtypenn.Module.float()
nn.Module.to()
nn.Module.to_empty()
- 参数
value (bool) – 是否分配新的张量。
- torch.__future__。get_overwrite_module_params_on_conversion()[来源]¶
返回是否为参数分配新张量,而不是更改 现有参数在转换
torch.nn.Module
.默认为 。False
看
set_overwrite_module_params_on_conversion()
了解更多信息。- 返回类型
- torch.__future__。set_swap_module_params_on_conversion(value)[来源]¶
设置是否使用
swap_tensors()
而不是设置为 在转换 AND 时就地更改现有参数 of 将 state dict 加载到 ..data
nn.Module
param.copy_(state_dict[key])
nn.Module
启用后,以下方法将就地交换现有参数:
module.{device}()
(例如 ) 用于在设备之间移动模块nn.Module.cuda()
module.{dtype}()
(例如 ) 用于将模块转换为不同的 dtypenn.Module.float()
nn.Module.to()
nn.Module.to_empty()
nn.Module.load_state_dict()
设置此项时的语义如下:
load_state_dict()
对于每个参数/缓冲区,其对应的参数/缓冲区通过
state_dict['key']
module_load()
(即res = param.module_load(state_dict['key'])
)如有必要,将包装在
res
Parameter
模块中的参数/缓冲区将通过
swap_tensors()
跟res
- 参数
value (bool) – 是否使用
swap_tensors()
或者没有。
- torch.__future__。get_swap_module_params_on_conversion()[来源]¶
返回是否使用
swap_tensors()
而不是将 .data 设置为 在转换 .默认为 。nn.Module
False
看
set_swap_module_params_on_conversion()
了解更多信息。- 返回类型