Pytorch 加载和保存模型

目录

保存和加载模型

1.  什么是状态字典:state_dict?

2.保存和加载推理模型

2.1 保存/加载 state_dict (推荐使用)

2.2 保存/加载完整模型

3. 保存和加载 Checkpoint 用于推理/继续训练

4. 在一个文件中保存多个模型

5. 使用在不同模型参数下的热启动模式

6. 通过设备保存/加载模型

6.1 保存到 CPU、加载到 CPU

6.2 保存到 GPU、加载到 GPU

6.3 保存到 CPU,加载到 GPU

6.4 保存 torch.nn.DataParallel 模型


 

截取自PyTorch官方教程中文版,这书好像是拼接的,没有页码。

其中一个版本地址:http://www.pytorch123.com/SecondSection/what_is_pytorch/,好像没有我下载的这本全

 

保存和加载模型

    当保存和加载模型时,需要熟悉三个核心功能:

    torch.save :将序列化对象保存到磁盘。此函数使用Python pickle 模块进行序列化。使用此函数可以保存如模型、tensor、                               字典等各种对象。

   torch.load :使用pickle unpickling 功能将pickle对象文件反序列化到内存。此功能还可以有助于设备加载数据。

   torch.nn.Module.load_state_dict :使用反序列化函数 state_dict 来加载模型的参数字典。

 

 

1. 什么是状态字典:state_dict?

PyTorch中, torch.nn.Module 模型的可学习参数(即权重和偏差)包含在模型的参数中,(使用 model.parameters() 可以进行访问)。 state_dict Python字典对象,它将每一层映射到其参数张量。注意,只有具有可学习参数的层(如卷积层,线性层等)的模型 才具有 state_dict 这一项。目标优化 torch.optim 也有 state_dict 属性,它包含有关优化器的状态信息,以及使用的超参数。

    因为state_dict的对象是Python字典,所以它们可以很容易的保存、更新、修改和恢复,为PyTorch模型和优化器添加了大量模块。

下面通过从简单模型训练一个分类器中来了解一下 state_dict 的使用。

import torch.nn as nn
import torch.nn.functional as F
import torch.optim as optim# 定义模型
class TheModelClass(nn.Module):def __init__(self):super(TheModelClass, self).__init__()self.conv1 = nn.Conv2d(3, 6, 5)self.pool = nn.MaxPool2d(2, 2)self.conv2 = nn.Conv2d(6, 16, 5)self.fc1 = nn.Linear(16 * 5 * 5, 120)self.fc2 = nn.Linear(120, 84)self.fc3 = nn.Linear(84, 10)def forward(self, x):x = self.pool(F.relu(self.conv1(x)))x = self.pool(F.relu(self.conv2(x)))x = x.view(-1, 16 * 5 * 5)x = F.relu(self.fc1(x))x = F.relu(self.fc2(x))x = self.fc3(x)return x# 初始化模型
model = TheModelClass()
# 初始化优化器
optimizer = optim.SGD(model.parameters(), lr=0.001, momentum=0.9)
# 打印模型的状态字典
print("Model's state_dict:")
for param_tensor in model.state_dict():print(param_tensor, "\t", model.state_dict()[param_tensor].size())
# 打印优化器的状态字典
print("Optimizer's state_dict:")
for var_name in optimizer.state_dict():print(var_name, "\t", optimizer.state_dict()[var_name])

运行结果:

 

 

2.保存和加载推理模型

2.1 保存/加载 state_dict (推荐使用)

1)保存

PATH = 'test.pt'torch.save(model.state_dict(),  PATH)

 

2)加载

model = TheModelClass(*args, **kwargs)model.load_state_dict(torch.load(PATH))model.eval()

    当保存好模型用来推断的时候,只需要保存模型学习到的参数,使用 torch.save() 函数来保存模型 state_dict ,它会给模型恢复提供 最大的灵活性,这就是为什么要推荐它来保存的原因。

    在 PyTorch 中最常见的模型保存使‘.pt’或者是‘.pth’作为模型文件扩展名。

    请记住,在运行推理之前,务必调用 model.eval() 去设置 dropout batch normalization 层为评估模式。如果不这么做,可能导致 模型推断结果不一致。

    注意:load_state_dict() 函数只接受字典对象,而不是保存对象的路径。这就意味着在你传给load_state_dict() 函数之前,你必须反序列化 你保存的 state_dict 。例如,你无法通过model.load_state_dict(PATH) 来加载模型。

 

2.2 保存/加载完整模型

1)保存

PATH = 'test.pt'torch.save(model, PATH)

2)加载

# 模型类必须在此之前被定义model = torch.load(PATH)model.eval()

    在 PyTorch 中最常见的模型保存使用‘.pt’或者是‘.pth’作为模型文件扩展名。

    此部分保存/加载过程使用最直观的语法并涉及最少量的代码。以 Python `pickle 模块的方式来保存模型。这种方法的缺点是序列化数据受 限于某种特殊的类而且需要确切的字典结构。这是因为pickle无法保存模型类本身。相反,它保存包含类的文件的路径,该文件在加载时使用。 因此,当在其他项目使用或者重构之后,您的代码可能会以各种方式中断。

    请记住,在运行推理之前,务必调用 model.eval() 设置 dropout batch normalization 层为评估模式。如果不这么做,可能导致模型推断结果不一致。

 

 

3. 保存和加载 Checkpoint 用于推理/继续训练

1)保存

PATH = 'test.tar'
torch.save({'epoch': epoch,'model_state_dict': model.state_dict(),'optimizer_state_dict': optimizer.state_dict(),'loss': loss,...
}, PATH)

2)加载

model = TheModelClass(*args, **kwargs)
optimizer = TheOptimizerClass(*args, **kwargs)
checkpoint = torch.load(PATH)
model.load_state_dict(checkpoint['model_state_dict'])
optimizer.load_state_dict(checkpoint['optimizer_state_dict'])
epoch = checkpoint['epoch']
loss = checkpoint['loss']
model.eval()
# - or -
model.train()

    要保存多个组件,请在字典中组织它们并使用 torch.save() 来序列化字典。PyTorch 中常见的保存checkpoint 是使用 .tar 文件扩展名。

    当保存成 Checkpoint 的时候,可用于推理或者是继续训练,保存的不仅仅是模型的 state_dict。保存优化器的 state_dict 也很重要, 因为它包含作为模型训练更新的缓冲区和参数。你也许想保存其他项目,比如最新记录的训练损失,外部的 torch.nn.Embedding 层等等。

    要加载项目,首先需要初始化模型和优化器,然后使用 torch.load() 来加载本地字典。这里,你可以非常容易的通过简单查询字典来访问你所保存的项目。

    请记住在运行推理之前,务必调用 model.eval() 去设置 dropout batch normalization 为评估。如果不这样做,有可能得到不一致的推断结果。 如果你想要恢复训练,请调用 model.train() 以确保这些层处于训练模式。

 

 

4. 在一个文件中保存多个模型

1)保存

PATH = 'test.tar'
torch.save({'modelA_state_dict': modelA.state_dict(),'modelB_state_dict': modelB.state_dict(),'optimizerA_state_dict': optimizerA.state_dict(),'optimizerB_state_dict': optimizerB.state_dict(),...
}, PATH)

2)加载

modelA = TheModelAClass(*args, **kwargs)modelB = TheModelBClass(*args, **kwargs)optimizerA = TheOptimizerAClass(*args, **kwargs)optimizerB = TheOptimizerBClass(*args, **kwargs)checkpoint = torch.load(PATH)modelA.load_state_dict(checkpoint['modelA_state_dict'])modelB.load_state_dict(checkpoint['modelB_state_dict'])optimizerA.load_state_dict(checkpoint['optimizerA_state_dict'])optimizerB.load_state_dict(checkpoint['optimizerB_state_dict'])modelA.eval()modelB.eval()# - or -modelA.train()modelB.train()

    PyTorch 中常见的保存 checkpoint 是使用 .tar 文件扩展名。

    要加载项目,首先需要初始化模型和优化器,然后使用 torch.load() 来加载本地字典。这里,你可以非常容易的通过简单查询字典来访问你所保存的项目。

    请记住在运行推理之前,务必调用 model.eval() 去设置 dropout batch normalization 为评估。如果不这样做,有可能得到不一致的推断结果。 如果你想要恢复训练,请调用 model.train() 以确保这些层处于训练模式。

 

 

5. 使用在不同模型参数下的热启动模式

1)保存

PATH = 'test.pt'
torch.save(modelA.state_dict(), PATH)

2)加载

modelB = TheModelBClass(*args, **kwargs)
modelB.load_state_dict(torch.load(PATH), strict=False)

    在迁移学习或训练新的复杂模型时,部分加载模型或加载部分模型是常见的情况。利用训练好的参数,有助于热启动训练过程,并希望帮助你的模型比从头开始训练能够更快地收敛。

    无论是从缺少某些键的 state_dict 加载还是从键的数目多于加载模型的 state_dict , 都可以通过在load_state_dict() 函数中将 strict 参数设置为 False 来忽略非匹配键的函数。

    如果要将参数从一个层加载到另一个层,但是某些键不匹配,主要修改正在加载的 state_dict 中的参数键的名称以匹配要在加载到模型中的键即可。

 

 

6. 通过设备保存/加载模型

6.1 保存到 CPU、加载到 CPU

1)保存

PATH = 'test.pt'
torch.save(model.state_dict(), PATH)

2)加载

device = torch.device('cpu')model = TheModelClass(*args, **kwargs)model.load_state_dict(torch.load(PATH, map_location=device))

    当从CPU上加载模型在GPU上训练时, torch.device('cpu') 传递给 torch.load() 函数中的map_location 参数.在这种情况下,使用 map_location 参数将张量下的存储器动态的重新映射到CPU设备。

 

6.2 保存到 GPU、加载到 GPU

1)保存

PATH = 'test.pt'
torch.save(model.state_dict(), PATH)

2)加载

device = torch.device("cuda")model = TheModelClass(*args, **kwargs)model.load_state_dict(torch.load(PATH))model.to(device)# 确保在你提供给模型的任何输入张量上调用input = input.to(device)

    当在GPU上训练并把模型保存在GPU,只需要使用 model.to(torch.device('cuda')) ,将初始化的 model 转换为 CUDA 优化模型。另外,请 务必在所有模型输入上使用.to(torch.device('cuda')) 函数来为模型准备数据。请注意,调用 my_tensor.to(device)

会在GPU上返回 my_tensor 的副本。 因此,请记住手动覆盖张量: my_tensor=my_tensor.to(torch.device('cuda'))

 

6.3 保存到 CPU,加载到 GPU

1)保存

PATH = 'test.pt'
torch.save(model.state_dict(), PATH)

2)加载

device = torch.device("cuda")
model = TheModelClass(*args, **kwargs)
# Choose whatever GPU device number you want
model.load_state_dict(torch.load(PATH, map_location="cuda:0"))
model.to(device)
# 确保在你提供给模型的任何输入张量上调用input = input.to(device)

    在CPU上训练好并保存的模型加载到GPU时,将 torch.load() 函数中的 map_location 参数设置为 cuda:device_id 。这会将模型加载到 指定的GPU设备。接下来,请务必调用model.to(torch.device('cuda')) 将模型的参数张量转换为 CUDA 张量。最后,确保在所有模型输入上使用 .to(torch.device('cuda')) 函数来为CUDA优化模型。请注意,调用my_tensor.to(device) 会在GPU上返回 my_tensor 的新副本。它不会覆盖 my_tensor 此, 请手动覆盖张量 my_tensor = my_tensor.to(torch.device('cuda'))

 

6.4 保存 torch.nn.DataParallel 模型

1)保存

PATH = 'test.pt'
torch.save(model.state_dict(), PATH)

2)加载

# 加载任何你想要的设备

  torch.nn.DataParallel 是一个模型封装,支持并行GPU使用。要普通保存 DataParallel 模型,请保存 model.module.state_dict() 这样,你就可以非常灵活地以任何方式加载模型到你想要的设备中。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/350246.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

02-CSS基础与进阶-day9_2018-09-12-20-29-40

定位 静态定位 position: static 相对定位 position: relative 绝对定位 position: absolute 脱标 参考点 子绝父相 让绝对定位的盒子水平居中和垂直居中 固定定位 position: fixed 参考点 浏览器左上角 固定定位的元素脱标不占有位置 兼容性 ie6低版本不支持固定定位 02绝对…

activity直接销毁_Android -- Activity的销毁和重建

两种销毁第一种是正常的销毁,比如用户按下Back按钮或者是activity自己调用了finish()方法;另一种是由于activity处于stopped状态,并且它长期未被使用,或者前台的activity需要更多的资源,这些情况下系统就会关闭后台的进…

Storm和Kafka集成的重要生产错误和修复

我将在此处描述Storm和Kafka集成模块的一些细节,一些您应该意识到的重要错误以及如何克服其中的一些错误(尤其是对于生产安装)。 我在生产安装中大量使用Apache Storm,并将Kafka作为主要输入源(Spout)。 …

博客园背景设置CSS代码

/配色参考->>->>>//https://zh.spycolor.com/color-index,a*/ #home { margin: 0 auto; width: 90%;/原始65/ min-width: 980px;/页面顶部的宽度/ background-color:rgba(233,214,107,0.3);/博客主页主体框的颜色/ padding: 30px; margin-top: 25px; margin-bot…

matplotlib 画多条折线图且x轴下标非数值

直接上python代码: # -*- coding: utf-8 -*- import matplotlib.pyplot as plt names [GFK, SA, DA-NBNN, DLID, DaNN, Ours] x range(len(names))y_1 [0.464, 0.45, 0.528, 0.519, 0.536, 0.841] y_2 [0.613, 0.648, 0.766, 0.782, 0.712, 0.954] y_3 [0.663…

julia常用矩阵函数_Julia系列教程3 数学运算 矩阵运算

数学运算https://www.zhihu.com/video/1113554595376295936数学运算比Matlab更直观的数学表达方式x 102x>>20但这就导致了可能会出现语法的冲突十六进制整数文本表达式 0xff 可以被解析为数值文本 0 乘以变量 xff浮点数文本表达式 1e10 可以被解析为数值文本 1 乘以变量…

Mysql 模糊查询 转义字符

MySQL的转义字符“\”\0 一个ASCII 0 (NUL)字符。 \n 一个新行符。 \t 一个定位符。 \r 一个回车符。 \b 一个退格符。 \ 一个单引号(“”)符。 \ " 一个双引号(“ "”)符。 \\ 一个反斜线(“\”)符。 \% 一个…

Pytorch LSTM初识(详解LSTM+torch.nn.LSTM()实现)1

pytorch LSTM1初识 目录 pytorch LSTM1初识 ​​​​​​​​​​​​​​​​​​​​​ 一、LSTM简介1

Java命令行界面(第8部分):Argparse4j

Argparse4j是“ Java命令行参数解析器库”,其主页描述为“基于Python的argparse模块的Java命令行参数解析器库”。 在本文中,我将简要介绍如何使用Argparse4j 0.7.0处理命令行参数,该参数与本系列中的前七篇有关Java命令行处理的文章中所解析…

MvvmLight框架使用入门(三)

MvvmLight框架使用入门(三) 本篇是MvvmLight框架使用入门的第三篇。从本篇开始,所有代码将通过Windows 10的Universal App来演示。我们将创建一个Universal App并应用MvvmLight框架。 首先通过VS2015创建一个名为UniversalApp的空工程&#x…

Pytorch LSTM实例2

对Pytorch中LSTM实例稍作修改,这是一个词性标注的实例 #导入相应的包 import torch import torch.nn as nn import torch.nn.functional as F import torch.optim as optimtorch.manual_seed(1)#准备数据的阶段 def prepare_sequence(seq, to_ix):idxs = [to_ix[w] for w in …

java更好的语言_Java,如果这是一个更好的世界

java更好的语言只是梦想着有一个更好的世界,在该世界中,Java平台中的一些旧错误已得到纠正,而某些令人敬畏的缺失功能也已实现。 不要误会我的意思。 我认为Java很棒。 但是它仍然存在一些问题,就像其他平台一样。 我没有任何特定…

anaconda安装成功测试_学习笔记120—Win10 成功安装Anaconda 【亲测有效,需注意几点!!!】...

Win10 下安装 Anaconda一、下载安装 Anaconda(勾选 PATH):Anaconda 是专注于数据分析的 Python 发行版本,包含了 conda、Python 等 190 多个科学包及其依赖项。使用 Anaconda 的好处在于可以省去很多配置环境的步 骤,省时省心又便于分析。下载…

Pytorch 词嵌入word_embedding1初识

torch.nn.Embedding(num_embeddings, embedding_dim, padding_idx=None, max_norm=None, norm_type=2, scale_grad_by_freq=False, sparse=False)参数所表示的含义: num_embeddings (int) :嵌入字典的大小 embedding_dim (int) :每个嵌入向量的大小 padding_idx (int, optio…

Python语言 目录

待续.... 转载于:https://www.cnblogs.com/jiangchunsheng/p/11077884.html

JDK 9清单:Project Jigsaw,sun.misc.Unsafe,G1,REPL等

Java 9距离(希望)数月了,现在该讨论一下即将发生的变化以及您应该采取的措施 Java 9即将来临(我们正在计算到达的日子 ),其中包含一系列新功能和改进功能。 这就是为什么我们决定创建一份清单来准备自己的…

Pytorch 词嵌入word_embedding2实例(加载已训练词向量)

目录 1、加载已训练好的词嵌入 2、是否需要重新训练词嵌入 3、不重新训练词嵌入时优化器设置

IPv4数据报格式及其语义

IPv4数据报格式及其语义 一、IP数据报的格式如下图所示 版本 首部长度 服务类型 数据报长度 16比特标识 标志 13比特片偏移 寿命 上层协议 首部检验和 32比特源IP地址 32比特目的IP地址 选项(如果有的话) 数据 IPv4数据报格式 二、各部分语…

华景机器人怎么控制_【华景QQ机器人怎么用】华景QQ机器人好不好_使用技巧-ZOL软件百科...

发布日期:2016年02月21日 Release 2 && Release 3新增功能和优化及修复修复严重崩溃问题。全面支持emoji表情。修复某些用户不能登录。轻量级重包处理。优化消息显示。修复一个数组越界错误。修复一个数组下标不能为0错误。加快消息处理速度。UI线程与消息处…

Java命令行界面(第9部分):parse-cmd

parse-cmd库由单个类ParseCmd.java组成,该类是“用于在Java应用程序中定义和解析命令行参数的Java类。” 该库托管在Google Code存档上 ,因此可以随时关闭 。 该JAR似乎也可以在GitHub上使用 。 这篇文章介绍了如何使用parse-cmd 0.0.93处理Java中的命令…