pytorch 使用加载训练好的模型做inference
2020-03-11 16:02
1366 查看
前提: 模型参数和结构是分别保存的
1、 构建模型(# load model graph)
model = MODEL()
2、加载模型参数(# load model state_dict)
model.load_state_dict ( { k.replace('module.',''):v for k,v in torch.load(config.model_path, map_location=config.device).items() } ) model = self.model.to(config.device) * config.device 指定使用哪块GPU或者CPU *k.replace('module.',''):v 防止torch.DataParallel训练的模型出现加载错误
(解决RuntimeError: module must have its parameters and buffers on device cuda:0 (device_ids[0]) but found one of them on device: cuda:1问题)
3、设置当前阶段为inference(# predict)
model.eval()
以上这篇pytorch 使用加载训练好的模型做inference就是小编分享给大家的全部内容了,希望能给大家一个参考
您可能感兴趣的文章:
相关文章推荐
- 深度学习笔记--使用keras训练&保存&加载CNN模型
- pytorch迁移学习,使用预训练模型
- PyTorch加载预训练模型(pretrained)
- pytorch模型加载跑测试集和训练过程中跑测试集结果不一致的问题
- Pytorch加载部分预训练模型的参数实例
- 使用pytorch搭建AlexNet操作(微调预训练模型及手动搭建)
- PyTorch(三)——使用训练好的模型测试自己图片
- 解决了PyTorch 使用torch.nn.DataParallel 进行多GPU训练的一个BUG:模型(参数)和数据不在相同设备上
- PyTorch加载预训练模型的问题
- PyTorch加载预训练模型实例(pretrained)
- 解决Pytorch 加载训练好的模型 遇到的error问题
- 如何找到使用官方的预训练模型(针对Pytorch)
- tensorflow: 保存和加载模型, 参数;以及使用预训练参数方法
- 【PyTorch图像语义分割】4. 使用训练好的模型测试
- 使用MATLAB加载训练好的caffe模型进行识别分类
- pytorch在cpu上加载预先训练好的GPU模型以及GPU上加载CPU上训练的Model
- Spark排序算法系列之(MLLib、ML)LR使用方式介绍(模型训练、保存、加载、预测)
- Spark排序算法系列之(MLLib、ML)GBDT+LR使用方式介绍(模型训练、保存、加载、预测)
- PyTorch 实战(模型训练、模型加载、模型测试)
- 使用ONNX和Caffe2对PyTorch训练的模型进行推断应用