使用PyTorch进行迁移学习(pytorch模型迁移)
ztj100 2024-10-31 16:13 35 浏览 0 评论
以及为什么不应该从头开始编写CNN架构
如今,训练深度学习模型(尤其是与图像识别相关的模型)是一项非常简单的任务。 您不应该过多强调架构的原因很多,主要是有人已经为您完成了这一步骤。 其余的,您需要进一步阅读。
源代码:Colab Notebook
如今,作为工程师,您唯一应关注的就是数据准备-在深度学习领域,该术语概括了数据收集,加载,规范化和扩充的过程。
今天的议程很简单-解释什么是转移学习以及如何使用转移学习,然后给出带有或不带有预训练架构的模型训练的实际示例。
听起来很简单,所以我们直接开始吧!
数据集下载和基本准备
让我们从导入开始。 在这里,我们有像Numpy,Pandas和Matplotlib这样的常见嫌疑人,还有我们最喜欢的深度学习库Pytorch,其次是它所提供的一切。
import os
import numpy as np
import pandas as pd
import matplotlib.pyplot as plt
from datetime import datetime
import torch
import torch.nn as nn
import torch.nn.functional as F
from torch.utils.data import DataLoader
from torchvision.utils import make_grid
from torchvision import models, transforms, datasets
我们将在Colab或Colab Pro中更精确地编写此代码,因此我们将利用GPU的强大功能进行培训。
由于我们正在使用GPU进行培训,而您可能并非如此,因此,我们需要一种可靠的方法来进行处理。 这是一种标准方法:
device = torch.device(‘cuda:0’ if torch.cuda.is_available() else ‘cpu’)
device
>>> device(type=’cuda’, index=0)
如果您正在使用CPU进行培训,则应该输入type ='cpu'之类的字眼,但是由于Colab是免费的,因此您无需这样做。
现在到数据集上。 我们将为此使用Dog或Cat数据集。 它具有大量各种尺寸的图像,我们将在以后处理这些图像。 现在,我们需要下载并解压缩它。 就是这样:
%mkdir data
%cd /content/data/
!wget http://files.fast.ai/data/dogscats.zip
!unzip dogscats.zip
大约一分钟后,根据您的互联网速度,可以使用该数据集。 现在,我们可以将其声明为数据目录-不是必需的,但可以节省一些时间。
DIR_DATA = '/content/data/dogscats/'
资料准备
现在已经完成了第一部分的第一部分。 接下来,我们必须对训练和验证子集应用一些转换,然后使用DataLoaders加载转换后的数据。 这是我们应用的转换:
· 随机旋转
· 随机水平翻转
· 调整为224x224-预训练架构所需
· 转换为张量
· 正常化
这是代码:
train_transforms = transforms.Compose([
transforms.RandomRotation(10),
transforms.RandomHorizontalFlip(p=0.5),
transforms.Resize(224),
transforms.CenterCrop((224, 224)),
transforms.ToTensor(),
transforms.Normalize(
mean=[0.485, 0.456, 0.406],
std=[0.229, 0.224, 0.225]
)
])
valid_transforms = transforms.Compose([
transforms.Resize(224),
transforms.CenterCrop((224, 224)),
transforms.ToTensor(),
transforms.Normalize(
mean=[0.485, 0.456, 0.406],
std=[0.229, 0.224, 0.225]
)
])
现在,我们使用DataLoaders加载数据。 此步骤也很简单,您可能已经熟悉了:
train_data = datasets.ImageFolder(os.path.join(DIR_DATA, ‘train’), transform=train_transforms)
valid_data = datasets.ImageFolder(os.path.join(DIR_DATA, ‘valid’), transform=valid_transforms)
torch.manual_seed(42)
train_loader = DataLoader(train_data, batch_size=64, shuffle=True)
valid_loader = DataLoader(valid_data, batch_size=64, shuffle=False)
class_names = train_data.classes
class_names
>>> ['cats', 'dogs']
如果现在要对单个批次进行逆归一化并可视化,则可以得到以下信息:
快速浏览上图表明我们的转换工作符合预期。
数据准备部分现已完成,在下一节中,我们将声明一个自定义的CNN架构,对其进行训练并评估性能。
定制架构CNN
对于这一部分,我们想要做一些非常简单的事情-3个卷积层,每个卷积层之后是max-pooling和ReLU,然后是一个完全连接的层和一个输出层。
这是该架构的代码:
class CustomCNN(nn.Module):
def __init__(self):
super().__init__()
self.conv1 = nn.Conv2d(in_channels=3, out_channels=32, kernel_size=3, stride=1)
self.conv2 = nn.Conv2d(in_channels=32, out_channels=64, kernel_size=3, stride=1)
self.conv3 = nn.Conv2d(in_channels=64, out_channels=64, kernel_size=3, stride=1)
self.fc1 = nn.Linear(in_features=26*26*64, out_features=128)
self.out = nn.Linear(in_features=128, out_features=2)
def forward(self, x):
x = F.relu(self.conv1(x))
x = F.max_pool2d(x, kernel_size=2, stride=2)
x = F.relu(self.conv2(x))
x = F.max_pool2d(x, kernel_size=2, stride=2)
x = F.relu(self.conv3(x))
x = F.max_pool2d(x, kernel_size=2, stride=2)
x = x.view(-1, 26*26*64)
x = F.relu(self.fc1(x))
x = F.dropout(x, p=0.2)
x = self.out(x)
return F.log_softmax(x, dim=1)
torch.manual_seed(42)
model = CustomCNN()
model.to(device)
从这里我们可以定义一个优化器和标准,我们准备进行训练:
custom_criterion = nn.CrossEntropyLoss()
custom_optimizer = torch.optim.Adam(model.parameters(), lr=0.001)
由于您可以访问源代码,并且train_model函数很长,因此我们决定不将其放在此处。 因此,如果您要继续,请参考源代码。 我们将训练模型10个时间段:
custom_model_trained = train_model(
train_loader=train_loader,
test_loader=valid_loader,
model=model,
criterion=custom_criterion,
optimizer=custom_optimizer,
epochs=10
)
一段时间后,这里是获得的结果:
无论如何,这都不是可怕的结果,但是我们如何才能做得更好? 迁移学习就派得上用场了。
迁移学习
您可以轻松地在线查找正式定义。 对我们而言,迁移学习意味着下载预制的体系结构,该体系结构接受过1M +图像的训练,并调整输出层,以便根据需要对尽可能多的类进行分类。
由于我们这里只有猫和狗,因此我们需要将此数字修改为两个。
现在,我们将下载ResNet101架构的预训练版本,并使它的参数不可训练-因为该网络已经过训练:
pretrained_model = models.resnet101(pretrained=True)
for param in pretrained_model.parameters():
param.requires_grad = False
赞! 让我们检查一下输出层的外观:
pretrained_model.fc
>>> Linear(in_features=2048, out_features=1000, bias=True)
因此,默认情况下,该体系结构具有1000个可能的类,但是我们只需要两个类-一个用于猫,一个用于狗。 调整方法如下:
pretrained_model.fc = nn.Sequential(
nn.Linear(2048, 1000),
nn.ReLU(),
nn.Dropout(0.5),
nn.Linear(1000, 2),
nn.LogSoftmax(dim=1)
)
pretrained_model.to(device)
这就是我们要做的。
好了,我们仍然必须定义和优化器以及一个准则,但是您知道如何做到这一点:
pretrained_criterion = nn.CrossEntropyLoss()
pretrained_optimizer = torch.optim.Adam(pretrained_model.fc.parameters(), lr=0.001)
训练过程与自定义体系结构相同,但是我们不需要太多的时间,因为好了,我们已经知道权重和偏差的正确值。
pretrained_model_trained = train_model(
train_loader=train_loader,
test_loader=valid_loader,
model=pretrained_model,
criterion=pretrained_criterion,
optimizer=pretrained_optimizer,
epochs=1
)
经过一段时间后,得出的结果如下:
那有多神奇? 不但提高了准确性,而且还因为没有训练太多的时间段而节省了很多时间。
现在您知道了迁移学习可以做什么,以及如何以及为什么使用它。 让我们在下一节中总结一下。
结论
而且,您已获得了— PyTorch最简单的迁移学习指南。 当然,如果网络更深入,自定义模型的结果可能会更好,但这不是重点。 关键是,无需强调多少层就足够了,以及最佳超参数值是多少。 至少在大多数情况下。
确保尝试不同的体系结构,并随时在下面的评论部分中告知我们有关结果的信息。
谢谢阅读。
(本文翻译自Dario Rade?i?的文章《Transfer Learning with PyTorch》,参考:https://towardsdatascience.com/transfer-learning-with-pytorch-95dd5dca82a)
相关推荐
- 作为后端开发,你知道MyBatis有哪些隐藏的 “宝藏” 扩展点吗?
-
在互联网大厂后端开发领域,MyBatis作为一款主流的持久层框架,凭借其灵活的配置与强大的数据处理能力,广泛应用于各类项目之中。然而,随着业务场景日趋复杂、系统规模不断扩张,开发过程中常面临SQL...
- 基于Spring+SpringMVC+Mybatis分布式敏捷开发系统架构(附源码)
-
前言zheng项目不仅仅是一个开发架构,而是努力打造一套从前端模板-基础框架-分布式架构-开源项目-持续集成-自动化部署-系统监测-无缝升级的全方位J2EE企业级开发解...
- 基于Java实现,支持在线发布API接口读取数据库,有哪些工具?
-
基于java实现,不需要编辑就能发布api接口的,有哪些工具、平台?还能一键发布、快速授权和开放提供给第三方请求调用接口的解决方案。架构方案设计:以下是一些基于Java实现的无需编辑或只需少量编辑...
- Mybatis Plus框架学习指南-第三节内容
-
自动填充字段基本概念MyBatis-Plus提供了一个便捷的自动填充功能,用于在插入或更新数据时自动填充某些字段,如创建时间、更新时间等。原理...
- 被你误删了的代码,在 IntelliJ IDEA中怎么被恢复
-
在IntelliJIDEA中一不小心将你本地代码给覆盖了,这个时候,你ctrl+z无效的时候,是不是有点小激动?我今天在用插件mybatisgenerator自动生成mapper的时候,...
- 修改 mybatis-generator 中数据库类型和 Java 类型的映射关系
-
使用mybatis-generator发现数据库类型是tinyint(4),生成model时字段类型是Byte,使用的时候有点不便数据库的类型和Model中Java类型的关系...
- 又被问到了, java 面试题:反射的实现原理及用途?
-
一、反射的实现原理反射(Reflection)是Java在运行时动态获取类的元数据(如方法、字段、构造器等)并操作类对象的能力。其核心依赖于...
- Spring Boot 中JPA和MyBatis技术那个更好?
-
你在进行SpringBoot项目开发时,是不是也经常在选择JPA和MyBatis这两个持久化技术上犯难?面对众多前辈的经验之谈,却始终拿不准哪种技术才最适合自己的项目?别担心,今天咱们就...
- Spring Boot (七)MyBatis代码自动生成和辅助插件
-
一、简介1.1MyBatisGenerator介绍MyBatisGenerator是MyBatis官方出品的一款,用来自动生成MyBatis的mapper、dao、entity的框架,让...
- 解决MyBatis Generator自动生成.java.1文件
-
MyBatis框架操作数据库,一张表对应着一个实体类、一个Mapper接口文件、一个Mapper映射文件。一个工程项目通常最少也要几十张表,那工作量可想而知非常巨大的,MyBatis框架替我们想好了解...
- Linux yq 命令使用详解
-
简介yq是一个轻量级、可移植的命令行...
- Python学不会来打我(62) json数据操作汇总
-
很多小伙伴学了很久的python一直还是没有把数据类型之间的转换搞明白,上一篇文章我们详细分享了python的列表、元组、字典、集合之间的相互转换,这一篇文章我们来分享json数据相关的操作,虽然严格...
- 之前3W买的Python全系列教程完整版(懂中文就能学会)
-
今天给大家带来了干货,Python入门教程完整版,完整版啊!完整版!言归正传,小编该给大家介绍一下这套教程了,希望每个小伙伴都沉迷学习,无法自拔...
- x-cmd pkg | grex - 正则表达式生成利器,解决手动编写的烦恼
-
简介grex是一个旨在简化创作正则表达式的复杂且繁琐任务的库和命令行程序。这个项目最初是DevonGovett编写的JavaScript工具regexgen的Rust移植。但re...
你 发表评论:
欢迎- 一周热门
- 最近发表
-
- 作为后端开发,你知道MyBatis有哪些隐藏的 “宝藏” 扩展点吗?
- 基于Spring+SpringMVC+Mybatis分布式敏捷开发系统架构(附源码)
- 基于Java实现,支持在线发布API接口读取数据库,有哪些工具?
- Mybatis Plus框架学习指南-第三节内容
- 被你误删了的代码,在 IntelliJ IDEA中怎么被恢复
- 修改 mybatis-generator 中数据库类型和 Java 类型的映射关系
- 又被问到了, java 面试题:反射的实现原理及用途?
- Spring Boot 中JPA和MyBatis技术那个更好?
- Spring Boot (七)MyBatis代码自动生成和辅助插件
- 解决MyBatis Generator自动生成.java.1文件
- 标签列表
-
- idea eval reset (50)
- vue dispatch (70)
- update canceled (42)
- order by asc (53)
- spring gateway (67)
- 简单代码编程 贪吃蛇 (40)
- transforms.resize (33)
- redisson trylock (35)
- 卸载node (35)
- np.reshape (33)
- torch.arange (34)
- npm 源 (35)
- vue3 deep (35)
- win10 ssh (35)
- vue foreach (34)
- idea设置编码为utf8 (35)
- vue 数组添加元素 (34)
- std find (34)
- tablefield注解用途 (35)
- python str转json (34)
- java websocket客户端 (34)
- tensor.view (34)
- java jackson (34)
- vmware17pro最新密钥 (34)
- mysql单表最大数据量 (35)