使用PyTorch进行迁移学习(pytorch模型迁移)
ztj100 2024-10-31 16:13 29 浏览 0 评论
以及为什么不应该从头开始编写CNN架构
如今,训练深度学习模型(尤其是与图像识别相关的模型)是一项非常简单的任务。 您不应该过多强调架构的原因很多,主要是有人已经为您完成了这一步骤。 其余的,您需要进一步阅读。
源代码:Colab Notebook
如今,作为工程师,您唯一应关注的就是数据准备-在深度学习领域,该术语概括了数据收集,加载,规范化和扩充的过程。
今天的议程很简单-解释什么是转移学习以及如何使用转移学习,然后给出带有或不带有预训练架构的模型训练的实际示例。
听起来很简单,所以我们直接开始吧!
数据集下载和基本准备
让我们从导入开始。 在这里,我们有像Numpy,Pandas和Matplotlib这样的常见嫌疑人,还有我们最喜欢的深度学习库Pytorch,其次是它所提供的一切。
import os
import numpy as np
import pandas as pd
import matplotlib.pyplot as plt
from datetime import datetime
import torch
import torch.nn as nn
import torch.nn.functional as F
from torch.utils.data import DataLoader
from torchvision.utils import make_grid
from torchvision import models, transforms, datasets
我们将在Colab或Colab Pro中更精确地编写此代码,因此我们将利用GPU的强大功能进行培训。
由于我们正在使用GPU进行培训,而您可能并非如此,因此,我们需要一种可靠的方法来进行处理。 这是一种标准方法:
device = torch.device(‘cuda:0’ if torch.cuda.is_available() else ‘cpu’)
device
>>> device(type=’cuda’, index=0)
如果您正在使用CPU进行培训,则应该输入type ='cpu'之类的字眼,但是由于Colab是免费的,因此您无需这样做。
现在到数据集上。 我们将为此使用Dog或Cat数据集。 它具有大量各种尺寸的图像,我们将在以后处理这些图像。 现在,我们需要下载并解压缩它。 就是这样:
%mkdir data
%cd /content/data/
!wget http://files.fast.ai/data/dogscats.zip
!unzip dogscats.zip
大约一分钟后,根据您的互联网速度,可以使用该数据集。 现在,我们可以将其声明为数据目录-不是必需的,但可以节省一些时间。
DIR_DATA = '/content/data/dogscats/'
资料准备
现在已经完成了第一部分的第一部分。 接下来,我们必须对训练和验证子集应用一些转换,然后使用DataLoaders加载转换后的数据。 这是我们应用的转换:
· 随机旋转
· 随机水平翻转
· 调整为224x224-预训练架构所需
· 转换为张量
· 正常化
这是代码:
train_transforms = transforms.Compose([
transforms.RandomRotation(10),
transforms.RandomHorizontalFlip(p=0.5),
transforms.Resize(224),
transforms.CenterCrop((224, 224)),
transforms.ToTensor(),
transforms.Normalize(
mean=[0.485, 0.456, 0.406],
std=[0.229, 0.224, 0.225]
)
])
valid_transforms = transforms.Compose([
transforms.Resize(224),
transforms.CenterCrop((224, 224)),
transforms.ToTensor(),
transforms.Normalize(
mean=[0.485, 0.456, 0.406],
std=[0.229, 0.224, 0.225]
)
])
现在,我们使用DataLoaders加载数据。 此步骤也很简单,您可能已经熟悉了:
train_data = datasets.ImageFolder(os.path.join(DIR_DATA, ‘train’), transform=train_transforms)
valid_data = datasets.ImageFolder(os.path.join(DIR_DATA, ‘valid’), transform=valid_transforms)
torch.manual_seed(42)
train_loader = DataLoader(train_data, batch_size=64, shuffle=True)
valid_loader = DataLoader(valid_data, batch_size=64, shuffle=False)
class_names = train_data.classes
class_names
>>> ['cats', 'dogs']
如果现在要对单个批次进行逆归一化并可视化,则可以得到以下信息:
快速浏览上图表明我们的转换工作符合预期。
数据准备部分现已完成,在下一节中,我们将声明一个自定义的CNN架构,对其进行训练并评估性能。
定制架构CNN
对于这一部分,我们想要做一些非常简单的事情-3个卷积层,每个卷积层之后是max-pooling和ReLU,然后是一个完全连接的层和一个输出层。
这是该架构的代码:
class CustomCNN(nn.Module):
def __init__(self):
super().__init__()
self.conv1 = nn.Conv2d(in_channels=3, out_channels=32, kernel_size=3, stride=1)
self.conv2 = nn.Conv2d(in_channels=32, out_channels=64, kernel_size=3, stride=1)
self.conv3 = nn.Conv2d(in_channels=64, out_channels=64, kernel_size=3, stride=1)
self.fc1 = nn.Linear(in_features=26*26*64, out_features=128)
self.out = nn.Linear(in_features=128, out_features=2)
def forward(self, x):
x = F.relu(self.conv1(x))
x = F.max_pool2d(x, kernel_size=2, stride=2)
x = F.relu(self.conv2(x))
x = F.max_pool2d(x, kernel_size=2, stride=2)
x = F.relu(self.conv3(x))
x = F.max_pool2d(x, kernel_size=2, stride=2)
x = x.view(-1, 26*26*64)
x = F.relu(self.fc1(x))
x = F.dropout(x, p=0.2)
x = self.out(x)
return F.log_softmax(x, dim=1)
torch.manual_seed(42)
model = CustomCNN()
model.to(device)
从这里我们可以定义一个优化器和标准,我们准备进行训练:
custom_criterion = nn.CrossEntropyLoss()
custom_optimizer = torch.optim.Adam(model.parameters(), lr=0.001)
由于您可以访问源代码,并且train_model函数很长,因此我们决定不将其放在此处。 因此,如果您要继续,请参考源代码。 我们将训练模型10个时间段:
custom_model_trained = train_model(
train_loader=train_loader,
test_loader=valid_loader,
model=model,
criterion=custom_criterion,
optimizer=custom_optimizer,
epochs=10
)
一段时间后,这里是获得的结果:
无论如何,这都不是可怕的结果,但是我们如何才能做得更好? 迁移学习就派得上用场了。
迁移学习
您可以轻松地在线查找正式定义。 对我们而言,迁移学习意味着下载预制的体系结构,该体系结构接受过1M +图像的训练,并调整输出层,以便根据需要对尽可能多的类进行分类。
由于我们这里只有猫和狗,因此我们需要将此数字修改为两个。
现在,我们将下载ResNet101架构的预训练版本,并使它的参数不可训练-因为该网络已经过训练:
pretrained_model = models.resnet101(pretrained=True)
for param in pretrained_model.parameters():
param.requires_grad = False
赞! 让我们检查一下输出层的外观:
pretrained_model.fc
>>> Linear(in_features=2048, out_features=1000, bias=True)
因此,默认情况下,该体系结构具有1000个可能的类,但是我们只需要两个类-一个用于猫,一个用于狗。 调整方法如下:
pretrained_model.fc = nn.Sequential(
nn.Linear(2048, 1000),
nn.ReLU(),
nn.Dropout(0.5),
nn.Linear(1000, 2),
nn.LogSoftmax(dim=1)
)
pretrained_model.to(device)
这就是我们要做的。
好了,我们仍然必须定义和优化器以及一个准则,但是您知道如何做到这一点:
pretrained_criterion = nn.CrossEntropyLoss()
pretrained_optimizer = torch.optim.Adam(pretrained_model.fc.parameters(), lr=0.001)
训练过程与自定义体系结构相同,但是我们不需要太多的时间,因为好了,我们已经知道权重和偏差的正确值。
pretrained_model_trained = train_model(
train_loader=train_loader,
test_loader=valid_loader,
model=pretrained_model,
criterion=pretrained_criterion,
optimizer=pretrained_optimizer,
epochs=1
)
经过一段时间后,得出的结果如下:
那有多神奇? 不但提高了准确性,而且还因为没有训练太多的时间段而节省了很多时间。
现在您知道了迁移学习可以做什么,以及如何以及为什么使用它。 让我们在下一节中总结一下。
结论
而且,您已获得了— PyTorch最简单的迁移学习指南。 当然,如果网络更深入,自定义模型的结果可能会更好,但这不是重点。 关键是,无需强调多少层就足够了,以及最佳超参数值是多少。 至少在大多数情况下。
确保尝试不同的体系结构,并随时在下面的评论部分中告知我们有关结果的信息。
谢谢阅读。
(本文翻译自Dario Rade?i?的文章《Transfer Learning with PyTorch》,参考:https://towardsdatascience.com/transfer-learning-with-pytorch-95dd5dca82a)
相关推荐
- 再说圆的面积-蒙特卡洛(蒙特卡洛方法求圆周率的matlab程序)
-
在微积分-圆的面积和周长(1)介绍微积分方法求解圆的面积,本文使用蒙特卡洛方法求解圆面积。...
- python创建分类器小结(pytorch分类数据集创建)
-
简介:分类是指利用数据的特性将其分成若干类型的过程。监督学习分类器就是用带标记的训练数据建立一个模型,然后对未知数据进行分类。...
- matplotlib——绘制散点图(matplotlib散点图颜色和图例)
-
绘制散点图不同条件(维度)之间的内在关联关系观察数据的离散聚合程度...
- python实现实时绘制数据(python如何绘制)
-
方法一importmatplotlib.pyplotaspltimportnumpyasnpimporttimefrommathimport*plt.ion()#...
- 简单学Python——matplotlib库3——绘制散点图
-
前面我们学习了用matplotlib绘制折线图,今天我们学习绘制散点图。其实简单的散点图与折线图的语法基本相同,只是作图函数由plot()变成了scatter()。下面就绘制一个散点图:import...
- 数据分析-相关性分析可视化(相关性分析数据处理)
-
前面介绍了相关性分析的原理、流程和常用的皮尔逊相关系数和斯皮尔曼相关系数,具体可以参考...
- 免费Python机器学习课程一:线性回归算法
-
学习线性回归的概念并从头开始在python中开发完整的线性回归算法最基本的机器学习算法必须是具有单个变量的线性回归算法。如今,可用的高级机器学习算法,库和技术如此之多,以至于线性回归似乎并不重要。但是...
- 用Python进行机器学习(2)之逻辑回归
-
前面介绍了线性回归,本次介绍的是逻辑回归。逻辑回归虽然名字里面带有“回归”两个字,但是它是一种分类算法,通常用于解决二分类问题,比如某个邮件是否是广告邮件,比如某个评价是否为正向的评价。逻辑回归也可以...
- 【Python机器学习系列】拟合和回归傻傻分不清?一文带你彻底搞懂
-
一、拟合和回归的区别拟合...
- 推荐2个十分好用的pandas数据探索分析神器
-
作者:俊欣来源:关于数据分析与可视化...
- 向量数据库:解锁大模型记忆的关键!选型指南+实战案例全解析
-
本文较长,建议点赞收藏,以免遗失。更多AI大模型应用开发学习视频及资料,尽在...
- 用Python进行机器学习(11)-主成分分析PCA
-
我们在机器学习中有时候需要处理很多个参数,但是这些参数有时候彼此之间是有着各种关系的,这个时候我们就会想:是否可以找到一种方式来降低参数的个数呢?这就是今天我们要介绍的主成分分析,英文是Princip...
- 神经网络基础深度解析:从感知机到反向传播
-
本文较长,建议点赞收藏,以免遗失。更多AI大模型应用开发学习视频及资料,尽在...
- Python实现基于机器学习的RFM模型
-
CDA数据分析师出品作者:CDALevelⅠ持证人岗位:数据分析师行业:大数据...
你 发表评论:
欢迎- 一周热门
- 最近发表
- 标签列表
-
- idea eval reset (50)
- vue dispatch (70)
- update canceled (42)
- order by asc (53)
- spring gateway (67)
- 简单代码编程 贪吃蛇 (40)
- transforms.resize (33)
- redisson trylock (35)
- 卸载node (35)
- np.reshape (33)
- torch.arange (34)
- npm 源 (35)
- vue3 deep (35)
- win10 ssh (35)
- vue foreach (34)
- idea设置编码为utf8 (35)
- vue 数组添加元素 (34)
- std find (34)
- tablefield注解用途 (35)
- python str转json (34)
- java websocket客户端 (34)
- tensor.view (34)
- java jackson (34)
- vmware17pro最新密钥 (34)
- mysql单表最大数据量 (35)