使用PyTorch进行迁移学习(pytorch模型迁移)
ztj100 2024-10-31 16:13 40 浏览 0 评论
以及为什么不应该从头开始编写CNN架构
如今,训练深度学习模型(尤其是与图像识别相关的模型)是一项非常简单的任务。 您不应该过多强调架构的原因很多,主要是有人已经为您完成了这一步骤。 其余的,您需要进一步阅读。
源代码:Colab Notebook
如今,作为工程师,您唯一应关注的就是数据准备-在深度学习领域,该术语概括了数据收集,加载,规范化和扩充的过程。
今天的议程很简单-解释什么是转移学习以及如何使用转移学习,然后给出带有或不带有预训练架构的模型训练的实际示例。
听起来很简单,所以我们直接开始吧!
数据集下载和基本准备
让我们从导入开始。 在这里,我们有像Numpy,Pandas和Matplotlib这样的常见嫌疑人,还有我们最喜欢的深度学习库Pytorch,其次是它所提供的一切。
import os
import numpy as np
import pandas as pd
import matplotlib.pyplot as plt
from datetime import datetime
import torch
import torch.nn as nn
import torch.nn.functional as F
from torch.utils.data import DataLoader
from torchvision.utils import make_grid
from torchvision import models, transforms, datasets
我们将在Colab或Colab Pro中更精确地编写此代码,因此我们将利用GPU的强大功能进行培训。
由于我们正在使用GPU进行培训,而您可能并非如此,因此,我们需要一种可靠的方法来进行处理。 这是一种标准方法:
device = torch.device(‘cuda:0’ if torch.cuda.is_available() else ‘cpu’)
device
>>> device(type=’cuda’, index=0)
如果您正在使用CPU进行培训,则应该输入type ='cpu'之类的字眼,但是由于Colab是免费的,因此您无需这样做。
现在到数据集上。 我们将为此使用Dog或Cat数据集。 它具有大量各种尺寸的图像,我们将在以后处理这些图像。 现在,我们需要下载并解压缩它。 就是这样:
%mkdir data
%cd /content/data/
!wget http://files.fast.ai/data/dogscats.zip
!unzip dogscats.zip
大约一分钟后,根据您的互联网速度,可以使用该数据集。 现在,我们可以将其声明为数据目录-不是必需的,但可以节省一些时间。
DIR_DATA = '/content/data/dogscats/'
资料准备
现在已经完成了第一部分的第一部分。 接下来,我们必须对训练和验证子集应用一些转换,然后使用DataLoaders加载转换后的数据。 这是我们应用的转换:
· 随机旋转
· 随机水平翻转
· 调整为224x224-预训练架构所需
· 转换为张量
· 正常化
这是代码:
train_transforms = transforms.Compose([
transforms.RandomRotation(10),
transforms.RandomHorizontalFlip(p=0.5),
transforms.Resize(224),
transforms.CenterCrop((224, 224)),
transforms.ToTensor(),
transforms.Normalize(
mean=[0.485, 0.456, 0.406],
std=[0.229, 0.224, 0.225]
)
])
valid_transforms = transforms.Compose([
transforms.Resize(224),
transforms.CenterCrop((224, 224)),
transforms.ToTensor(),
transforms.Normalize(
mean=[0.485, 0.456, 0.406],
std=[0.229, 0.224, 0.225]
)
])
现在,我们使用DataLoaders加载数据。 此步骤也很简单,您可能已经熟悉了:
train_data = datasets.ImageFolder(os.path.join(DIR_DATA, ‘train’), transform=train_transforms)
valid_data = datasets.ImageFolder(os.path.join(DIR_DATA, ‘valid’), transform=valid_transforms)
torch.manual_seed(42)
train_loader = DataLoader(train_data, batch_size=64, shuffle=True)
valid_loader = DataLoader(valid_data, batch_size=64, shuffle=False)
class_names = train_data.classes
class_names
>>> ['cats', 'dogs']
如果现在要对单个批次进行逆归一化并可视化,则可以得到以下信息:
快速浏览上图表明我们的转换工作符合预期。
数据准备部分现已完成,在下一节中,我们将声明一个自定义的CNN架构,对其进行训练并评估性能。
定制架构CNN
对于这一部分,我们想要做一些非常简单的事情-3个卷积层,每个卷积层之后是max-pooling和ReLU,然后是一个完全连接的层和一个输出层。
这是该架构的代码:
class CustomCNN(nn.Module):
def __init__(self):
super().__init__()
self.conv1 = nn.Conv2d(in_channels=3, out_channels=32, kernel_size=3, stride=1)
self.conv2 = nn.Conv2d(in_channels=32, out_channels=64, kernel_size=3, stride=1)
self.conv3 = nn.Conv2d(in_channels=64, out_channels=64, kernel_size=3, stride=1)
self.fc1 = nn.Linear(in_features=26*26*64, out_features=128)
self.out = nn.Linear(in_features=128, out_features=2)
def forward(self, x):
x = F.relu(self.conv1(x))
x = F.max_pool2d(x, kernel_size=2, stride=2)
x = F.relu(self.conv2(x))
x = F.max_pool2d(x, kernel_size=2, stride=2)
x = F.relu(self.conv3(x))
x = F.max_pool2d(x, kernel_size=2, stride=2)
x = x.view(-1, 26*26*64)
x = F.relu(self.fc1(x))
x = F.dropout(x, p=0.2)
x = self.out(x)
return F.log_softmax(x, dim=1)
torch.manual_seed(42)
model = CustomCNN()
model.to(device)
从这里我们可以定义一个优化器和标准,我们准备进行训练:
custom_criterion = nn.CrossEntropyLoss()
custom_optimizer = torch.optim.Adam(model.parameters(), lr=0.001)
由于您可以访问源代码,并且train_model函数很长,因此我们决定不将其放在此处。 因此,如果您要继续,请参考源代码。 我们将训练模型10个时间段:
custom_model_trained = train_model(
train_loader=train_loader,
test_loader=valid_loader,
model=model,
criterion=custom_criterion,
optimizer=custom_optimizer,
epochs=10
)
一段时间后,这里是获得的结果:
无论如何,这都不是可怕的结果,但是我们如何才能做得更好? 迁移学习就派得上用场了。
迁移学习
您可以轻松地在线查找正式定义。 对我们而言,迁移学习意味着下载预制的体系结构,该体系结构接受过1M +图像的训练,并调整输出层,以便根据需要对尽可能多的类进行分类。
由于我们这里只有猫和狗,因此我们需要将此数字修改为两个。
现在,我们将下载ResNet101架构的预训练版本,并使它的参数不可训练-因为该网络已经过训练:
pretrained_model = models.resnet101(pretrained=True)
for param in pretrained_model.parameters():
param.requires_grad = False
赞! 让我们检查一下输出层的外观:
pretrained_model.fc
>>> Linear(in_features=2048, out_features=1000, bias=True)
因此,默认情况下,该体系结构具有1000个可能的类,但是我们只需要两个类-一个用于猫,一个用于狗。 调整方法如下:
pretrained_model.fc = nn.Sequential(
nn.Linear(2048, 1000),
nn.ReLU(),
nn.Dropout(0.5),
nn.Linear(1000, 2),
nn.LogSoftmax(dim=1)
)
pretrained_model.to(device)
这就是我们要做的。
好了,我们仍然必须定义和优化器以及一个准则,但是您知道如何做到这一点:
pretrained_criterion = nn.CrossEntropyLoss()
pretrained_optimizer = torch.optim.Adam(pretrained_model.fc.parameters(), lr=0.001)
训练过程与自定义体系结构相同,但是我们不需要太多的时间,因为好了,我们已经知道权重和偏差的正确值。
pretrained_model_trained = train_model(
train_loader=train_loader,
test_loader=valid_loader,
model=pretrained_model,
criterion=pretrained_criterion,
optimizer=pretrained_optimizer,
epochs=1
)
经过一段时间后,得出的结果如下:
那有多神奇? 不但提高了准确性,而且还因为没有训练太多的时间段而节省了很多时间。
现在您知道了迁移学习可以做什么,以及如何以及为什么使用它。 让我们在下一节中总结一下。
结论
而且,您已获得了— PyTorch最简单的迁移学习指南。 当然,如果网络更深入,自定义模型的结果可能会更好,但这不是重点。 关键是,无需强调多少层就足够了,以及最佳超参数值是多少。 至少在大多数情况下。
确保尝试不同的体系结构,并随时在下面的评论部分中告知我们有关结果的信息。
谢谢阅读。
(本文翻译自Dario Rade?i?的文章《Transfer Learning with PyTorch》,参考:https://towardsdatascience.com/transfer-learning-with-pytorch-95dd5dca82a)
相关推荐
- 离谱!写了5年Vue,还不会自动化测试?
-
前言大家好,我是倔强青铜三。是一名热情的软件工程师,我热衷于分享和传播IT技术,致力于通过我的知识和技能推动技术交流与创新,欢迎关注我,微信公众号:倔强青铜三。Playwright是一个功能强大的端到...
- package.json 与 package-lock.json 的关系
-
模块化开发在前端越来越流行,使用node和npm可以很方便的下载管理项目所需的依赖模块。package.json用来描述项目及项目所依赖的模块信息。那package-lock.json和...
- Github 标星35k 的 SpringBoot整合acvtiviti开源分享,看完献上膝盖
-
前言activiti是目前比较流行的工作流框架,但是activiti学起来还是费劲,还是有点难度的,如何整合在线编辑器,如何和业务表单绑定,如何和系统权限绑定,这些问题都是要考虑到的,不是说纯粹的把a...
- Vue3 + TypeScript 前端研发模板仓库
-
我们把这个Vue3+TypeScript前端研发模板仓库的初始化脚本一次性补全到可直接运行的状态,包括:完整的目录结构所有配置文件研发规范文档示例功能模块(ExampleFeature)...
- Vue 2迁移Vue 3:从响应式到性能优化
-
小伙伴们注意啦!Vue2已经在2023年底正式停止维护,再不升级就要面临安全漏洞没人管的风险啦!而且Vue3带来的性能提升可不是一点点——渲染速度快40%,内存占用少一半,更新速度直接翻倍!还在...
- VUE学习笔记:声明式渲染详解,对比WEB与VUE
-
声明式渲染是指使用简洁的模板语法,声明式的方式将数据渲染进DOM系统。声明式是相对于编程式而言,声明式是面向对象的,告诉框架做什么,具体操作由框架完成。编程式是面向过程思想,需要手动编写代码完成具...
- 苏州web前端培训班, 苏州哪里有web前端工程师培训
-
前端+HTML5德学习内容:第一阶段:前端页面重构:PC端网站布局、HTML5+CSS3基础项目、WebAPP页面布局;第二阶段:高级程序设计:原生交互功能开发、面向对象开发与ES5/ES6、工具库...
- 跟我一起开发微信小程序——扩展组件的代码提示补全
-
用户自定义代码块步骤:1.HBuilderX中工具栏:工具-代码块设置-vue代码块2.通过“1”步骤打开设置文件...
- JimuReport 积木报表 v1.9.3发布,免费可视化报表
-
项目介绍积木报表JimuReport,是一款免费的数据可视化报表,含报表、大屏和仪表盘,像搭建积木一样完全在线设计!功能涵盖:数据报表、打印设计、图表报表、门户设计、大屏设计等!...
- 软开企服开源的无忧企业文档(V2.1.3)产品说明书
-
目录1....
- 一款面向 AI 的下一代富文本编辑器,已开源
-
简介AiEditor是一个面向AI的下一代富文本编辑器。开箱即用、支持所有前端框架、支持Markdown书写模式什么是AiEditor?AiEditor是一个面向AI的下一代富文本编辑...
- 玩转Markdown(2)——抽象语法树的提取与操纵
-
上一篇玩转Markdown——数据的分离存储与组件的原生渲染发布,转眼已经鸽了大半年了。最近在操纵mdast生成md文件的时候,心血来潮,把玩转Markdown(2)给补上了。...
- DeepseekR1+ollama+dify1.0.0搭建企业/个人知识库(入门避坑版)
-
找了网上的视频和相关文档看了之后,可能由于版本不对或文档格式不对,很容易走弯路,看完这一章,可以让你少踩三天的坑。步骤和注意事项我一一列出来:1,前提条件是在你的电脑上已配置好ollama,dify1...
- 升级JDK17的理由,核心是降低GC时间
-
升级前后对比升级方法...
- 一个vsCode格式化插件_vscode格式化插件缩进量
-
ESlint...
你 发表评论:
欢迎- 一周热门
-
-
MySQL中这14个小玩意,让人眼前一亮!
-
旗舰机新标杆 OPPO Find X2系列正式发布 售价5499元起
-
【VueTorrent】一款吊炸天的qBittorrent主题,人人都可用
-
面试官:使用int类型做加减操作,是线程安全吗
-
C++编程知识:ToString()字符串转换你用正确了吗?
-
【Spring Boot】WebSocket 的 6 种集成方式
-
PyTorch 深度学习实战(26):多目标强化学习Multi-Objective RL
-
pytorch中的 scatter_()函数使用和详解
-
与 Java 17 相比,Java 21 究竟有多快?
-
基于TensorRT_LLM的大模型推理加速与OpenAI兼容服务优化
-
- 最近发表
- 标签列表
-
- idea eval reset (50)
- vue dispatch (70)
- update canceled (42)
- order by asc (53)
- spring gateway (67)
- 简单代码编程 贪吃蛇 (40)
- transforms.resize (33)
- redisson trylock (35)
- 卸载node (35)
- np.reshape (33)
- torch.arange (34)
- npm 源 (35)
- vue3 deep (35)
- win10 ssh (35)
- vue foreach (34)
- idea设置编码为utf8 (35)
- vue 数组添加元素 (34)
- std find (34)
- tablefield注解用途 (35)
- python str转json (34)
- java websocket客户端 (34)
- tensor.view (34)
- java jackson (34)
- vmware17pro最新密钥 (34)
- mysql单表最大数据量 (35)