百度360必应搜狗淘宝本站头条
当前位置:网站首页 > 技术分类 > 正文

PyTorch实战教程:迁移学习与模型微调

ztj100 2024-10-31 16:13 17 浏览 0 评论

介绍

在这个实战教程中,我们将使用PyTorch进行迁移学习与模型微调。迁移学习是一种利用预训练模型的技术,通过将已经在大规模数据集上训练好的模型应用到新的任务中。模型微调是迁移学习的一种形式,它允许我们在新任务上微调预训练模型的参数以适应特定的数据。我们将以图像分类任务为例,使用预训练的卷积神经网络(CNN)模型,并通过微调将其适应新的图像分类任务。通过这个项目,你将学到如何使用PyTorch进行迁移学习和模型微调,以及如何处理自定义数据集。本教程适用于有一定PyTorch基础的开发者,同时也适用于对迁移学习和深度学习领域感兴趣的初学者。

技术栈

  • Python
  • PyTorch
  • Torchvision(PyTorch的计算机视觉库)

步骤1:准备数据集

首先,我们需要准备一个用于图像分类的自定义数据集。我们以花卉数据集为例,包含几个不同种类的花卉图片。

# 创建数据集目录
mkdir data
cd data

# 下载花卉数据集
wget https://download.pytorch.org/tutorial/hymenoptera_data.zip
unzip hymenoptera_data.zip
cd ..

步骤2:加载预训练模型

我们将使用预训练的ResNet模型作为基础模型。这个模型在ImageNet数据集上进行了训练,可以用于图像分类任务。

import torch
import torch.nn as nn
from torchvision import models

# 加载预训练的ResNet模型
model = models.resnet18(pretrained=True)

步骤3:冻结部分层次

为了进行迁移学习,我们冻结模型的前几层,即卷积层。这样可以保留在ImageNet上学到的低级特征,而我们可以替换模型的分类器部分。

# 冻结卷积层
for param in model.parameters():
    param.requires_grad = False

# 替换分类器
num_classes = 2  # 二分类任务(花卉数据集有两个类别)
model.fc = nn.Linear(model.fc.in_features, num_classes)

步骤4:微调模型

定义损失函数和优化器,并进行模型微调。

import torch.optim as optim
from torchvision.transforms import transforms
from torchvision.datasets import ImageFolder
from torch.utils.data import DataLoader

# 定义数据转换
transform = transforms.Compose([
    transforms.Resize((224, 224)),
    transforms.ToTensor(),
])

# 加载自定义数据集
train_dataset = ImageFolder(root='data/hymenoptera_data/train', transform=transform)
train_loader = DataLoader(train_dataset, batch_size=32, shuffle=True)

# 定义损失函数和优化器
criterion = nn.CrossEntropyLoss()
optimizer = optim.SGD(model.parameters(), lr=0.001, momentum=0.9)

# 模型微调
num_epochs = 10
device = torch.device('cuda' if torch.cuda.is_available() else 'cpu')
model.to(device)

for epoch in range(num_epochs):
    model.train()
    running_loss = 0.0

    for inputs, labels in train_loader:
        inputs, labels = inputs.to(device), labels.to(device)

        optimizer.zero_grad()

        outputs = model(inputs)
        loss = criterion(outputs, labels)
        loss.backward()
        optimizer.step()

        running_loss += loss.item()

    print(f'Epoch {epoch + 1}/{num_epochs}, Loss: {running_loss / len(train_loader)}')

通过这个项目,你学到了如何使用迁移学习和模型微调将预训练模型应用到自定义数据集上。这是一个在实际项目中非常常见的技术,可以帮助你在有限的数据集上构建强大的图像分类器。

相关推荐

如何将数据仓库迁移到阿里云 AnalyticDB for PostgreSQL

阿里云AnalyticDBforPostgreSQL(以下简称ADBPG,即原HybridDBforPostgreSQL)为基于PostgreSQL内核的MPP架构的实时数据仓库服务,可以...

Python数据分析:探索性分析

写在前面如果你忘记了前面的文章,可以看看加深印象:Python数据处理...

CSP-J/S冲奖第21天:插入排序

...

C++基础语法梳理:算法丨十大排序算法(二)

本期是C++基础语法分享的第十六节,今天给大家来梳理一下十大排序算法后五个!归并排序...

C 语言的标准库有哪些

C语言的标准库并不是一个单一的实体,而是由一系列头文件(headerfiles)组成的集合。每个头文件声明了一组相关的函数、宏、类型和常量。程序员通过在代码中使用#include<...

[深度学习] ncnn安装和调用基础教程

1介绍ncnn是腾讯开发的一个为手机端极致优化的高性能神经网络前向计算框架,无第三方依赖,跨平台,但是通常都需要protobuf和opencv。ncnn目前已在腾讯多款应用中使用,如QQ,Qzon...

用rust实现经典的冒泡排序和快速排序

1.假设待排序数组如下letmutarr=[5,3,8,4,2,7,1];...

ncnn+PPYOLOv2首次结合!全网最详细代码解读来了

编辑:好困LRS【新智元导读】今天给大家安利一个宝藏仓库miemiedetection,该仓库集合了PPYOLO、PPYOLOv2、PPYOLOE三个算法pytorch实现三合一,其中的PPYOL...

C++特性使用建议

1.引用参数使用引用替代指针且所有不变的引用参数必须加上const。在C语言中,如果函数需要修改变量的值,参数必须为指针,如...

Qt4/5升级到Qt6吐血经验总结V202308

00:直观总结增加了很多轮子,同时原有模块拆分的也更细致,估计为了方便拓展个管理。把一些过度封装的东西移除了(比如同样的功能有多个函数),保证了只有一个函数执行该功能。把一些Qt5中兼容Qt4的方法废...

到底什么是C++11新特性,请看下文

C++11是一个比较大的更新,引入了很多新特性,以下是对这些特性的详细解释,帮助您快速理解C++11的内容1.自动类型推导(auto和decltype)...

掌握C++11这些特性,代码简洁性、安全性和性能轻松跃升!

C++11(又称C++0x)是C++编程语言的一次重大更新,引入了许多新特性,显著提升了代码简洁性、安全性和性能。以下是主要特性的分类介绍及示例:一、核心语言特性1.自动类型推导(auto)编译器自...

经典算法——凸包算法

凸包算法(ConvexHull)一、概念与问题描述凸包是指在平面上给定一组点,找到包含这些点的最小面积或最小周长的凸多边形。这个多边形没有任何内凹部分,即从一个多边形内的任意一点画一条线到多边形边界...

一起学习c++11——c++11中的新增的容器

c++11新增的容器1:array当时的初衷是希望提供一个在栈上分配的,定长数组,而且可以使用stl中的模板算法。array的用法如下:#include<string>#includ...

C++ 编程中的一些最佳实践

1.遵循代码简洁原则尽量避免冗余代码,通过模块化设计、清晰的命名和良好的结构,让代码更易于阅读和维护...

取消回复欢迎 发表评论: