使用PyTorch实操分步指南:针对稻米进行分类
ztj100 2024-12-17 17:49 19 浏览 0 评论
在快节奏的农业世界中,能够快速准确地对不同水稻品种进行分类可能会改变游戏规则。但是,我们如何利用机器学习来完成像水稻分类这样小众的事情呢?好吧,这就是强大的深度学习库 PyTorch 发挥作用的地方。今天,我将指导您使用 PyTorch 创建卷积神经网络 (CNN),以根据图像对水稻品种进行分类。本动手教程适用于对 Python 有基本了解的任何人,我将引导您完成代码的每个步骤,以便您轻松跟上。
先决条件
在开始之前,请确保已安装必要的库。运行以下命令安装任何缺少的依赖项:
pip install torch torchvision pandas numpy seaborn matplotlib splitfolders tabulate termcolor scikit-learn
安装这些后,您就可以开始编码了!
设置数据集
我们将使用大米图像数据集来训练我们的模型。您可以在网上找到各种数据集,但为了简单起见和保持一致性,最好使用 Kaggle。如果您有 Kaggle 帐户,您可以直接将数据集导入笔记本,而无需在本地下载。
如果您在 Kaggle 笔记本中工作,只需确保将数据集直接上传到环境或使用 Kaggle 的内置数据集。对于本地用户,请下载数据集并将其解压到名为的文件夹中Rice_Image_Dataset。
我将使用来自 kaggle 的数据集
www.kaggle.com 水稻图像数据集,五种不同的大米图像数据集。Arborio、Basmati、Ipsala、Jasmine、Karacadag。
代码分步解释
现在,让我们将代码分解为易于理解的部分,并看看每个部分的作用。
1. 导入库并设置随机种子
import warnings
warnings.filterwarnings('ignore')
import os
import time
import torch
import random
import pathlib
import torchvision
import numpy as np
import pandas as pd
import splitfolders
import torch.nn as nn
import seaborn as sns
import torch.utils.data
from tabulate import tabulate
import matplotlib.pyplot as plt
from sklearn.metrics import confusion_matrix, classification_report
import torchvision.transforms as transforms
# Set random seeds for reproducibility
torch.manual_seed(42)
np.random.seed(42)
random.seed(42)
在这里,我们导入了数据处理、可视化和模型构建所需的所有库。我们还设置了随机种子,以确保每次运行代码时都能获得一致的结果。
2. 分割数据集
# 数据集概述
dir1 = 'Rice_Image_Dataset'
splitfolders.ratio( input =dir1, output = 'imgs' , seed= 42 , ratio=( 0.7 , 0.15 , 0.15 ))
dir2 = pathlib.Path( 'imgs' )
使用splitfolders,我们将数据分成训练、验证和测试集,比例为 70%、15% 和 15%。这有助于构建我们的数据集,以便有效地训练和测试我们的模型。您将看到创建了一个名为imgs 的文件夹,其中包含train、test和val作为子目录。
3.定义数据转换
transform = transforms.Compose([
transforms.Resize((250, 250)),
transforms.ToTensor(),
transforms.Normalize((0.5, 0.5, 0.5), (0.5, 0.5, 0.5))
])
我们定义一系列变换来预处理图像。这里:
- Resize((250, 250))将每个图像的大小调整为 250x250 像素。
- ToTensor()将图像转换为 PyTorch 张量。
- Normalize()缩放像素值以使模型训练更加稳定。
4.加载数据
batch_size = 32
train_ds = torchvision.datasets.ImageFolder(os.path.join(dir2,'train' ), transform =transform)
val_ds = torchvision.datasets.ImageFolder(os.path.join(dir2,'val'),transform=transform)
test_ds = torchvision.datasets.ImageFolder(os.path.join(dir2,'test'),transform=transform)
train_loader = torch.utils.data.DataLoader(train_ds, batch_size=batch_size, shuffle=True)
val_loader = torch.utils.data.DataLoader(val_ds, batch_size=batch_size, shuffle=True)
test_loader = torch.utils.data.DataLoader(test_ds, batch_size=batch_size, shuffle=True)
我们在应用转换后加载数据集,并分批准备进行训练、验证和测试。批处理有助于提高模型训练期间的内存效率。
5. 可视化数据分布
class_counts = [0] * len(train_ds.classes)
for _, label in train_ds:
class_counts[label] += 1
class_distribution = pd.DataFrame({
'Class': train_ds.classes,
'Count': class_counts
})
plt.figure(figsize=(10, 6))
sns.barplot(x='Class', y='Count', data=class_distribution)
plt.title('Class Distribution in Training Dataset')
plt.xticks(rotation=45)
plt.ylabel('Number of Images')
plt.xlabel('Classes')
plt.show()
这部分代码绘制了图像在各个类别中的分布情况,让我们可以快速检查类别平衡情况。这在分类问题中至关重要,因为它会影响模型的泛化能力。
6.定义 CNN 模型
class CNN(nn.Module):
def __init__(self, unique_classes):
super(CNN, self).__init__()
self.conv_layers = nn.Sequential(
nn.Conv2d(3, 32, kernel_size=3),
nn.ReLU(),
nn.MaxPool2d(kernel_size=2),
nn.Conv2d(32, 64, kernel_size=3),
nn.ReLU(),
nn.MaxPool2d(kernel_size=2),
nn.Conv2d(64, 128, kernel_size=3),
nn.ReLU(),
nn.MaxPool2d(kernel_size=2),
)
self.dense_layers = nn.Sequential(
nn.Linear(128 * 29 * 29, 128),
nn.ReLU(),
nn.Dropout(0.5),
nn.Linear(128, unique_classes)
)
def forward(self, X):
out = self.conv_layers(X)
out = out.view(out.size(0), -1)
out = self.dense_layers(out)
return out
我们的 CNN 模型由用于特征提取的卷积层和用于分类的密集层组成。每个卷积层后面都有 ReLU 激活和最大池化以降低维度。最后,全连接层预测每幅图像的类别。
7.训练模型
criterion = nn.CrossEntropyLoss()
optimizer = torch.optim.Adam(model.parameters(), lr=0.001)
num_epochs = 5
num_epochs = 5
train_losses, val_losses, train_accs, val_accs = [], [], [], []
for epoch in range(num_epochs):
model.train()
train_loss, n_correct_train, n_total_train = 0, 0, 0
for images, labels in train_loader:
images, labels = images.to(device), labels.to(device)
optimizer.zero_grad()
y_pred = model(images)
loss = criterion(y_pred, labels)
loss.backward()
optimizer.step()
train_loss += loss.item()
_, predicted_labels = torch.max(y_pred, 1)
n_correct_train += (predicted_labels == labels).sum().item()
n_total_train += labels.size(0)
train_losses.append(train_loss / len(train_loader))
train_accs.append(n_correct_train / n_total_train)
# Validation phase
model.eval()
val_loss, n_correct_val, n_total_val = 0, 0, 0
with torch.no_grad():
for images, labels in val_loader:
images, labels = images.to(device), labels.to(device)
y_pred = model(images)
loss = criterion(y_pred, labels)
val_loss += loss.item()
_, predicted_labels = torch.max(y_pred, 1)
n_correct_val += (predicted_labels == labels).sum().item()
n_total_val += labels.size(0)
val_losses.append(val_loss / len(val_loader))
val_accs.append(n_correct_val / n_total_val)
# Print metrics for the current epoch
print(f'Epoch [{epoch+1}/{num_epochs}]')
print('-' * 50)
print(f'Train Loss: {train_losses[-1]:.4f} | Train Accuracy: {train_accs[-1]:.4f}')
print(f'Validation Loss: {val_losses[-1]:.4f} | Validation Accuracy: {val_accs[-1]:.4f}')
print('-' * 50)
我们定义了训练循环来帮助模型从数据中学习并在每个时期提高其性能。
- 损失函数和优化器:我们首先设置nn.CrossEntropyLoss()损失函数,它非常适合多类分类任务。优化器torch.optim.Adam根据反向传播期间计算的梯度更新模型的参数,使用学习率为0.001。
- 时期和跟踪:我们将训练时期(整个数据集上的迭代次数)的数量指定为num_epochs = 5。我们还初始化列表以跟踪训练和验证损失和准确度随时间的变化。
- 训练阶段:在主循环中,模型设置为train模式,这允许它调整其权重。对于每一批图像:
- 我们用optimizer.zero_grad() 重置梯度。
- 将图像传递给模型以获得预测(y_pred)。
- 通过将预测与真实标签进行比较来计算损失。
- 反向传播损失(loss.backward())并用optimizer.step()更新模型的权重。
- 跟踪当前时期的累积训练损失和准确度。
4.验证阶段:在当前时期进行训练后,我们在验证集上评估模型(不更新权重):
- 该模型设置为eval模式以禁用dropout和批量标准化层。
- 我们计算每个批次的验证损失和准确度,类似于训练循环,但没有反向传播(使用torch.no_grad())。
5. 记录结果:在每个时期结束时,我们都会打印训练和验证损失和准确率,以监控模型的进度。这有助于我们了解模型是否正在改进或是否存在过度拟合的可能性。
每个时期都会让我们了解模型的学习效果,记录的结果可以帮助我们在必要时对模型进行微调。
8.评估模型性能
model.eval()
test_loss, total_correct, total_samples = 0, 0, 0
with torch.no_grad():
for images, labels in test_loader:
images, labels = images.to(device), labels.to(device)
predictions = model(images)
loss = criterion(predictions, labels)
test_loss += loss.item()
_, predicted_classes = torch.max(predictions, 1)
total_correct += (predicted_classes == labels).sum().item()
total_samples += labels.size(0)
avg_test_loss = test_loss / len(test_loader)
test_accuracy = total_correct / total_samples
print(f'Test Loss: {avg_test_loss:.4f}, Test Accuracy: {test_accuracy:.4f}')
训练完模型后,必须评估其在测试集(由未见过的数据组成)上的表现。此步骤可让我们更好地了解模型在训练和验证数据之外的泛化能力。
以下是评估代码的细目:
- 将模型设置为评估模式:通过调用model.eval(),我们将模型设置为评估模式。这将停用某些层(如 dropout),确保输出一致且测试结果可靠。
- 初始化跟踪变量:我们将test_loss、total_correct和初始化total_samples为零。这些变量将帮助我们计算所有批次的总体测试损失和准确度。
- 禁用梯度计算:通过torch.no_grad(),我们禁用梯度计算,这可以减少内存使用并加快进程,因为我们在测试期间不会更新任何模型参数。
- 循环测试数据:针对每个批次test_loader:
- 将图像和标签移动到设备(GPU 或 CPU)。
- 将图像传递给模型以获得预测。
- 计算预测和真实标签之间的损失,并将其添加到test_loss。
- 用于torch.max(predictions, 1)获取预测的类别标签。
- predicted_classes通过与真实值进行比较来计算正确的预测labels,并将结果添加到total_correct。
- 增加total_samples当前批次中的图像数量,以跟踪测试样本的总数。
5.计算平均测试损失和准确率:
- avg_test_loss是通过将累计test_loss除以批次数(len(test_loader))来计算的。
- test_accuracy计算为total_correct预测值与total_samples的比率,给出模型在测试集上的整体准确度。
6. 打印结果:最后,我们打印测试损失和准确率,总结模型在未见数据上的表现。此指标可以帮助您判断模型是否已准备好部署或是否需要进一步调整。
9.保存模型
model_save_path = 'cnn_rice_classifier.pth'
torch.save(model.state_dict(), model_save_path)
print(f'Model saved to {model_save_path}')
最后,我们保存模型,以便可以重复使用而无需重新训练。
总结
就这样!您已成功在 PyTorch 中构建并训练了一个 CNN 模型来对水稻品种进行分类。此过程涵盖了数据预处理、构建 CNN、训练和评估模型。只需进行一些调整,您就可以调整此模型来对其他类型的图像进行分类。祝您编码愉快!
相关推荐
-
- SpringBoot如何实现优雅的参数校验
-
平常业务中肯定少不了校验,如果我们把大量的校验代码夹杂到业务中,肯定是不优雅的,对于一些简单的校验,我们可以使用java为我们提供的api进行处理,同时对于一些...
-
2025-05-11 19:46 ztj100
- Java中的空指针怎么处理?
-
#暑期创作大赛#Java程序员工作中遇到最多的错误就是空指针异常,无论你多么细心,一不留神就从代码的某个地方冒出NullPointerException,令人头疼。...
- 一坨一坨 if/else 参数校验,被 SpringBoot 参数校验组件整干净了
-
来源:https://mp.weixin.qq.com/s/ZVOiT-_C3f-g7aj3760Q-g...
- 用了这两款插件,同事再也不说我代码写的烂了
-
同事:你的代码写的不行啊,不够规范啊。我:我写的代码怎么可能不规范,不要胡说。于是同事打开我的IDEA,安装了一个插件,然后执行了一下,规范不规范,看报告吧。这可怎么是好,这玩意竟然给我挑出来这么...
- SpringBoot中6种拦截器使用场景
-
SpringBoot中6种拦截器使用场景,下面是思维导图详细总结一、拦截器基础...
- 用注解进行参数校验,spring validation介绍、使用、实现原理分析
-
springvalidation是什么在平时的需求开发中,经常会有参数校验的需求,比如一个接收用户注册请求的接口,要校验用户传入的用户名不能为空、用户名长度不超过20个字符、传入的手机号是合法的手机...
- 快速上手:SpringBoot自定义请求参数校验
-
作者:UncleChen来源:http://unclechen.github.io/最近在工作中遇到写一些API,这些API的请求参数非常多,嵌套也非常复杂,如果参数的校验代码全部都手动去实现,写起来...
- 分布式微服务架构组件
-
1、服务发现-Nacos服务发现、配置管理、服务治理及管理,同类产品还有ZooKeeper、Eureka、Consulhttps://nacos.io/zh-cn/docs/what-is-nacos...
- 优雅的参数校验,告别冗余if-else
-
一、参数校验简介...
- Spring Boot断言深度指南:用断言机制为代码构筑健壮防线
-
在SpringBoot开发中,断言(Assert)如同代码的"体检医生",能在上线前精准捕捉业务逻辑漏洞。本文将结合企业级实践,解析如何通过断言机制实现代码自检、异常预警与性能优化三...
- 如何在项目中优雅的校验参数
-
本文看点前言验证数据是贯穿所有应用程序层(从表示层到持久层)的常见任务。通常在每一层实现相同的验证逻辑,这既费时又容易出错。为了避免重复这些验证,开发人员经常将验证逻辑直接捆绑到域模型中,将域类与验证...
- SpingBoot项目使用@Validated和@Valid参数校验
-
一、什么是参数校验?我们在后端开发中,经常遇到的一个问题就是入参校验。简单来说就是对一个方法入参的参数进行校验,看是否符合我们的要求。比如入参要求是一个金额,你前端没做限制,用户随便过来一个负数,或者...
- 28个验证注解,通过业务案例让你精通Java数据校验(收藏篇)
-
在现代软件开发中,数据验证是确保应用程序健壮性和可靠性的关键环节。JavaBeanValidation(JSR380)作为一个功能强大的规范,为我们提供了一套全面的注解工具集,这些注解能够帮...
- Springboot @NotBlank参数校验失效汇总
-
有时候明明一个微服务里的@Validated和@NotBlank用的好好的,但就是另一个里不能用,这时候问题是最不好排查的,下面列举了各种失效情况的汇总,供各位参考:1、版本问题springbo...
- 这可能是最全面的Spring面试八股文了
-
Spring是什么?Spring是一个轻量级的控制反转(IoC)和面向切面(AOP)的容器框架。...
你 发表评论:
欢迎- 一周热门
- 最近发表
- 标签列表
-
- idea eval reset (50)
- vue dispatch (70)
- update canceled (42)
- order by asc (53)
- spring gateway (67)
- 简单代码编程 贪吃蛇 (40)
- transforms.resize (33)
- redisson trylock (35)
- 卸载node (35)
- np.reshape (33)
- torch.arange (34)
- node卸载 (33)
- npm 源 (35)
- vue3 deep (35)
- win10 ssh (35)
- exceptionininitializererror (33)
- vue foreach (34)
- idea设置编码为utf8 (35)
- vue 数组添加元素 (34)
- std find (34)
- tablefield注解用途 (35)
- python str转json (34)
- java websocket客户端 (34)
- tensor.view (34)
- java jackson (34)