百度360必应搜狗淘宝本站头条
当前位置:网站首页 > 技术分类 > 正文

使用PyTorch实操分步指南:针对稻米进行分类

ztj100 2024-12-17 17:49 47 浏览 0 评论

在快节奏的农业世界中,能够快速准确地对不同水稻品种进行分类可能会改变游戏规则。但是,我们如何利用机器学习来完成像水稻分类这样小众的事情呢?好吧,这就是强大的深度学习库 PyTorch 发挥作用的地方。今天,我将指导您使用 PyTorch 创建卷积神经网络 (CNN),以根据图像对水稻品种进行分类。本动手教程适用于对 Python 有基本了解的任何人,我将引导您完成代码的每个步骤,以便您轻松跟上。

先决条件

在开始之前,请确保已安装必要的库。运行以下命令安装任何缺少的依赖项:

pip install torch torchvision pandas numpy seaborn matplotlib splitfolders tabulate termcolor scikit-learn

安装这些后,您就可以开始编码了!

设置数据集

我们将使用大米图像数据集来训练我们的模型。您可以在网上找到各种数据集,但为了简单起见和保持一致性,最好使用 Kaggle。如果您有 Kaggle 帐户,您可以直接将数据集导入笔记本,而无需在本地下载。

如果您在 Kaggle 笔记本中工作,只需确保将数据集直接上传到环境或使用 Kaggle 的内置数据集。对于本地用户,请下载数据集并将其解压到名为的文件夹中Rice_Image_Dataset

我将使用来自 kaggle 的数据集

www.kaggle.com 水稻图像数据集,五种不同的大米图像数据集。Arborio、Basmati、Ipsala、Jasmine、Karacadag。

代码分步解释

现在,让我们将代码分解为易于理解的部分,并看看每个部分的作用。

1. 导入库并设置随机种子

import warnings
warnings.filterwarnings('ignore')
import os    
import time
import torch 
import random 
import pathlib 
import torchvision     
import numpy as np  
import pandas as pd 
import splitfolders 
import torch.nn as nn   
import seaborn as sns   
import torch.utils.data
from tabulate import tabulate
import matplotlib.pyplot as plt  
from sklearn.metrics import confusion_matrix, classification_report
import torchvision.transforms as transforms
# Set random seeds for reproducibility
torch.manual_seed(42)
np.random.seed(42)
random.seed(42)

在这里,我们导入了数据处理、可视化和模型构建所需的所有库。我们还设置了随机种子,以确保每次运行代码时都能获得一致的结果。

2. 分割数据集

# 数据集概述
dir1 = 'Rice_Image_Dataset'
 splitfolders.ratio( input =dir1, output = 'imgs' , seed= 42 , ratio=( 0.7 , 0.15 , 0.15 )) 
dir2 = pathlib.Path( 'imgs' )

使用splitfolders,我们将数据分成训练、验证和测试集,比例为 70%、15% 和 15%。这有助于构建我们的数据集,以便有效地训练和测试我们的模型。您将看到创建了一个名为imgs 的文件夹,其中包含train、testval作为子目录。

3.定义数据转换

transform = transforms.Compose([
    transforms.Resize((250, 250)),
    transforms.ToTensor(),
    transforms.Normalize((0.5, 0.5, 0.5), (0.5, 0.5, 0.5))
])

我们定义一系列变换来预处理图像。这里:

  • Resize((250, 250))将每个图像的大小调整为 250x250 像素。
  • ToTensor()将图像转换为 PyTorch 张量。
  • Normalize()缩放像素值以使模型训练更加稳定。

4.加载数据

batch_size = 32
 train_ds = torchvision.datasets.ImageFolder(os.path.join(dir2,'train' ), transform =transform) 
val_ds = torchvision.datasets.ImageFolder(os.path.join(dir2,'val'),transform=transform)
test_ds = torchvision.datasets.ImageFolder(os.path.join(dir2,'test'),transform=transform)
train_loader = torch.utils.data.DataLoader(train_ds, batch_size=batch_size, shuffle=True)
val_loader = torch.utils.data.DataLoader(val_ds, batch_size=batch_size, shuffle=True)
test_loader = torch.utils.data.DataLoader(test_ds, batch_size=batch_size, shuffle=True)

我们在应用转换后加载数据集,并分批准备进行训练、验证和测试。批处理有助于提高模型训练期间的内存效率。

5. 可视化数据分布

class_counts = [0] * len(train_ds.classes)
for _, label in train_ds:
    class_counts[label] += 1
class_distribution = pd.DataFrame({
    'Class': train_ds.classes,
    'Count': class_counts
})
plt.figure(figsize=(10, 6))
sns.barplot(x='Class', y='Count', data=class_distribution)
plt.title('Class Distribution in Training Dataset')
plt.xticks(rotation=45)
plt.ylabel('Number of Images')
plt.xlabel('Classes')
plt.show()

这部分代码绘制了图像在各个类别中的分布情况,让我们可以快速检查类别平衡情况。这在分类问题中至关重要,因为它会影响模型的泛化能力。

6.定义 CNN 模型

class CNN(nn.Module):
    def __init__(self, unique_classes):
        super(CNN, self).__init__()
        self.conv_layers = nn.Sequential(
            nn.Conv2d(3, 32, kernel_size=3),
            nn.ReLU(),
            nn.MaxPool2d(kernel_size=2),
            nn.Conv2d(32, 64, kernel_size=3),
            nn.ReLU(),
            nn.MaxPool2d(kernel_size=2),
            nn.Conv2d(64, 128, kernel_size=3),
            nn.ReLU(),
            nn.MaxPool2d(kernel_size=2),
        )
        self.dense_layers = nn.Sequential(
            nn.Linear(128 * 29 * 29, 128),
            nn.ReLU(),
            nn.Dropout(0.5),
            nn.Linear(128, unique_classes)
        )
    
    def forward(self, X):
        out = self.conv_layers(X)
        out = out.view(out.size(0), -1)
        out = self.dense_layers(out)
        return out

我们的 CNN 模型由用于特征提取的卷积层和用于分类的密集层组成。每个卷积层后面都有 ReLU 激活和最大池化以降低维度。最后,全连接层预测每幅图像的类别。

7.训练模型

criterion = nn.CrossEntropyLoss()
optimizer = torch.optim.Adam(model.parameters(), lr=0.001)
num_epochs = 5

num_epochs = 5
train_losses, val_losses, train_accs, val_accs = [], [], [], []

for epoch in range(num_epochs):
    model.train()
    train_loss, n_correct_train, n_total_train = 0, 0, 0
    
    for images, labels in train_loader:
        images, labels = images.to(device), labels.to(device)
        optimizer.zero_grad()
        y_pred = model(images)
        loss = criterion(y_pred, labels)
        loss.backward()
        optimizer.step()
        
        train_loss += loss.item()
        _, predicted_labels = torch.max(y_pred, 1)
        n_correct_train += (predicted_labels == labels).sum().item()
        n_total_train += labels.size(0)

    train_losses.append(train_loss / len(train_loader))
    train_accs.append(n_correct_train / n_total_train)
    
    # Validation phase
    model.eval()
    val_loss, n_correct_val, n_total_val = 0, 0, 0
    with torch.no_grad():
        for images, labels in val_loader:
            images, labels = images.to(device), labels.to(device)
            y_pred = model(images)
            loss = criterion(y_pred, labels)
            val_loss += loss.item()
            _, predicted_labels = torch.max(y_pred, 1)
            n_correct_val += (predicted_labels == labels).sum().item()
            n_total_val += labels.size(0)

    val_losses.append(val_loss / len(val_loader))
    val_accs.append(n_correct_val / n_total_val)

    # Print metrics for the current epoch
    print(f'Epoch [{epoch+1}/{num_epochs}]')
    print('-' * 50)
    print(f'Train Loss: {train_losses[-1]:.4f} | Train Accuracy: {train_accs[-1]:.4f}')
    print(f'Validation Loss: {val_losses[-1]:.4f} | Validation Accuracy: {val_accs[-1]:.4f}')
    print('-' * 50)

我们定义了训练循环来帮助模型从数据中学习并在每个时期提高其性能。

  1. 损失函数和优化器:我们首先设置nn.CrossEntropyLoss()损失函数,它非常适合多类分类任务。优化器torch.optim.Adam根据反向传播期间计算的梯度更新模型的参数,使用学习率为0.001
  2. 时期和跟踪:我们将训练时期(整个数据集上的迭代次数)的数量指定为num_epochs = 5。我们还初始化列表以跟踪训练和验证损失和准确度随时间的变化。
  3. 训练阶段:在主循环中,模型设置为train模式,这允许它调整其权重。对于每一批图像:
  • 我们用optimizer.zero_grad() 重置梯度。
  • 将图像传递给模型以获得预测(y_pred)。
  • 通过将预测与真实标签进行比较来计算损失。
  • 反向传播损失(loss.backward())并用optimizer.step()更新模型的权重。
  • 跟踪当前时期的累积训练损失和准确度。

4.验证阶段:在当前时期进行训练后,我们在验证集上评估模型(不更新权重):

  • 该模型设置为eval模式以禁用dropout和批量标准化层。
  • 我们计算每个批次的验证损失和准确度,类似于训练循环,但没有反向传播(使用torch.no_grad())。

5. 记录结果:在每个时期结束时,我们都会打印训练和验证损失和准确率,以监控模型的进度。这有助于我们了解模型是否正在改进或是否存在过度拟合的可能性。

每个时期都会让我们了解模型的学习效果,记录的结果可以帮助我们在必要时对模型进行微调。

8.评估模型性能

model.eval()
test_loss, total_correct, total_samples = 0, 0, 0
with torch.no_grad():
    for images, labels in test_loader:
        images, labels = images.to(device), labels.to(device)
        predictions = model(images)
        loss = criterion(predictions, labels)
        test_loss += loss.item()
        _, predicted_classes = torch.max(predictions, 1)
        total_correct += (predicted_classes == labels).sum().item()
        total_samples += labels.size(0)

avg_test_loss = test_loss / len(test_loader)
test_accuracy = total_correct / total_samples
print(f'Test Loss: {avg_test_loss:.4f}, Test Accuracy: {test_accuracy:.4f}')

训练完模型后,必须评估其在测试集(由未见过的数据组成)上的表现。此步骤可让我们更好地了解模型在训练和验证数据之外的泛化能力。

以下是评估代码的细目:

  1. 将模型设置为评估模式:通过调用model.eval(),我们将模型设置为评估模式。这将停用某些层(如 dropout),确保输出一致且测试结果可靠。
  2. 初始化跟踪变量:我们将test_losstotal_correct和初始化total_samples为零。这些变量将帮助我们计算所有批次的总体测试损失和准确度。
  3. 禁用梯度计算:通过torch.no_grad(),我们禁用梯度计算,这可以减少内存使用并加快进程,因为我们在测试期间不会更新任何模型参数。
  4. 循环测试数据:针对每个批次test_loader
  • 将图像和标签移动到设备(GPU 或 CPU)。
  • 将图像传递给模型以获得预测。
  • 计算预测和真实标签之间的损失,并将其添加到test_loss
  • 用于torch.max(predictions, 1)获取预测的类别标签。
  • predicted_classes通过与真实值进行比较来计算正确的预测labels,并将结果添加到total_correct
  • 增加total_samples当前批次中的图像数量,以跟踪测试样本的总数。

5.计算平均测试损失和准确率

  • avg_test_loss是通过将累计test_loss除以批次数(len(test_loader))来计算的。
  • test_accuracy计算为total_correct预测值与total_samples的比率,给出模型在测试集上的整体准确度。

6. 打印结果:最后,我们打印测试损失和准确率,总结模型在未见数据上的表现。此指标可以帮助您判断模型是否已准备好部署或是否需要进一步调整。

9.保存模型

model_save_path = 'cnn_rice_classifier.pth'
torch.save(model.state_dict(), model_save_path)
print(f'Model saved to {model_save_path}')

最后,我们保存模型,以便可以重复使用而无需重新训练。

总结

就这样!您已成功在 PyTorch 中构建并训练了一个 CNN 模型来对水稻品种进行分类。此过程涵盖了数据预处理、构建 CNN、训练和评估模型。只需进行一些调整,您就可以调整此模型来对其他类型的图像进行分类。祝您编码愉快!

相关推荐

sharding-jdbc实现`分库分表`与`读写分离`

一、前言本文将基于以下环境整合...

三分钟了解mysql中主键、外键、非空、唯一、默认约束是什么

在数据库中,数据表是数据库中最重要、最基本的操作对象,是数据存储的基本单位。数据表被定义为列的集合,数据在表中是按照行和列的格式来存储的。每一行代表一条唯一的记录,每一列代表记录中的一个域。...

MySQL8行级锁_mysql如何加行级锁

MySQL8行级锁版本:8.0.34基本概念...

mysql使用小技巧_mysql使用入门

1、MySQL中有许多很实用的函数,好好利用它们可以省去很多时间:group_concat()将取到的值用逗号连接,可以这么用:selectgroup_concat(distinctid)fr...

MySQL/MariaDB中如何支持全部的Unicode?

永远不要在MySQL中使用utf8,并且始终使用utf8mb4。utf8mb4介绍MySQL/MariaDB中,utf8字符集并不是对Unicode的真正实现,即不是真正的UTF-8编码,因...

聊聊 MySQL Server 可执行注释,你懂了吗?

前言MySQLServer当前支持如下3种注释风格:...

MySQL系列-源码编译安装(v5.7.34)

一、系统环境要求...

MySQL的锁就锁住我啦!与腾讯大佬的技术交谈,是我小看它了

对酒当歌,人生几何!朝朝暮暮,唯有己脱。苦苦寻觅找工作之间,殊不知今日之事乃我心之痛,难道是我不配拥有工作嘛。自面试后他所谓的等待都过去一段时日,可惜在下京东上的小金库都要见低啦。每每想到不由心中一...

MySQL字符问题_mysql中字符串的位置

中文写入乱码问题:我输入的中文编码是urf8的,建的库是urf8的,但是插入mysql总是乱码,一堆"???????????????????????"我用的是ibatis,终于找到原因了,我是这么解决...

深圳尚学堂:mysql基本sql语句大全(三)

数据开发-经典1.按姓氏笔画排序:Select*FromTableNameOrderByCustomerNameCollateChinese_PRC_Stroke_ci_as//从少...

MySQL进行行级锁的?一会next-key锁,一会间隙锁,一会记录锁?

大家好,是不是很多人都对MySQL加行级锁的规则搞的迷迷糊糊,一会是next-key锁,一会是间隙锁,一会又是记录锁。坦白说,确实还挺复杂的,但是好在我找点了点规律,也知道如何如何用命令分析加...

一文讲清怎么利用Python Django实现Excel数据表的导入导出功能

摘要:Python作为一门简单易学且功能强大的编程语言,广受程序员、数据分析师和AI工程师的青睐。本文系统讲解了如何使用Python的Django框架结合openpyxl库实现Excel...

用DataX实现两个MySQL实例间的数据同步

DataXDataX使用Java实现。如果可以实现数据库实例之间准实时的...

MySQL数据库知识_mysql数据库基础知识

MySQL是一种关系型数据库管理系统;那废话不多说,直接上自己以前学习整理文档:查看数据库命令:(1).查看存储过程状态:showprocedurestatus;(2).显示系统变量:show...

如何为MySQL中的JSON字段设置索引

背景MySQL在2015年中发布的5.7.8版本中首次引入了JSON数据类型。自此,它成了一种逃离严格列定义的方式,可以存储各种形状和大小的JSON文档,例如审计日志、配置信息、第三方数据包、用户自定...

取消回复欢迎 发表评论: