百度360必应搜狗淘宝本站头条
当前位置:网站首页 > 技术分类 > 正文

基于 PyTorch 的图像分类器训练(python cnn图像分类)

ztj100 2024-10-31 16:13 42 浏览 0 评论

#技术派的书架#

如果你刚刚开始学习 PyTorch,并想学习如何做一些基本的图像分类,你可以遵循这个教程。它将通过如何组织您的训练数据,使用预先训练的神经网络来训练您的模型,然后预测其他图像。

为此,我将使用来自谷歌地图的地图图片组成的数据集,并根据它们所包含的地形特征对它们进行分类。我会写另一个关于我如何使用它的故事(简而言之: 为了确定无人机飞越或降落的安全区域)。但是现在,我只想使用一些训练数据来对这些地图图片进行分类。

下面的代码片段来自于一个 Jupyter Notebook。您可以将它们组合在一起构建您自己的 Python 脚本。

搞定训练集

PyTorch 希望数据按照文件夹组织,每个类有一个文件夹。大多数其他 PyTorch 教程和示例都希望您用一个训练和验证文件夹进一步组织它,然后在它们内部使用类文件夹。但是我认为这是非常麻烦的,必须从每个类中选择一定数量的图像,然后将它们从训练文件夹移动到验证文件夹。而且由于大多数人会通过选择一个连续的文件组来实现这一点,因此在这个选择中可能存在很多偏差。

因此,这里有一个更好的方法来将数据集分割成动态的训练和测试集,就像 Python 开发人员习惯于从 SKLearn 中使用的那样。但是首先,让我们导入模块:

%matplotlib inline
%config InlineBackend.figure_format = 'retina'
import matplotlib.pyplot as pltimport numpy as np
import torch
from torch import nn
from torch import optim
import torch.nn.functional as F
from torchvision import datasets, transforms, models

接下来我们将定义训练/验证数据集加载器,使用 SubsetRandomSampler 进行分割:

data_dir = '/data/train'def load_split_train_test(datadir, valid_size = .2):
    train_transforms = transforms.Compose([transforms.Resize(224),
                                       transforms.ToTensor(),
                                       ])    test_transforms = transforms.Compose([transforms.Resize(224),
                                      transforms.ToTensor(),
                                      ])    train_data = datasets.ImageFolder(datadir,      
                    transform=train_transforms)
    test_data = datasets.ImageFolder(datadir,
                    transform=test_transforms)    num_train = len(train_data)
    indices = list(range(num_train))
    split = int(np.floor(valid_size * num_train))
    np.random.shuffle(indices)
    from torch.utils.data.sampler import SubsetRandomSampler
    train_idx, test_idx = indices[split:], indices[:split]
    train_sampler = SubsetRandomSampler(train_idx)
    test_sampler = SubsetRandomSampler(test_idx)
    trainloader = torch.utils.data.DataLoader(train_data,
                   sampler=train_sampler, batch_size=64)
    testloader = torch.utils.data.DataLoader(test_data,
                   sampler=test_sampler, batch_size=64)
    return trainloader, testloadertrainloader, testloader = load_split_train_test(data_dir, .2)
print(trainloader.dataset.classes)

接下来,我们将决定我们是否使用 GPU。我假设如果你这样做,你有一个安装有 GPU 驱动的电脑,否则代码运行速度将至少慢10倍。但是一般情况下,检查 GPU 的可用性是个好主意。

我们还将加载一个预训练模型:

device = torch.device("cuda" if torch.cuda.is_available()
                                  else "cpu")
model = models.resnet50(pretrained=True)
print(model)

输出模型将向您展示 ResNet 模型的层架构。这可能超出了我或你的理解,但是看看这些深层隐藏的东西还是很有趣的。

这取决于您选择什么模型,并且可能根据您的特定数据集选择不同的模型。

现在我们进入深层神经网络的有趣部分。首先,我们必须冻结预训练的层。然后,我们重新定义最终的全连接层,我们将用我们的图像训练的层。我们还创建了标准(损失函数) ,并选择合适的优化器(本例中为 Adam)和学习率。

for param in model.parameters():
    param.requires_grad = False
    
model.fc = nn.Sequential(nn.Linear(2048, 512),
                                 nn.ReLU(),
                                 nn.Dropout(0.2),
                                 nn.Linear(512, 10),
                                 nn.LogSoftmax(dim=1))
criterion = nn.NLLLoss()
optimizer = optim.Adam(model.fc.parameters(), lr=0.003)
model.to(device)

现在,让我们来训练我们的模型!在这个例子中只有一个 epoch,但是在大多数情况下你需要更多。从代码中可以看出,基本过程相当直观:加载图像的批处理并执行前向训练。然后计算损失函数,并使用优化器应用梯度下降法进行反向传播。

PyTorch 就是这么简单。下面的大部分代码每10个 batch 处理损失并计算准确性,因此您可以在训练运行时获得参数的更新。在验证期间,不要忘记将模型设置为 eval()模式,然后在完成之后返回 train()模式。

epochs = 1
steps = 0
running_loss = 0
print_every = 10
train_losses, test_losses = [], []for epoch in range(epochs):
    for inputs, labels in trainloader:
        steps += 1
        inputs, labels = inputs.to(device), labels.to(device)
        optimizer.zero_grad()
        logps = model.forward(inputs)
        loss = criterion(logps, labels)
        loss.backward()
        optimizer.step()
        running_loss += loss.item()
        
        if steps % print_every == 0:
            test_loss = 0
            accuracy = 0
            model.eval()
            with torch.no_grad():
                for inputs, labels in testloader:
                    inputs, labels = inputs.to(device),
                                      labels.to(device)
                    logps = model.forward(inputs)
                    batch_loss = criterion(logps, labels)
                    test_loss += batch_loss.item()
                    
                    ps = torch.exp(logps)
                    top_p, top_class = ps.topk(1, dim=1)
                    equals =
                        top_class == labels.view(*top_class.shape)
                    accuracy +=
                   torch.mean(equals.type(torch.FloatTensor)).item()
            train_losses.append(running_loss/len(trainloader))
            test_losses.append(test_loss/len(testloader))                    
            print(f"Epoch {epoch+1}/{epochs}.. "
                  f"Train loss: {running_loss/print_every:.3f}.. "
                  f"Test loss: {test_loss/len(testloader):.3f}.. "
                  f"Test accuracy: {accuracy/len(testloader):.3f}")
            running_loss = 0
            model.train()
torch.save(model, 'aerialmodel.pth')

然后... 等待几分钟(或者更长时间,取决于数据集的大小和设置的 epoch 的数目)之后,训练就结束了,模型保存下来以便以后进行预测!

现在还有一件事情你可以做,那就是计算训练和验证的损失:

plt.plot(train_losses, label='Training loss')
plt.plot(test_losses, label='Validation loss')
plt.legend(frameon=False)
plt.show()

正如您可以看到的,在我的一个特定的例子中,验证损失(这是我们感兴趣的)在第一个 epoch 结束时趋于平缓,甚至开始上升趋势,所以可能1个 epoch 就足够了。训练损失,正如预期的那样,是很低的。

现在进入第二部分。目前您对模型进行了训练,保存了它,并且需要在应用程序中使用它。为此,您需要能够对图像执行简单的推理。这样我就可以使用一些例子:

data_dir = '/datadrive/FastAI/data/aerial_photos/train'test_transforms = transforms.Compose([transforms.Resize(224),
                                      transforms.ToTensor(),
                                     ])

然后我们再次检查 GPU 的可用性,加载模型并将其放入评估模式(这样参数就不会改变) :

device = torch.device("cuda" if torch.cuda.is_available() else "cpu")
model=torch.load('aerialmodel.pth')
model.eval()

预测特定图像类别的函数非常简单。注意,它需要一个 Pillow 图像,而不是一个文件路径。

def predict_image(image):
    image_tensor = test_transforms(image).float()
    image_tensor = image_tensor.unsqueeze_(0)
    input = Variable(image_tensor)
    input = input.to(device)
    output = model(input)
    index = output.data.cpu().numpy().argmax()
    return index

现在为了更容易测试,我还创建了一个函数,可以从数据集文件夹中随机选取一些图片:

def get_random_images(num):
    data = datasets.ImageFolder(data_dir, transform=test_transforms)
    classes = data.classes
    indices = list(range(len(data)))
    np.random.shuffle(indices)
    idx = indices[:num]
    from torch.utils.data.sampler import SubsetRandomSampler
    sampler = SubsetRandomSampler(idx)
    loader = torch.utils.data.DataLoader(data,
                   sampler=sampler, batch_size=num)
    dataiter = iter(loader)
    images, labels = dataiter.next()
    return images, labels

最后,为了演示预测函数,我得到了随机的图像样本,对它们进行预测并显示结果:

to_pil = transforms.ToPILImage()
images, labels = get_random_images(5)
fig=plt.figure(figsize=(10,10))
for ii in range(len(images)):
    image = to_pil(images[ii])
    index = predict_image(image)
    sub = fig.add_subplot(1, len(images), ii+1)
    res = int(labels[ii]) == index
    sub.set_title(str(classes[index]) + ":" + str(res))
    plt.axis('off')
    plt.imshow(image)
plt.show()

这里有一个关于 Google 地图的预测的例子。标签是预测的类,我还显示了它是否是一个正确的预测。

差不多就是这样了。请继续在您的数据集上尝试。只要您正确地输入并处理您的图像,这段代码应该可以正常工作。

相关推荐

离谱!写了5年Vue,还不会自动化测试?

前言大家好,我是倔强青铜三。是一名热情的软件工程师,我热衷于分享和传播IT技术,致力于通过我的知识和技能推动技术交流与创新,欢迎关注我,微信公众号:倔强青铜三。Playwright是一个功能强大的端到...

package.json 与 package-lock.json 的关系

模块化开发在前端越来越流行,使用node和npm可以很方便的下载管理项目所需的依赖模块。package.json用来描述项目及项目所依赖的模块信息。那package-lock.json和...

Github 标星35k 的 SpringBoot整合acvtiviti开源分享,看完献上膝盖

前言activiti是目前比较流行的工作流框架,但是activiti学起来还是费劲,还是有点难度的,如何整合在线编辑器,如何和业务表单绑定,如何和系统权限绑定,这些问题都是要考虑到的,不是说纯粹的把a...

Vue3 + TypeScript 前端研发模板仓库

我们把这个Vue3+TypeScript前端研发模板仓库的初始化脚本一次性补全到可直接运行的状态,包括:完整的目录结构所有配置文件研发规范文档示例功能模块(ExampleFeature)...

Vue 2迁移Vue 3:从响应式到性能优化

小伙伴们注意啦!Vue2已经在2023年底正式停止维护,再不升级就要面临安全漏洞没人管的风险啦!而且Vue3带来的性能提升可不是一点点——渲染速度快40%,内存占用少一半,更新速度直接翻倍!还在...

VUE学习笔记:声明式渲染详解,对比WEB与VUE

声明式渲染是指使用简洁的模板语法,声明式的方式将数据渲染进DOM系统。声明式是相对于编程式而言,声明式是面向对象的,告诉框架做什么,具体操作由框架完成。编程式是面向过程思想,需要手动编写代码完成具...

苏州web前端培训班, 苏州哪里有web前端工程师培训

前端+HTML5德学习内容:第一阶段:前端页面重构:PC端网站布局、HTML5+CSS3基础项目、WebAPP页面布局;第二阶段:高级程序设计:原生交互功能开发、面向对象开发与ES5/ES6、工具库...

跟我一起开发微信小程序——扩展组件的代码提示补全

用户自定义代码块步骤:1.HBuilderX中工具栏:工具-代码块设置-vue代码块2.通过“1”步骤打开设置文件...

JimuReport 积木报表 v1.9.3发布,免费可视化报表

项目介绍积木报表JimuReport,是一款免费的数据可视化报表,含报表、大屏和仪表盘,像搭建积木一样完全在线设计!功能涵盖:数据报表、打印设计、图表报表、门户设计、大屏设计等!...

软开企服开源的无忧企业文档(V2.1.3)产品说明书

目录1....

一款面向 AI 的下一代富文本编辑器,已开源

简介AiEditor是一个面向AI的下一代富文本编辑器。开箱即用、支持所有前端框架、支持Markdown书写模式什么是AiEditor?AiEditor是一个面向AI的下一代富文本编辑...

玩转Markdown(2)——抽象语法树的提取与操纵

上一篇玩转Markdown——数据的分离存储与组件的原生渲染发布,转眼已经鸽了大半年了。最近在操纵mdast生成md文件的时候,心血来潮,把玩转Markdown(2)给补上了。...

DeepseekR1+ollama+dify1.0.0搭建企业/个人知识库(入门避坑版)

找了网上的视频和相关文档看了之后,可能由于版本不对或文档格式不对,很容易走弯路,看完这一章,可以让你少踩三天的坑。步骤和注意事项我一一列出来:1,前提条件是在你的电脑上已配置好ollama,dify1...

升级JDK17的理由,核心是降低GC时间

升级前后对比升级方法...

一个vsCode格式化插件_vscode格式化插件缩进量

ESlint...

取消回复欢迎 发表评论: