100.人工智能——构建LeNet-5神经网络模型
ztj100 2025-04-24 10:43 64 浏览 0 评论
LeNet-5是卷积神经网络模型的早期代表,它由LeCun在1998年提出。是人们第一次将卷积神经网络应用到图像分类任务上,在手写数字任务上取得巨大成功。
LeNet-5共有7层,包含3个卷积层、2个汇聚层以及2个全连接层的简单卷积神经网络。
- 使用卷积解决了全连接层的不足之处
- 卷积和池化层组合使用,逐层级的提取图像特征
- 在网络的最后使用全两层连接作为输出。
构建代码:
import paddle
import paddle.nn as nn
from paddle.nn import Conv2D,AvgPool2D,MaxPool2D
import paddle.nn.functional as F
import numpy as np
#定义LeNet-5网络模型
class LeNet(nn.Layer):
def __init__(self,in_channels,num_classes=10):
super(LeNet,self).__init__()
#卷积层:输出通道数为6,卷积核大小为5*5
self.conv1=Conv2D(in_channels=in_channels,out_channels=6,kernel_size=5,weight_attr=paddle.ParamAttr())
#汇聚层:汇聚窗口为2*2,步长为2
self.pool1=MaxPool2D(kernel_size=2,stride=2)
#卷积层:输入通道数为6,输出通道数为16,卷积核大小为5*5
self.conv2=Conv2D(in_channels=6,out_channels=16,kernel_size=5,stride=1,weight_attr=paddle.ParamAttr())
#汇聚层:汇聚窗口为2*2,步长为2
self.pool2=AvgPool2D(kernel_size=2,stride=2)
#卷积层:输入通道数为16,输出通道数为120,卷积核大小为5*5
self.conv3=Conv2D(in_channels=16,out_channels=120,kernel_size=5,stride=1,weight_attr=paddle.ParamAttr())
#全连接层:输入神经元为120,输出神经元为84
self.linear1=nn.Linear(in_features=120,out_features=84)
#全连接层:输入神经元为84,输出神经元为类别数
self.linear2=nn.Linear(in_features=84,out_features=num_classes)
def forward(self,x):
#卷积层+激活函数
output = F.relu(self.conv1(x))
#汇聚层
output = self.pool1(output)
#卷积层+激活函数
output = F.relu(self.conv2(output))
#汇聚层
output = self.pool2(output)
output = self.conv3(output)
#输入层将数据拉平[B,C,H,W] -> [B,C*H*W]
output = paddle.reshape(output, [output.shape[0], -1])
#2个全连接层
output = F.relu(self.linear1(output))
output = self.linear2(output)
return output
#模型测试
#构造一个形状#为 [1,1,32,32]的输入数据送入网络,观察每一层特征图的形状变化。代码实现如下:
inputs = np.random.randn(*[1,1,32,32]).astype(np.float32)
#创建LeNet类的实例,指定模型名称和分类的类别数目
model = LeNet(in_channels=1, num_classes=10)
#通过调用LeNet从基类继承的sublayers()函数,查看LeNet中所包含的子层
print(model.sublayers())
x = paddle.to_tensor(inputs)
for item in model.sublayers():
#item是LeNet类中的一个子层
#查看经过子层之后的输出数据形状
try:
x = item(x)
except:
#如果是最后一个卷积层输出,需要展平后才可以送入全连接层
x = paddle.reshape(x, [x.shape[0], -1])
x = item(x)
if len(item.parameters())==2:
#查看卷积和全连接层的数据和参数的形状,
#其中item.parameters()[0]是权重参数w,item.parameters()[1]是偏置参数b
print(item.full_name(), x.shape, item.parameters()[0].shape, item.parameters()[1].shape)
else:
#汇聚层没有参数
print(item.full_name(), x.shape)
#输出结果:
[ Conv2D(1, 6, kernel_size=[5, 5], data_format=NCHW),
MaxPool2D(kernel_size=2, stride=2, padding=0),
Conv2D(6, 16, kernel_size=[5, 5], data_format=NCHW),
AvgPool2D(kernel_size=2, stride=2, padding=0),
Conv2D(16, 120, kernel_size=[5, 5], data_format=NCHW),
Linear(in_features=120, out_features=84, dtype=float32),
Linear(in_features=84, out_features=10, dtype=float32)]
conv2d_3 [1, 6, 28, 28] [6, 1, 5, 5] [6]
max_pool2d_1 [1, 6, 14, 14]
conv2d_4 [1, 16, 10, 10] [16, 6, 5, 5] [16]
avg_pool2d_1 [1, 16, 5, 5]
conv2d_5 [1, 120, 1, 1] [120, 16, 5, 5] [120]
linear_2 [1, 84] [120, 84] [84]
linear_3 [1, 10] [84, 10] [10]
从输出结果看:
- 对于大小为32×32的单通道图像,先用6个大小为5×5的卷积核对其进行卷积运算,输出为6个28×28大小的特征图;
- 6个28×28大小的特征图经过大小为2×2,步长为2的汇聚层后,输出特征图的大小变为14×14;
- 6个14×14大小的特征图再经过16个大小为5×5的卷积核对其进行卷积运算,得到16个10×10大小的输出特征图;
- 16个10×10大小的特征图经过大小为2×2,步长为2的汇聚层后,输出特征图的大小变为5×5;
- 16个5×5大小的特征图再经过120个大小为5×5的卷积核对其进行卷积运算,得到120个1×1大小的输出特征图;
- 此时,将特征图展平成1维,则有120个像素点,经过输入神经元个数为120,输出神经元个数为84的全连接层后,输出的长度变为84。
- 再经过一个全连接层的计算,最终得到了长度为类别数的输出结果。
相关推荐
- 其实TensorFlow真的很水无非就这30篇熬夜练
-
好的!以下是TensorFlow需要掌握的核心内容,用列表形式呈现,简洁清晰(含表情符号,<300字):1.基础概念与环境TensorFlow架构(计算图、会话->EagerE...
- 交叉验证和超参数调整:如何优化你的机器学习模型
-
准确预测Fitbit的睡眠得分在本文的前两部分中,我获取了Fitbit的睡眠数据并对其进行预处理,将这些数据分为训练集、验证集和测试集,除此之外,我还训练了三种不同的机器学习模型并比较了它们的性能。在...
- 机器学习交叉验证全指南:原理、类型与实战技巧
-
机器学习模型常常需要大量数据,但它们如何与实时新数据协同工作也同样关键。交叉验证是一种通过将数据集分成若干部分、在部分数据上训练模型、在其余数据上测试模型的方法,用来检验模型的表现。这有助于发现过拟合...
- 深度学习中的类别激活热图可视化
-
作者:ValentinaAlto编译:ronghuaiyang导读使用Keras实现图像分类中的激活热图的可视化,帮助更有针对性...
- 超强,必会的机器学习评估指标
-
大侠幸会,在下全网同名[算法金]0基础转AI上岸,多个算法赛Top[日更万日,让更多人享受智能乐趣]构建机器学习模型的关键步骤是检查其性能,这是通过使用验证指标来完成的。选择正确的验证指...
- 机器学习入门教程-第六课:监督学习与非监督学习
-
1.回顾与引入上节课我们谈到了机器学习的一些实战技巧,比如如何处理数据、选择模型以及调整参数。今天,我们将更深入地探讨机器学习的两大类:监督学习和非监督学习。2.监督学习监督学习就像是有老师的教学...
- Python 模型部署不用愁!容器化实战,5 分钟搞定环境配置
-
你是不是也遇到过这种糟心事:花了好几天训练出的Python模型,在自己电脑上跑得顺顺当当,一放到服务器就各种报错。要么是Python版本不对,要么是依赖库冲突,折腾半天还是用不了。别再喊“我...
- 神经网络与传统统计方法的简单对比
-
传统的统计方法如...
- 自回归滞后模型进行多变量时间序列预测
-
下图显示了关于不同类型葡萄酒销量的月度多元时间序列。每种葡萄酒类型都是时间序列中的一个变量。假设要预测其中一个变量。比如,sparklingwine。如何建立一个模型来进行预测呢?一种常见的方...
- 苹果AI策略:慢哲学——科技行业的“长期主义”试金石
-
苹果AI策略的深度原创分析,结合技术伦理、商业逻辑与行业博弈,揭示其“慢哲学”背后的战略智慧:一、反常之举:AI狂潮中的“逆行者”当科技巨头深陷AI军备竞赛,苹果的克制显得格格不入:功能延期:App...
- 时间序列预测全攻略,6大模型代码实操
-
如果你对数据分析感兴趣,希望学习更多的方法论,希望听听经验分享,欢迎移步宝藏公众号...
你 发表评论:
欢迎- 一周热门
- 最近发表
- 标签列表
-
- idea eval reset (50)
- vue dispatch (70)
- update canceled (42)
- order by asc (53)
- spring gateway (67)
- 简单代码编程 贪吃蛇 (40)
- transforms.resize (33)
- redisson trylock (35)
- 卸载node (35)
- np.reshape (33)
- torch.arange (34)
- npm 源 (35)
- vue3 deep (35)
- win10 ssh (35)
- vue foreach (34)
- idea设置编码为utf8 (35)
- vue 数组添加元素 (34)
- std find (34)
- tablefield注解用途 (35)
- python str转json (34)
- java websocket客户端 (34)
- tensor.view (34)
- java jackson (34)
- vmware17pro最新密钥 (34)
- mysql单表最大数据量 (35)