百度360必应搜狗淘宝本站头条
当前位置:网站首页 > 技术分类 > 正文

卷积神经网络(CNN)数据流转详细流程,结合YOLO的实进行说明

ztj100 2025-04-24 10:43 37 浏览 0 评论


1. 输入预处理(Input Preprocessing)

作用:将原始数据转换为适合CNN处理的格式。

  • 图像尺寸统一化:如YOLOv5默认输入尺寸为640x640,所有输入图像会被缩放到这个尺寸。
  • 归一化:像素值从[0,255]缩放到[0,1]或[-1,1]。
  • 通道处理:BGR转RGB(OpenCV读取的图像需要转换)。
  • 批处理:多个样本打包成batch(如batch_size=16)。

Python复制

# YOLO中的典型预处理代码
img = cv2.resize(img, (640, 640))  # Resize
img = img / 255.0  # 归一化
img = np.transpose(img, (2,0,1))  # HWC → CHW

2. 卷积层(Convolutional Layer)

核心操作:局部感受野的特征提取。

  • 输入张量:形状为 [B, C, H, W](Batch, Channels, Height, Width)。
  • 卷积核:可学习的权重矩阵,形状为 [K, C, Fh, Fw]。
  • K:输出通道数(即filter数量)。
  • Fh/Fw:滤波器高度/宽度(如3x3)。
  • 计算过程:Output_{i,j,k} = ∑_{c=0}^{C-1} ∑_{m=0}^{Fh-1} ∑_{n=0}^{Fw-1} Input_{c, i+m, j+n} * Filter_{k,c,m,n} + Bias_k
  • 输出维度
  • 复制
  • H_out = (H_in + 2*pad - Fh) / stride + 1 W_out同理

YOLO应用:Darknet骨干网络中使用大量3x3卷积,配合1x1卷积调整通道数。


3. 激活函数(Activation Function)

作用:引入非线性。

  • 常见选择
  • ReLU:f(x) = max(0, x)(YOLO主要使用)。
  • LeakyReLU(解决“神经元死亡”问题)。
  • SiLU(YOLOv5/v6使用)。

数据变化:不改变张量维度,只进行逐元素运算。


4. 池化层(Pooling Layer)

作用:降维并保留主要特征。

  • 最大池化:取窗口内最大值(YOLO常用)。
  • 平均池化:取窗口内平均值。
  • 步长影响:一般stride=2,输出尺寸减半。

示例

输入尺寸:64x64 → 2x2池化 → 输出32x32


5. 特征图堆叠(Feature Hierarchy)

典型结构

Input → Conv1 → ReLU → Pool1 → Conv2 → ReLU → Pool2 → ... → Flatten

YOLO特色

  • 使用跨阶段部分连接(CSPNet)减少计算量。
  • SPP层(Spatial Pyramid Pooling)融合多尺度特征。

6. 全连接层(Fully Connected Layer)

作用:将高维特征映射到目标空间。

  • 输入:展平后的特征向量(如7x7x512 → 25088维)。
  • 输出:根据任务设计(分类任务输出类别概率,检测任务输出坐标+类别)。

YOLO变体

  • 使用1x1卷积代替全连接层(保留空间信息)。
  • 检测头输出形状:[B, anchors*(5+classes), H, W]。

7. 输出处理(Output Processing)

分类任务

  • Softmax归一化得到概率分布。

目标检测任务(YOLO)

  • 边界框解码:
  • 复制
  • # 将网络输出的偏移量转换为实际坐标 pred_x = (sigmoid(tx) * 2 - 0.5) + grid_x pred_y = (sigmoid(ty) * 2 - 0.5) + grid_y pred_w = (sigmoid(tw) * 2)^2 * anchor_w pred_h = (sigmoid(th) * 2)^2 * anchor_h
  • 非极大值抑制(NMS)去除冗余框。

8. 反向传播(Backpropagation)

虽然主要关注前向流程,但理解反向传播有助于把握数据流转:

  1. 计算损失函数(YOLO使用CIoU Loss)。
  2. 通过链式法则逐层计算梯度。
  3. 优化器(如SGD/Adam)更新权重。

YOLO数据流示例(简化版)

输入图像 → 数据增强 → Backbone(CSPDarknet) → Neck(PANet) → Head(检测输出) → 后处理(NMS)


关键参数计算技巧

  1. 感受野计算:当前层感受野 = 上一层感受野 + (kernel_size - 1) * 所有前面层的stride乘积
  2. FLOPs估算:FLOPs = H_out * W_out * C_in * C_out * K_h * K_w

通过这个流程,可以更清晰地理解CNN/YOLO内部的数据流转机制。实际应用中可以使用TensorBoard或Netron可视化网络结构辅助理解。

相关推荐

其实TensorFlow真的很水无非就这30篇熬夜练

好的!以下是TensorFlow需要掌握的核心内容,用列表形式呈现,简洁清晰(含表情符号,<300字):1.基础概念与环境TensorFlow架构(计算图、会话->EagerE...

交叉验证和超参数调整:如何优化你的机器学习模型

准确预测Fitbit的睡眠得分在本文的前两部分中,我获取了Fitbit的睡眠数据并对其进行预处理,将这些数据分为训练集、验证集和测试集,除此之外,我还训练了三种不同的机器学习模型并比较了它们的性能。在...

机器学习交叉验证全指南:原理、类型与实战技巧

机器学习模型常常需要大量数据,但它们如何与实时新数据协同工作也同样关键。交叉验证是一种通过将数据集分成若干部分、在部分数据上训练模型、在其余数据上测试模型的方法,用来检验模型的表现。这有助于发现过拟合...

深度学习中的类别激活热图可视化

作者:ValentinaAlto编译:ronghuaiyang导读使用Keras实现图像分类中的激活热图的可视化,帮助更有针对性...

超强,必会的机器学习评估指标

大侠幸会,在下全网同名[算法金]0基础转AI上岸,多个算法赛Top[日更万日,让更多人享受智能乐趣]构建机器学习模型的关键步骤是检查其性能,这是通过使用验证指标来完成的。选择正确的验证指...

机器学习入门教程-第六课:监督学习与非监督学习

1.回顾与引入上节课我们谈到了机器学习的一些实战技巧,比如如何处理数据、选择模型以及调整参数。今天,我们将更深入地探讨机器学习的两大类:监督学习和非监督学习。2.监督学习监督学习就像是有老师的教学...

Python教程(三十八):机器学习基础

...

Python 模型部署不用愁!容器化实战,5 分钟搞定环境配置

你是不是也遇到过这种糟心事:花了好几天训练出的Python模型,在自己电脑上跑得顺顺当当,一放到服务器就各种报错。要么是Python版本不对,要么是依赖库冲突,折腾半天还是用不了。别再喊“我...

超全面讲透一个算法模型,高斯核!!

...

神经网络与传统统计方法的简单对比

传统的统计方法如...

AI 基础知识从0.1到0.2——用“房价预测”入门机器学习全流程

...

自回归滞后模型进行多变量时间序列预测

下图显示了关于不同类型葡萄酒销量的月度多元时间序列。每种葡萄酒类型都是时间序列中的一个变量。假设要预测其中一个变量。比如,sparklingwine。如何建立一个模型来进行预测呢?一种常见的方...

苹果AI策略:慢哲学——科技行业的“长期主义”试金石

苹果AI策略的深度原创分析,结合技术伦理、商业逻辑与行业博弈,揭示其“慢哲学”背后的战略智慧:一、反常之举:AI狂潮中的“逆行者”当科技巨头深陷AI军备竞赛,苹果的克制显得格格不入:功能延期:App...

时间序列预测全攻略,6大模型代码实操

如果你对数据分析感兴趣,希望学习更多的方法论,希望听听经验分享,欢迎移步宝藏公众号...

AI 基础知识从 0.4 到 0.5—— 计算机视觉之光 CNN

...

取消回复欢迎 发表评论: