百度360必应搜狗淘宝本站头条
当前位置:网站首页 > 技术分类 > 正文

可视化神经网络训练:PyTorch线性回归与决策边界实战

ztj100 2025-06-15 20:40 17 浏览 0 评论

本文较长,建议点赞收藏,以免遗失。更多AI大模型应用开发学习视频及资料,尽在官网-聚客AI学院大模型应用开发微调项目实践课程学习平台

一. 单层神经元实现线性回归

1.1 线性模型数学原理

线性回归模型定义为:

y=w·x+by=w·x+b

其中:

  • ww:权重(Weight)
  • bb:偏置(Bias)
  • xx:输入特征
  • yy:预测输出

目标:通过最小化均方误差(MSE)损失函数学习参数:

1.2 PyTorch实现代码

import torch  
import matplotlib.pyplot as plt  
# 生成数据  
X = torch.linspace(0, 10, 100).reshape(-1, 1)  
y = 3 * X + 2 + torch.randn(100, 1) * 2  # 添加噪声  
# 定义模型  
class LinearModel(torch.nn.Module):  
    def __init__(self):  
        super().__init__()  
        self.linear = torch.nn.Linear(1, 1)  # 单层神经元  
    def forward(self, x):  
        return self.linear(x)  
model = LinearModel()  
criterion = torch.nn.MSELoss()  
optimizer = torch.optim.SGD(model.parameters(), lr=0.01)  
# 训练循环  
losses = []  
for epoch in range(100):  
    pred = model(X)  
    loss = criterion(pred, y)  
    optimizer.zero_grad()  
    loss.backward()  
    optimizer.step()  
    losses.append(loss.item())  
# 可视化  
plt.scatter(X.numpy(), y.numpy(), label='Data')  
plt.plot(X.numpy(), model(X).detach().numpy(), 'r', label='Fitted Line')  
plt.legend()  
plt.show()


二. 线性模型实现二分类

2.1 逻辑回归原理

将线性输出通过Sigmoid函数映射到(0,1)区间:

损失函数使用二元交叉熵(BCE):

2.2 代码实现与决策边界

from sklearn.datasets import make_moons  
# 生成二分类数据集  
X, y = make_moons(n_samples=200, noise=0.1)  
X = torch.tensor(X, dtype=torch.float32)  
y = torch.tensor(y, dtype=torch.float32).reshape(-1, 1)  
# 定义模型(增加Sigmoid激活)  
class LogisticRegression(torch.nn.Module):  
    def __init__(self):  
        super().__init__()  
        self.linear = torch.nn.Linear(2, 1)  
        self.sigmoid = torch.nn.Sigmoid()  
    def forward(self, x):  
        return self.sigmoid(self.linear(x))  
model = LogisticRegression()  
criterion = torch.nn.BCELoss()  
optimizer = torch.optim.Adam(model.parameters(), lr=0.1)  
# 训练  
for epoch in range(1000):  
    pred = model(X)  
    loss = criterion(pred, y)  
    optimizer.zero_grad()  
    loss.backward()  
    optimizer.step()  
# 可视化决策边界  
def plot_decision_boundary(model, X, y):  
    x_min, x_max = X[:,0].min()-0.5, X[:,0].max()+0.5  
    y_min, y_max = X[:,1].min()-0.5, X[:,1].max()+0.5  
    xx, yy = torch.meshgrid(torch.linspace(x_min, x_max, 100),  
                           torch.linspace(y_min, y_max, 100))  
    grid = torch.cat((xx.reshape(-1,1), yy.reshape(-1,1)), dim=1)  
    probs = model(grid).reshape(xx.shape)  
    plt.contourf(xx, yy, probs > 0.5, alpha=0.3)  
    plt.scatter(X[:,0], X[:,1], c=y.squeeze(), edgecolors='k')  
    plt.show()  
plot_decision_boundary(model, X, y)

关键输出

  • 训练后准确率 > 85%
  • 决策边界图显示线性分类器的局限性


三. 多层感知机(MLP)手动推导与实现

3.1 手动推导反向传播

网络结构:输入层(2) → 隐藏层(4, ReLU) → 输出层(1, Sigmoid)

前向传播

反向传播梯度计算

3.2 PyTorch自动梯度实现

class MLP(torch.nn.Module):  
    def __init__(self):  
        super().__init__()  
        self.fc1 = torch.nn.Linear(2, 4)  
        self.fc2 = torch.nn.Linear(4, 1)  
        self.relu = torch.nn.ReLU()  
        self.sigmoid = torch.nn.Sigmoid()  
    def forward(self, x):  
        x = self.relu(self.fc1(x))  
        x = self.sigmoid(self.fc2(x))  
        return x  
model = MLP()  
optimizer = torch.optim.Adam(model.parameters(), lr=0.05)  
# 复用之前的训练循环  
# ...  
plot_decision_boundary(model, X, y)  # 显示非线性决策边界

优化技巧

  • 权重初始化:torch.nn.init.kaiming_normal_(self.fc1.weight)
  • 学习率调度:scheduler = torch.optim.lr_scheduler.StepLR(optimizer, step_size=30, gamma=0.1)
  • 梯度裁剪:torch.nn.utils.clip_grad_norm_(model.parameters(), max_norm=1.0)


四. 总结

4.1 核心要点总结

附:完整训练监控代码

from torch.utils.tensorboard import SummaryWriter  
writer = SummaryWriter()  
for epoch in range(1000):  
    pred = model(X)  
    loss = criterion(pred, y)  
    acc = ((pred > 0.5) == y).float().mean()  
    optimizer.zero_grad()  
    loss.backward()  
    optimizer.step()  
    writer.add_scalar('Loss/train', loss.item(), epoch)  
    writer.add_scalar('Accuracy/train', acc.item(), epoch)  
# 启动TensorBoard  
# tensorboard --logdir=runs


:本文代码基于PyTorch 2.0+实现,运行前需安装:

pip install torch matplotlib scikit-learn tensorboard

如果本次分享对你有所帮助,记得告诉身边有需要的朋友,"我们正在经历的不仅是技术迭代,而是认知革命。当人类智慧与机器智能形成共生关系,文明的火种将在新的维度延续。"在这场波澜壮阔的文明跃迁中,主动拥抱AI时代,就是掌握打开新纪元之门的密钥,让每个人都能在智能化的星辰大海中,找到属于自己的航向。

相关推荐

作为后端开发,你知道MyBatis有哪些隐藏的 “宝藏” 扩展点吗?

在互联网大厂后端开发领域,MyBatis作为一款主流的持久层框架,凭借其灵活的配置与强大的数据处理能力,广泛应用于各类项目之中。然而,随着业务场景日趋复杂、系统规模不断扩张,开发过程中常面临SQL...

基于Spring+SpringMVC+Mybatis分布式敏捷开发系统架构(附源码)

前言zheng项目不仅仅是一个开发架构,而是努力打造一套从前端模板-基础框架-分布式架构-开源项目-持续集成-自动化部署-系统监测-无缝升级的全方位J2EE企业级开发解...

基于Java实现,支持在线发布API接口读取数据库,有哪些工具?

基于java实现,不需要编辑就能发布api接口的,有哪些工具、平台?还能一键发布、快速授权和开放提供给第三方请求调用接口的解决方案。架构方案设计:以下是一些基于Java实现的无需编辑或只需少量编辑...

Mybatis Plus框架学习指南-第三节内容

自动填充字段基本概念MyBatis-Plus提供了一个便捷的自动填充功能,用于在插入或更新数据时自动填充某些字段,如创建时间、更新时间等。原理...

被你误删了的代码,在 IntelliJ IDEA中怎么被恢复

在IntelliJIDEA中一不小心将你本地代码给覆盖了,这个时候,你ctrl+z无效的时候,是不是有点小激动?我今天在用插件mybatisgenerator自动生成mapper的时候,...

修改 mybatis-generator 中数据库类型和 Java 类型的映射关系

使用mybatis-generator发现数据库类型是tinyint(4),生成model时字段类型是Byte,使用的时候有点不便数据库的类型和Model中Java类型的关系...

又被问到了, java 面试题:反射的实现原理及用途?

一、反射的实现原理反射(Reflection)是Java在运行时动态获取类的元数据(如方法、字段、构造器等)并操作类对象的能力。其核心依赖于...

Spring Boot 中JPA和MyBatis技术那个更好?

你在进行SpringBoot项目开发时,是不是也经常在选择JPA和MyBatis这两个持久化技术上犯难?面对众多前辈的经验之谈,却始终拿不准哪种技术才最适合自己的项目?别担心,今天咱们就...

Spring Boot (七)MyBatis代码自动生成和辅助插件

一、简介1.1MyBatisGenerator介绍MyBatisGenerator是MyBatis官方出品的一款,用来自动生成MyBatis的mapper、dao、entity的框架,让...

解决MyBatis Generator自动生成.java.1文件

MyBatis框架操作数据库,一张表对应着一个实体类、一个Mapper接口文件、一个Mapper映射文件。一个工程项目通常最少也要几十张表,那工作量可想而知非常巨大的,MyBatis框架替我们想好了解...

Linux yq 命令使用详解

简介yq是一个轻量级、可移植的命令行...

7 段不到 50 行的 Python 脚本,解决 7 个真实麻烦:代码、场景与可复制

“...

Python学不会来打我(62) json数据操作汇总

很多小伙伴学了很久的python一直还是没有把数据类型之间的转换搞明白,上一篇文章我们详细分享了python的列表、元组、字典、集合之间的相互转换,这一篇文章我们来分享json数据相关的操作,虽然严格...

之前3W买的Python全系列教程完整版(懂中文就能学会)

今天给大家带来了干货,Python入门教程完整版,完整版啊!完整版!言归正传,小编该给大家介绍一下这套教程了,希望每个小伙伴都沉迷学习,无法自拔...

x-cmd pkg | grex - 正则表达式生成利器,解决手动编写的烦恼

简介grex是一个旨在简化创作正则表达式的复杂且繁琐任务的库和命令行程序。这个项目最初是DevonGovett编写的JavaScript工具regexgen的Rust移植。但re...

取消回复欢迎 发表评论: