Pytorch 入门-day13: 调试与可视化
ztj100 2025-06-09 07:25 17 浏览 0 评论
目标:在第12天的代码基础上,学习如何使用TensorBoard可视化训练过程中的损失和准确率,并通过打印中间结果进行调试。目标是掌握TensorBoard的基本使用方法,理解如何通过可视化监控模型性能,从而更好地调试和优化深度学习模型。
术语解释:
- TensorBoard:TensorFlow开发的可视化工具,PyTorch也支持,用于实时监控训练过程中的指标(如损失、准确率)和模型结构。
- SummaryWriter:PyTorch中用于向TensorBoard写入日志的类,负责记录标量、图像、计算图等数据。
- 标量(Scalar):单一数值(如损失或准确率),在TensorBoard中以曲线形式展示,用于观察训练趋势。
- 计算图(Graph):模型的网络结构图,展示层之间的连接,便于调试模型设计。
- 日志目录(Log Directory):TensorBoard存储数据的文件夹,通常命名为runs/,可自定义以区分不同实验。
任务:在第12天的MNIST CNN训练代码中添加TensorBoard,记录训练损失、测试准确率,并可视化模型的计算图。继续打印中间结果以便调试。
资源建议:
- PyTorch TensorBoard官方文档
- TensorBoard入门教程(适用于PyTorch的TensorBoard集成)
代码实现(带详细注释)
以下代码在第12天的MNIST CNN训练代码基础上,添加了TensorBoard日志功能,记录训练损失、测试准确率和模型计算图,同时保留打印语句用于调试。
python
import torch
import torch.nn as nn
import torch.optim as optim
import torchvision
import torchvision.transforms as transforms
from torch.utils.data import DataLoader
from torch.utils.tensorboard import SummaryWriter # 导入TensorBoard的SummaryWriter
# 初始化TensorBoard的SummaryWriter,日志保存在'runs/mnist_experiment'目录
writer = SummaryWriter('runs/mnist_experiment')
# 设备配置:选择GPU(如果可用)或CPU
device = torch.device('cuda' if torch.cuda.is_available() else 'cpu')
# 数据预处理:将图像转换为Tensor并归一化(均值0.5,标准差0.5)
transform = transforms.Compose([
transforms.ToTensor(),
transforms.Normalize((0.5,), (0.5,))
])
# 加载MNIST数据集:训练集和测试集
train_dataset = torchvision.datasets.MNIST(root='./data', train=True, transform=transform, download=True)
test_dataset = torchvision.datasets.MNIST(root='./data', train=False, transform=transform)
train_loader = DataLoader(train_dataset, batch_size=64, shuffle=True)
test_loader = DataLoader(test_dataset, batch_size=64, shuffle=False)
# 定义CNN模型
class SimpleCNN(nn.Module):
def __init__(self):
super(SimpleCNN, self).__init__()
self.conv1 = nn.Conv2d(1, 16, kernel_size=3, padding=1) # 第一卷积层:输入1通道,输出16通道
self.relu1 = nn.ReLU() # ReLU激活函数
self.pool1 = nn.MaxPool2d(kernel_size=2, stride=2) # 最大池化:2x2
self.conv2 = nn.Conv2d(16, 32, kernel_size=3, padding=1) # 第二卷积层:输入16通道,输出32通道
self.relu2 = nn.ReLU()
self.pool2 = nn.MaxPool2d(kernel_size=2, stride=2) # 最大池化:2x2
self.fc1 = nn.Linear(32 * 7 * 7, 128) # 全连接层:输入32*7*7,输出128
self.relu3 = nn.ReLU()
self.fc2 = nn.Linear(128, 10) # 输出层:10个类别
def forward(self, x):
x = self.pool1(self.relu1(self.conv1(x))) # 卷积+激活+池化
x = self.pool2(self.relu2(self.conv2(x))) # 卷积+激活+池化
x = x.view(-1, 32 * 7 * 7) # 展平为1维向量
x = self.relu3(self.fc1(x)) # 全连接+激活
x = self.fc2(x) # 输出层
return x
# 实例化模型、损失函数和优化器
model = SimpleCNN().to(device)
criterion = nn.CrossEntropyLoss() # 交叉熵损失
optimizer = optim.Adam(model.parameters(), lr=0.001) # Adam优化器,学习率0.001
# 记录模型计算图(仅需一次,使用第一批数据)
images, _ = next(iter(train_loader)) # 获取一批数据
writer.add_graph(model, images.to(device)) # 将模型结构写入TensorBoard
# 训练模型
num_epochs = 10
for epoch in range(num_epochs):
model.train() # 设置模型为训练模式
running_loss = 0.0
correct = 0
total = 0
for i, (images, labels) in enumerate(train_loader):
images, labels = images.to(device), labels.to(device) # 移动数据到设备
optimizer.zero_grad() # 清空梯度
outputs = model(images) # 前向传播
loss = criterion(outputs, labels) # 计算损失
loss.backward() # 反向传播
optimizer.step() # 更新参数
# 累加损失和准确率
running_loss += loss.item()
_, predicted = torch.max(outputs.data, 1)
total += labels.size(0)
correct += (predicted == labels).sum().item()
# 每100个批次记录一次损失和准确率
if (i + 1) % 100 == 0:
avg_loss = running_loss / 100
avg_acc = 100 * correct / total
# 记录到TensorBoard
writer.add_scalar('Training Loss', avg_loss, epoch * len(train_loader) + i)
writer.add_scalar('Training Accuracy', avg_acc, epoch * len(train_loader) + i)
# 打印中间结果用于调试
print(f'Epoch [{epoch+1}/{num_epochs}], Step [{i+1}/{len(train_loader)}], '
f'Loss: {avg_loss:.4f}, Accuracy: {avg_acc:.2f}%')
running_loss = 0.0
correct = 0
total = 0
# 测试模型
model.eval() # 设置模型为评估模式
correct = 0
total = 0
test_loss = 0.0
with torch.no_grad(): # 禁用梯度计算
for images, labels in test_loader:
images, labels = images.to(device), labels.to(device)
outputs = model(images)
loss = criterion(outputs, labels)
test_loss += loss.item()
_, predicted = torch.max(outputs.data, 1)
total += labels.size(0)
correct += (predicted == labels).sum().item()
# 计算测试集平均损失和准确率
avg_test_loss = test_loss / len(test_loader)
test_accuracy = 100 * correct / total
# 记录测试集指标到TensorBoard
writer.add_scalar('Test Loss', avg_test_loss, epoch)
writer.add_scalar('Test Accuracy', test_accuracy, epoch)
# 打印测试结果
print(f'Epoch [{epoch+1}/{num_epochs}], Test Loss: {avg_test_loss:.4f}, '
f'Test Accuracy: {test_accuracy:.2f}%')
# 关闭SummaryWriter
writer.close()
运行TensorBoard
- 运行代码后,TensorBoard日志将保存在runs/mnist_experiment目录。
- 打开终端,运行以下命令:bash
- tensorboard --logdir runs
- 在浏览器中访问http://localhost:6006(或终端指定的端口),查看TensorBoard仪表板。
- 仪表板将显示:
- 标量(Scalars):训练损失、训练准确率、测试损失和测试准确率的曲线。
- 计算图(Graphs):模型的网络结构,展示各层的连接。
代码说明
- TensorBoard集成: 使用SummaryWriter创建日志目录runs/mnist_experiment,可自定义目录名以区分实验。 writer.add_scalar记录训练和测试的损失与准确率,步数(step)使用epoch * len(train_loader) + i确保连续性。 writer.add_graph记录模型结构,便于检查网络设计是否正确。
- 调试支持: 每100个批次打印一次训练损失和准确率,便于实时监控。 测试阶段打印平均损失和准确率,帮助分析模型性能。
- 频率控制:训练指标每100批次记录一次,测试指标每轮记录一次,平衡日志大小与可视化清晰度。
附加建议
- 扩展日志:可记录其他指标,如学习率(writer.add_scalar('Learning Rate', optimizer.param_groups[0]['lr'], epoch))。
- 调试技巧:检查TensorBoard曲线是否异常(例如损失不下降),结合打印结果定位问题(如梯度消失或数据预处理错误)。
- 多实验比较:通过更改SummaryWriter的目录名(如runs/experiment_2),在TensorBoard中对比不同超参数的训练效果。
相关推荐
- Linux集群自动化监控系统Zabbix集群搭建到实战
-
自动化监控系统...
- systemd是什么如何使用_systemd/system
-
systemd是什么如何使用简介Systemd是一个在现代Linux发行版中广泛使用的系统和服务管理器。它负责启动系统并管理系统中运行的服务和进程。使用管理服务systemd可以用来启动、停止、...
- Linux服务器日常巡检脚本分享_linux服务器监控脚本
-
Linux系统日常巡检脚本,巡检内容包含了,磁盘,...
- 7,MySQL管理员用户管理_mysql 管理员用户
-
一、首次设置密码1.初始化时设置(推荐)mysqld--initialize--user=mysql--datadir=/data/3306/data--basedir=/usr/local...
- Python数据库编程教程:第 1 章 数据库基础与 Python 连接入门
-
1.1数据库的核心概念在开始Python数据库编程之前,我们需要先理解几个核心概念。数据库(Database)是按照数据结构来组织、存储和管理数据的仓库,它就像一个电子化的文件柜,能让我们高效...
- Linux自定义开机自启动服务脚本_linux添加开机自启动脚本
-
设置WGCloud开机自动启动服务init.d目录下新建脚本在/etc/rc.d/init.d新建启动脚本wgcloudstart.sh,内容如下...
- linux系统启动流程和服务管理,带你进去系统的世界
-
Linux启动流程Rhel6启动过程:开机自检bios-->MBR引导-->GRUB菜单-->加载内核-->init进程初始化Rhel7启动过程:开机自检BIOS-->M...
- CentOS7系统如何修改主机名_centos更改主机名称
-
请关注本头条号,每天坚持更新原创干货技术文章。如需学习视频,请在微信搜索公众号“智传网优”直接开始自助视频学习1.前言本文将讲解CentOS7系统如何修改主机名。...
- 前端工程师需要熟悉的Linux服务器(SSH 终端操作)指令
-
在Linux服务器管理中,SSH(SecureShell)是远程操作的核心工具。以下是SSH终端操作的常用命令和技巧,涵盖连接、文件操作、系统管理等场景:一、SSH连接服务器1.基本连接...
- Linux开机自启服务完全指南:3步搞定系统服务管理器配置
-
为什么需要配置开机自启?想象一下:电商服务器重启后,MySQL和Nginx没自动启动,整个网站瘫痪!这就是为什么开机自启是Linux运维的必备技能。自启服务能确保核心程序在系统启动时自动运行,避免人工...
- Kubernetes 高可用(HA)集群部署指南
-
Kubernetes高可用(HA)集群部署指南本指南涵盖从概念理解、架构选择,到kubeadm高可用部署、生产优化、监控备份和运维的全流程,适用于希望搭建稳定、生产级Kubernetes集群...
- Linux项目开发,你必须了解Systemd服务!
-
1.Systemd简介...
- Linux系统systemd服务管理工具使用技巧
-
简介:在Linux系统里,systemd就像是所有进程的“源头”,它可是系统中PID值为1的进程哟。systemd其实是一堆工具的组合,它的作用可不止是启动操作系统这么简单,像后台服务...
- Linux下NetworkManager和network的和平共处
-
简介我们在使用CentoOS系统时偶尔会遇到配置都正确但network启动不了的问题,这问题经常是由NetworkManager引起的,关闭NetworkManage并取消开机启动network就能正...
你 发表评论:
欢迎- 一周热门
-
-
MySQL中这14个小玩意,让人眼前一亮!
-
旗舰机新标杆 OPPO Find X2系列正式发布 售价5499元起
-
Linux下NetworkManager和network的和平共处
-
Kubernetes 高可用(HA)集群部署指南
-
linux系统启动流程和服务管理,带你进去系统的世界
-
7,MySQL管理员用户管理_mysql 管理员用户
-
面试官:使用int类型做加减操作,是线程安全吗
-
C++编程知识:ToString()字符串转换你用正确了吗?
-
【Spring Boot】WebSocket 的 6 种集成方式
-
PyTorch 深度学习实战(26):多目标强化学习Multi-Objective RL
-
- 最近发表
-
- Linux集群自动化监控系统Zabbix集群搭建到实战
- systemd是什么如何使用_systemd/system
- Linux服务器日常巡检脚本分享_linux服务器监控脚本
- 7,MySQL管理员用户管理_mysql 管理员用户
- Python数据库编程教程:第 1 章 数据库基础与 Python 连接入门
- Linux自定义开机自启动服务脚本_linux添加开机自启动脚本
- linux系统启动流程和服务管理,带你进去系统的世界
- CentOS7系统如何修改主机名_centos更改主机名称
- 前端工程师需要熟悉的Linux服务器(SSH 终端操作)指令
- Linux开机自启服务完全指南:3步搞定系统服务管理器配置
- 标签列表
-
- idea eval reset (50)
- vue dispatch (70)
- update canceled (42)
- order by asc (53)
- spring gateway (67)
- 简单代码编程 贪吃蛇 (40)
- transforms.resize (33)
- redisson trylock (35)
- 卸载node (35)
- np.reshape (33)
- torch.arange (34)
- npm 源 (35)
- vue3 deep (35)
- win10 ssh (35)
- vue foreach (34)
- idea设置编码为utf8 (35)
- vue 数组添加元素 (34)
- std find (34)
- tablefield注解用途 (35)
- python str转json (34)
- java websocket客户端 (34)
- tensor.view (34)
- java jackson (34)
- vmware17pro最新密钥 (34)
- mysql单表最大数据量 (35)