百度360必应搜狗淘宝本站头条
当前位置:网站首页 > 技术分类 > 正文

「Pytorch基础」torch基础介绍与简单卷积神经网络

ztj100 2024-11-03 16:15 22 浏览 0 评论

from __future__ import print_function

import torch

x=torch.Tensor(5,3)#创造未初始化矩阵

x=torch.rand(5,3)#创造随机5*3矩阵

#print(x.size())

y=torch.rand(5,3)

print(x+y)

print(torch.add(x,y))

#输出Tensor

result=torch.Tensor(5,3)

torch.add(x,y,out=result)

print(y.add_(x))

#改变tensor内容的方法都要加下划线

print(x[:,1])#输出第二列

#Tensor与numpy array共享存储空间

import numpy as np

a=np.ones(5)

b=torch.from_numpy(a)

np.add(a,1,out=a)

#print(a)

#print(b)#b随着a被改变

#启用2019年甜品级显卡1660Ti

if torch.cuda.is_available():

x=x.cuda()

y=y.cuda()

print(x+y)

#Tensor自动求导运行Autograd包,运行时定义

Variable是其核心类,一旦完成了运算,可以调用.backward()计算梯度

梯度记录在.grad属性中

每个Variable拥有一个.grad_fn属性,引用了一个创建Variable的Function,

除了用户创建的Variable其grad_fn是None

除标量外,求导方法必须传入参数grad_output,和tensor形状匹配

from torch.autograd import Variable

x=Variable(torch.ones(2,2),requires_grad=True)

y=x+2

print(y.grad_fn)

z=y*y*3

out=z.mean()#求和再除以面积

out.backward()

print(x.grad)#输出对x的导数

#定义并使用神经网络

#使用最简单的GD优化

import torch.nn as nn

import torch.nn.functional as F

class Net(nn.Module):

def __init__(self):

super(Net,self).__init__()

self.conv1=nn.Conv2d(1,6,5)#1个输入channel,6个输出channel,5*5卷积核

self.conv2=nn.Conv2d(6,16,5)

self.fc1=nn.Linear(16*5*5,120)

self.fc2=nn.Linear(120,84)

self.fc3=nn.Linear(84,10)

def forward(self,x):

x=F.max_pool2d(F.relu(self.conv1(x)),(2,2))

x=F.max_pool2d(F.relu(self.conv2(x)),2)#size写2等价于(2,2)

x=x.view(-1,self.num_flat_features(x))#view()相当于numpy的reshape(),写-1表示不确定

x=F.relu(self.fc1(x))

x=F.relu(self.fc2(x))

x=self.fc3(x)

return x


def num_flat_features(self,x):

size=x.size()[1:]

num_features=1

for s in size:

num_features*= s

return num_features

net=Net()

print(net)

#NN的backward自动生成,模型中可学习的参数net.parameters()

params=list(net.parameters())

print(len(params))

print(params[0].size())

input=Variable(torch.randn(1,1,32,32))

out=net(input)

print(out)

out.backward(torch.randn(1,10))

output=net(input)

target=Variable(torch.range(1,10))

criterion=nn.MSELoss()

loss=criterion(output,target)

print(loss)

net.zero_grad()

loss.backward(retain_graph=True)#更新所有梯度

#GD法更新权重

lr=0.001

for f in net.parameters():

f.data.sub_(f.grad.data*lr)

#使用RMSProp更新梯度

import torch.optim as optim

optimizer=optim.RMSprop(net.parameters(),lr=0.001)

output=net(input)

loss=criterion(output,target)

loss.backward()

optimizer.step()

#图像Pillow,openCV,声音scipy librosa,文本 nltk spacy转numpy.array

相关推荐

这个 JavaScript Api 已被废弃!请慎用!

在开发过程中,我们可能会不自觉地使用一些已经被标记为废弃的JavaScriptAPI。这些...

JavaScript中10个“过时”的API,你的代码里还在用吗?

JavaScript作为一门不断发展的语言,其API也在持续进化。新的、更安全、更高效的API不断涌现,而一些旧的API则因为各种原因(如安全问题、性能瓶颈、设计缺陷或有了更好的替代品)被标记为“废...

几大开源免费的 JavaScript 富文本编辑器测评

MarkDown编辑器用的时间长了,发现发现富文本编辑器用起来是真的舒服。...

比较好的网页里面的 html 编辑器 推荐

如果您正在寻找嵌入到网页中的HTML编辑器,以便用户可以直接在网页上编辑HTML内容,以下是几个备受推荐的:CKEditor:CKEditor是一个功能强大的、开源的富文本编辑器,可以嵌入到...

Luckysheet 实现excel多人在线协同编辑

前言前些天看到Luckysheet支持协同编辑Excel,正符合我们协同项目的一部分,故而想进一步完善协同文章,但是遇到了一下困难,特此做声明哈,若侵权,请联系我删除文章!若侵犯版权、个人隐私,请联系...

从 Element UI 源码的构建流程来看前端 UI 库设计

作者:前端森林转发链接:https://mp.weixin.qq.com/s/ziDMLDJcvx07aM6xoEyWHQ引言...

手把手教你如何用 Decorator 装饰你的 Typescript?「实践」

作者:Nealyang转发连接:https://mp.weixin.qq.com/s/PFgc8xD7gT40-9qXNTpk7A...

推荐五个优秀的富文本编辑器

富文本编辑器是一种可嵌入浏览器网页中,所见即所得的文本编辑器。对于许多从事前端开发的小伙伴来说并不算陌生,它的应用场景非常广泛,平时发个评论、写篇博客文章等都能见到它的身影。...

基于vue + element的后台管理系统解决方案

作者:林鑫转发链接:https://github.com/lin-xin前言该方案作为一套多功能的后台框架模板,适用于绝大部分的后台管理系统(WebManagementSystem)开发。基于v...

开源富文本编辑器Quill 2.0重磅发布

开源富文本编辑器Quill正式发布2.0版本。官方TypeScript声明...

Python之Web开发框架学习 Django-表单处理

在Django中创建表单实际上类似于创建模型。同样,我们只需要从Django类继承,则类属性将是表单字段。让我们在myapp文件夹中添加一个forms.py文件以包含我们的应用程序表单。我们将创建一个...

Django测试入门:打造坚实代码基础的钥匙

这一篇说一下django框架的自动化测试,...

Django ORM vs SQLAlchemy:到底谁更香?从入门到上头的选择指南

阅读文章前辛苦您点下“关注”,方便讨论和分享,为了回馈您的支持,我将每日更新优质内容。...

超详细的Django 框架介绍,它来了!

时光荏苒,一晃小编的Tornado框架系列也结束了。这个框架虽然没有之前的FastAPI高流量,但是,它也是小编的心血呀。总共16篇博文,从入门到进阶,包含了框架的方方面面。虽然小编有些方面介绍得不是...

20《Nginx 入门教程》使用 Nginx 部署 Python 项目

今天的目标是完成一个PythonWeb项目的线上部署,我们使用最新的Django项目搭建一个简易的Web工程,然后基于Nginx服务部署该PythonWeb项目。1.前期准备...

取消回复欢迎 发表评论: