PyTorch深度学习框架进阶——Transformer详解(一)
ztj100 2025-04-26 22:45 3 浏览 0 评论
Transformer 是一种基于自注意力机制的神经网络架构,由Vaswani等人在2017年提出(论文《Attention is All You Need》)。
Transformer模型结构
Transformer是一个编码器-解码器(Encoder-Decoder)架构,但也可单独使用编码器(如BERT)或解码器(如GPT)。
编码器(Encoder):
- 包含N个相同的层,每层由多头自注意力(Multi-Head Self-Attention)和前馈神经网络(Feed-Forward Network, FFN)组成。
- 残差连接(Residual Connection)和层归一化(Layer Normalization)应用于每个子层。
解码器(Decoder):
- 同样包含N个层,每层在编码器结构基础上增加编码器-解码器注意力(Encoder-Decoder Attention)。
- 使用掩码自注意力(Masked Self-Attention)防止信息泄漏。
核心组件
自注意力机制(Self-Attention)
- 目的:捕捉序列中各个位置间的依赖关系,无论距离远近。
- 计算步骤:
- 将输入转换为查询(Query)、键(Key)、值(Value)矩阵。
- 计算注意力分数:
- 缩放因子用于防止点积过大导致梯度消失。
1.将输入序列中的每个词转换为向量表示
2.通过线性变换将输入嵌入转换为三个矩阵:查询矩阵 Q、键矩阵 K 和值矩阵 V
3.使用点积计算 Q 和 K 之间的相似度得分
4.对得分进行缩放(通常除以 √d,其中 d 是键向量的维度)并应用 softmax 函数得到注意力权重
5.将注意力权重与 V 相乘,得到每个位置的输出
多头注意力(Multi-Head Attention)
- 动机:并行学习不同子空间的注意力模式,增强模型表达能力。
- 实现:将Q、K、V投影到h个不同的子空间,分别计算注意力后拼接结果。这样就在不同的表示子空间里捕捉到不同的关系。
位置编码(Positional Encoding)
- 作用:为序列注入位置信息(通过正弦和余弦函数生成),弥补对顺序不敏感的问题。
- 公式:
class PositionalEncoding(nn.Module):
def __init__(self, d_model, max_len=5000):
super().__init__()
pe = torch.zeros(max_len, d_model)
position = torch.arange(0, max_len, dtype=torch.float).unsqueeze(1)
div_term = torch.exp(torch.arange(0, d_model, 2).float() * (-math.log(10000.0) / d_model))
pe[:, 0::2] = torch.sin(position * div_term)
pe[:, 1::2] = torch.cos(position * div_term)
self.register_buffer('pe', pe.unsqueeze(0)) # [1, max_len, d_model]
def forward(self, x):
return x + self.pe[:, :x.size(1)]
前馈神经网络(Feed-Forward Network)
- 结构:两层全连接层,中间使用ReLU激活。
- 公式:
class FeedForward(nn.Module):
def __init__(self, d_model, d_ff=2048):
super().__init__()
self.linear1 = nn.Linear(d_model, d_ff)
self.linear2 = nn.Linear(d_ff, d_model)
self.dropout = nn.Dropout(0.1)
def forward(self, x):
return self.linear2(self.dropout(F.relu(self.linear1(x))))
残差连接与层归一化
- 缓解梯度消失,帮助深层网络的训练。
- 对所有特征进行归一化,有利于稳定训练过程。
相关推荐
- 如何将数据仓库迁移到阿里云 AnalyticDB for PostgreSQL
-
阿里云AnalyticDBforPostgreSQL(以下简称ADBPG,即原HybridDBforPostgreSQL)为基于PostgreSQL内核的MPP架构的实时数据仓库服务,可以...
- Python数据分析:探索性分析
-
写在前面如果你忘记了前面的文章,可以看看加深印象:Python数据处理...
- C++基础语法梳理:算法丨十大排序算法(二)
-
本期是C++基础语法分享的第十六节,今天给大家来梳理一下十大排序算法后五个!归并排序...
- C 语言的标准库有哪些
-
C语言的标准库并不是一个单一的实体,而是由一系列头文件(headerfiles)组成的集合。每个头文件声明了一组相关的函数、宏、类型和常量。程序员通过在代码中使用#include<...
- [深度学习] ncnn安装和调用基础教程
-
1介绍ncnn是腾讯开发的一个为手机端极致优化的高性能神经网络前向计算框架,无第三方依赖,跨平台,但是通常都需要protobuf和opencv。ncnn目前已在腾讯多款应用中使用,如QQ,Qzon...
- 用rust实现经典的冒泡排序和快速排序
-
1.假设待排序数组如下letmutarr=[5,3,8,4,2,7,1];...
- ncnn+PPYOLOv2首次结合!全网最详细代码解读来了
-
编辑:好困LRS【新智元导读】今天给大家安利一个宝藏仓库miemiedetection,该仓库集合了PPYOLO、PPYOLOv2、PPYOLOE三个算法pytorch实现三合一,其中的PPYOL...
- C++特性使用建议
-
1.引用参数使用引用替代指针且所有不变的引用参数必须加上const。在C语言中,如果函数需要修改变量的值,参数必须为指针,如...
- Qt4/5升级到Qt6吐血经验总结V202308
-
00:直观总结增加了很多轮子,同时原有模块拆分的也更细致,估计为了方便拓展个管理。把一些过度封装的东西移除了(比如同样的功能有多个函数),保证了只有一个函数执行该功能。把一些Qt5中兼容Qt4的方法废...
- 到底什么是C++11新特性,请看下文
-
C++11是一个比较大的更新,引入了很多新特性,以下是对这些特性的详细解释,帮助您快速理解C++11的内容1.自动类型推导(auto和decltype)...
- 掌握C++11这些特性,代码简洁性、安全性和性能轻松跃升!
-
C++11(又称C++0x)是C++编程语言的一次重大更新,引入了许多新特性,显著提升了代码简洁性、安全性和性能。以下是主要特性的分类介绍及示例:一、核心语言特性1.自动类型推导(auto)编译器自...
- 经典算法——凸包算法
-
凸包算法(ConvexHull)一、概念与问题描述凸包是指在平面上给定一组点,找到包含这些点的最小面积或最小周长的凸多边形。这个多边形没有任何内凹部分,即从一个多边形内的任意一点画一条线到多边形边界...
- 一起学习c++11——c++11中的新增的容器
-
c++11新增的容器1:array当时的初衷是希望提供一个在栈上分配的,定长数组,而且可以使用stl中的模板算法。array的用法如下:#include<string>#includ...
- C++ 编程中的一些最佳实践
-
1.遵循代码简洁原则尽量避免冗余代码,通过模块化设计、清晰的命名和良好的结构,让代码更易于阅读和维护...
你 发表评论:
欢迎- 一周热门
- 最近发表
- 标签列表
-
- idea eval reset (50)
- vue dispatch (70)
- update canceled (42)
- order by asc (53)
- spring gateway (67)
- 简单代码编程 贪吃蛇 (40)
- transforms.resize (33)
- redisson trylock (35)
- 卸载node (35)
- np.reshape (33)
- torch.arange (34)
- node卸载 (33)
- npm 源 (35)
- vue3 deep (35)
- win10 ssh (35)
- exceptionininitializererror (33)
- vue foreach (34)
- idea设置编码为utf8 (35)
- vue 数组添加元素 (34)
- std find (34)
- tablefield注解用途 (35)
- python str转json (34)
- java websocket客户端 (34)
- tensor.view (34)
- java jackson (34)