PyTorch深度学习框架进阶——Transformer详解(一)
ztj100 2025-04-26 22:45 43 浏览 0 评论
Transformer 是一种基于自注意力机制的神经网络架构,由Vaswani等人在2017年提出(论文《Attention is All You Need》)。
Transformer模型结构
Transformer是一个编码器-解码器(Encoder-Decoder)架构,但也可单独使用编码器(如BERT)或解码器(如GPT)。
编码器(Encoder):
- 包含N个相同的层,每层由多头自注意力(Multi-Head Self-Attention)和前馈神经网络(Feed-Forward Network, FFN)组成。
- 残差连接(Residual Connection)和层归一化(Layer Normalization)应用于每个子层。
解码器(Decoder):
- 同样包含N个层,每层在编码器结构基础上增加编码器-解码器注意力(Encoder-Decoder Attention)。
- 使用掩码自注意力(Masked Self-Attention)防止信息泄漏。
核心组件
自注意力机制(Self-Attention)
- 目的:捕捉序列中各个位置间的依赖关系,无论距离远近。
- 计算步骤:
- 将输入转换为查询(Query)、键(Key)、值(Value)矩阵。
- 计算注意力分数:
- 缩放因子用于防止点积过大导致梯度消失。
1.将输入序列中的每个词转换为向量表示
2.通过线性变换将输入嵌入转换为三个矩阵:查询矩阵 Q、键矩阵 K 和值矩阵 V
3.使用点积计算 Q 和 K 之间的相似度得分
4.对得分进行缩放(通常除以 √d,其中 d 是键向量的维度)并应用 softmax 函数得到注意力权重
5.将注意力权重与 V 相乘,得到每个位置的输出
多头注意力(Multi-Head Attention)
- 动机:并行学习不同子空间的注意力模式,增强模型表达能力。
- 实现:将Q、K、V投影到h个不同的子空间,分别计算注意力后拼接结果。这样就在不同的表示子空间里捕捉到不同的关系。
位置编码(Positional Encoding)
- 作用:为序列注入位置信息(通过正弦和余弦函数生成),弥补对顺序不敏感的问题。
- 公式:
class PositionalEncoding(nn.Module):
def __init__(self, d_model, max_len=5000):
super().__init__()
pe = torch.zeros(max_len, d_model)
position = torch.arange(0, max_len, dtype=torch.float).unsqueeze(1)
div_term = torch.exp(torch.arange(0, d_model, 2).float() * (-math.log(10000.0) / d_model))
pe[:, 0::2] = torch.sin(position * div_term)
pe[:, 1::2] = torch.cos(position * div_term)
self.register_buffer('pe', pe.unsqueeze(0)) # [1, max_len, d_model]
def forward(self, x):
return x + self.pe[:, :x.size(1)]
前馈神经网络(Feed-Forward Network)
- 结构:两层全连接层,中间使用ReLU激活。
- 公式:
class FeedForward(nn.Module):
def __init__(self, d_model, d_ff=2048):
super().__init__()
self.linear1 = nn.Linear(d_model, d_ff)
self.linear2 = nn.Linear(d_ff, d_model)
self.dropout = nn.Dropout(0.1)
def forward(self, x):
return self.linear2(self.dropout(F.relu(self.linear1(x))))
残差连接与层归一化
- 缓解梯度消失,帮助深层网络的训练。
- 对所有特征进行归一化,有利于稳定训练过程。
相关推荐
- 其实TensorFlow真的很水无非就这30篇熬夜练
-
好的!以下是TensorFlow需要掌握的核心内容,用列表形式呈现,简洁清晰(含表情符号,<300字):1.基础概念与环境TensorFlow架构(计算图、会话->EagerE...
- 交叉验证和超参数调整:如何优化你的机器学习模型
-
准确预测Fitbit的睡眠得分在本文的前两部分中,我获取了Fitbit的睡眠数据并对其进行预处理,将这些数据分为训练集、验证集和测试集,除此之外,我还训练了三种不同的机器学习模型并比较了它们的性能。在...
- 机器学习交叉验证全指南:原理、类型与实战技巧
-
机器学习模型常常需要大量数据,但它们如何与实时新数据协同工作也同样关键。交叉验证是一种通过将数据集分成若干部分、在部分数据上训练模型、在其余数据上测试模型的方法,用来检验模型的表现。这有助于发现过拟合...
- 深度学习中的类别激活热图可视化
-
作者:ValentinaAlto编译:ronghuaiyang导读使用Keras实现图像分类中的激活热图的可视化,帮助更有针对性...
- 超强,必会的机器学习评估指标
-
大侠幸会,在下全网同名[算法金]0基础转AI上岸,多个算法赛Top[日更万日,让更多人享受智能乐趣]构建机器学习模型的关键步骤是检查其性能,这是通过使用验证指标来完成的。选择正确的验证指...
- 机器学习入门教程-第六课:监督学习与非监督学习
-
1.回顾与引入上节课我们谈到了机器学习的一些实战技巧,比如如何处理数据、选择模型以及调整参数。今天,我们将更深入地探讨机器学习的两大类:监督学习和非监督学习。2.监督学习监督学习就像是有老师的教学...
- Python 模型部署不用愁!容器化实战,5 分钟搞定环境配置
-
你是不是也遇到过这种糟心事:花了好几天训练出的Python模型,在自己电脑上跑得顺顺当当,一放到服务器就各种报错。要么是Python版本不对,要么是依赖库冲突,折腾半天还是用不了。别再喊“我...
- 神经网络与传统统计方法的简单对比
-
传统的统计方法如...
- 自回归滞后模型进行多变量时间序列预测
-
下图显示了关于不同类型葡萄酒销量的月度多元时间序列。每种葡萄酒类型都是时间序列中的一个变量。假设要预测其中一个变量。比如,sparklingwine。如何建立一个模型来进行预测呢?一种常见的方...
- 苹果AI策略:慢哲学——科技行业的“长期主义”试金石
-
苹果AI策略的深度原创分析,结合技术伦理、商业逻辑与行业博弈,揭示其“慢哲学”背后的战略智慧:一、反常之举:AI狂潮中的“逆行者”当科技巨头深陷AI军备竞赛,苹果的克制显得格格不入:功能延期:App...
- 时间序列预测全攻略,6大模型代码实操
-
如果你对数据分析感兴趣,希望学习更多的方法论,希望听听经验分享,欢迎移步宝藏公众号...
你 发表评论:
欢迎- 一周热门
- 最近发表
- 标签列表
-
- idea eval reset (50)
- vue dispatch (70)
- update canceled (42)
- order by asc (53)
- spring gateway (67)
- 简单代码编程 贪吃蛇 (40)
- transforms.resize (33)
- redisson trylock (35)
- 卸载node (35)
- np.reshape (33)
- torch.arange (34)
- npm 源 (35)
- vue3 deep (35)
- win10 ssh (35)
- vue foreach (34)
- idea设置编码为utf8 (35)
- vue 数组添加元素 (34)
- std find (34)
- tablefield注解用途 (35)
- python str转json (34)
- java websocket客户端 (34)
- tensor.view (34)
- java jackson (34)
- vmware17pro最新密钥 (34)
- mysql单表最大数据量 (35)