百度360必应搜狗淘宝本站头条
当前位置:网站首页 > 技术分类 > 正文

PyTorch深度学习框架进阶——Transformer详解(一)

ztj100 2025-04-26 22:45 26 浏览 0 评论

Transformer 是一种基于自注意力机制的神经网络架构,由Vaswani等人在2017年提出(论文《Attention is All You Need》)。

Transformer模型结构

Transformer是一个编码器-解码器(Encoder-Decoder)架构,但也可单独使用编码器(如BERT)或解码器(如GPT)。

编码器(Encoder):

  • 包含N个相同的层,每层由多头自注意力(Multi-Head Self-Attention)和前馈神经网络(Feed-Forward Network, FFN)组成。
  • 残差连接(Residual Connection)和层归一化(Layer Normalization)应用于每个子层。

解码器(Decoder):

  • 同样包含N个层,每层在编码器结构基础上增加编码器-解码器注意力(Encoder-Decoder Attention)。
  • 使用掩码自注意力(Masked Self-Attention)防止信息泄漏。

核心组件

自注意力机制(Self-Attention)

  • 目的:捕捉序列中各个位置间的依赖关系,无论距离远近。
  • 计算步骤
  • 将输入转换为查询(Query)、键(Key)、值(Value)矩阵。
  • 计算注意力分数:
  • 缩放因子用于防止点积过大导致梯度消失。

1.将输入序列中的每个词转换为向量表示

2.通过线性变换将输入嵌入转换为三个矩阵:查询矩阵 Q、键矩阵 K 和值矩阵 V

3.使用点积计算 Q 和 K 之间的相似度得分

4.对得分进行缩放(通常除以 √d,其中 d 是键向量的维度)并应用 softmax 函数得到注意力权重

5.将注意力权重与 V 相乘,得到每个位置的输出

多头注意力(Multi-Head Attention)

  • 动机:并行学习不同子空间的注意力模式,增强模型表达能力。
  • 实现:将Q、K、V投影到h个不同的子空间,分别计算注意力后拼接结果。这样就在不同的表示子空间里捕捉到不同的关系。

位置编码(Positional Encoding)

  • 作用:为序列注入位置信息(通过正弦和余弦函数生成),弥补对顺序不敏感的问题。
  • 公式
class PositionalEncoding(nn.Module):
    def __init__(self, d_model, max_len=5000):
        super().__init__()
        pe = torch.zeros(max_len, d_model)
        position = torch.arange(0, max_len, dtype=torch.float).unsqueeze(1)
        div_term = torch.exp(torch.arange(0, d_model, 2).float() * (-math.log(10000.0) / d_model))
        pe[:, 0::2] = torch.sin(position * div_term)
        pe[:, 1::2] = torch.cos(position * div_term)
        self.register_buffer('pe', pe.unsqueeze(0))  # [1, max_len, d_model]
    def forward(self, x):
        return x + self.pe[:, :x.size(1)]

前馈神经网络(Feed-Forward Network)

  • 结构:两层全连接层,中间使用ReLU激活。
  • 公式
class FeedForward(nn.Module):
    def __init__(self, d_model, d_ff=2048):
        super().__init__()
        self.linear1 = nn.Linear(d_model, d_ff)
        self.linear2 = nn.Linear(d_ff, d_model)
        self.dropout = nn.Dropout(0.1)
    def forward(self, x):
        return self.linear2(self.dropout(F.relu(self.linear1(x))))

残差连接与层归一化

  • 缓解梯度消失,帮助深层网络的训练。
  • 对所有特征进行归一化,有利于稳定训练过程。

相关推荐

30天学会Python编程:16. Python常用标准库使用教程

16.1collections模块16.1.1高级数据结构16.1.2示例...

强烈推荐!Python 这个宝藏库 re 正则匹配

Python的re模块(RegularExpression正则表达式)提供各种正则表达式的匹配操作。...

Python爬虫中正则表达式的用法,只讲如何应用,不讲原理

Python爬虫:正则的用法(非原理)。大家好,这节课给大家讲正则的实际用法,不讲原理,通俗易懂的讲如何用正则抓取内容。·导入re库,这里是需要从html这段字符串中提取出中间的那几个文字。实例一个对...

Python数据分析实战-正则提取文本的URL网址和邮箱(源码和效果)

实现功能:Python数据分析实战-利用正则表达式提取文本中的URL网址和邮箱...

python爬虫教程之爬取当当网 Top 500 本五星好评书籍

我们使用requests和re来写一个爬虫作为一个爱看书的你(说的跟真的似的)怎么能发现好书呢?所以我们爬取当当网的前500本好五星评书籍怎么样?ok接下来就是学习python的正确姿...

深入理解re模块:Python中的正则表达式神器解析

在Python中,"re"是一个强大的模块,用于处理正则表达式(regularexpressions)。正则表达式是一种强大的文本模式匹配工具,用于在字符串中查找、替换或提取特定模式...

如何使用正则表达式和 Python 匹配不以模式开头的字符串

需要在Python中使用正则表达式来匹配不以给定模式开头的字符串吗?如果是这样,你可以使用下面的语法来查找所有的字符串,除了那些不以https开始的字符串。r"^(?!https).*&...

先Mark后用!8分钟读懂 Python 性能优化

从本文总结了Python开发时,遇到的性能优化问题的定位和解决。概述:性能优化的原则——优化需要优化的部分。性能优化的一般步骤:首先,让你的程序跑起来结果一切正常。然后,运行这个结果正常的代码,看看它...

Python“三步”即可爬取,毋庸置疑

声明:本实例仅供学习,切忌遵守robots协议,请不要使用多线程等方式频繁访问网站。#第一步导入模块importreimportrequests#第二步获取你想爬取的网页地址,发送请求,获取网页内...

简单学Python——re库(正则表达式)2(split、findall、和sub)

1、split():分割字符串,返回列表语法:re.split('分隔符','目标字符串')例如:importrere.split(',','...

Lavazza拉瓦萨再度牵手上海大师赛

阅读此文前,麻烦您点击一下“关注”,方便您进行讨论和分享。Lavazza拉瓦萨再度牵手上海大师赛标题:2024上海大师赛:网球与咖啡的浪漫邂逅在2024年的上海劳力士大师赛上,拉瓦萨咖啡再次成为官...

ArkUI-X构建Android平台AAR及使用

本教程主要讲述如何利用ArkUI-XSDK完成AndroidAAR开发,实现基于ArkTS的声明式开发范式在android平台显示。包括:1.跨平台Library工程开发介绍...

Deepseek写歌详细教程(怎样用deepseek写歌功能)

以下为结合DeepSeek及相关工具实现AI写歌的详细教程,涵盖作词、作曲、演唱全流程:一、核心流程三步法1.AI生成歌词-打开DeepSeek(网页/APP/API),使用结构化提示词生成歌词:...

“AI说唱解说影视”走红,“零基础入行”靠谱吗?本报记者实测

“手里翻找冻鱼,精心的布局;老漠却不言语,脸上带笑意……”《狂飙》剧情被写成歌词,再配上“科目三”背景音乐的演唱,这段1分钟30秒的视频受到了无数网友的点赞。最近一段时间随着AI技术的发展,说唱解说影...

AI音乐制作神器揭秘!3款工具让你秒变高手

在音乐创作的领域里,每个人都有一颗想要成为大师的心。但是面对复杂的乐理知识和繁复的制作过程,许多人的热情被一点点消磨。...

取消回复欢迎 发表评论: