大模型入门-day10-11-手动实现 Transformer(10 小时)
ztj100 2025-03-11 23:54 23 浏览 0 评论
以下是为“第 10-11 天:手动实现 Transformer”设计的详细学习任务计划。这个任务旨在通过用 PyTorch 实现一个单层 Transformer,帮助你深入理解其核心组件(如自注意力机制、位置编码等),并将其应用于简单任务。任务参考了 GitHub 上的“minGPT”和“nanoGPT”代码,但以手动实现为主,确保你理解每个部分。
第 10-11 天:手动实现 Transformer(10 小时)
学习目标:
- 掌握 Transformer 的核心组件(自注意力、多头注意力、位置编码、前馈网络)的实现原理。
- 使用 PyTorch 构建一个单层 Transformer 模型(包括编码器和解码器)。
- 完成一个简单任务,如生成文本序列(字符级预测)。
任务概述:
- 用 PyTorch 实现一个单层 Transformer,包含编码器和解码器。
- 训练模型预测简单文本序列(如“hello”预测下一个字符)。
- 参考 minGPT 或 nanoGPT 的结构,但以自己编写代码为主。
学习资源:
- GitHub 项目:
- “minGPT”:Andrej Karpathy 的简洁 GPT 实现,适合学习注意力机制。
- “nanoGPT”:更轻量的版本,代码清晰,易于改编。
- 辅助资料:
- PyTorch 官方文档(torch.nn、torch.tensor)。
- 《The Annotated Transformer》博客(代码+注释)。
时间分配建议:
- 第 10 天(5 小时):学习组件原理,搭建模型框架。
- 第 11 天(5 小时):实现训练逻辑,调试并生成文本。
第 10 天:搭建 Transformer 框架(5 小时)
任务:
- 实现 Transformer 的核心模块,包括位置编码、自注意力、多头注意力和前馈网络。
- 用 PyTorch 搭建单层编码器和解码器框架。
具体步骤:
- 准备环境(0.5 小时)
- 安装 PyTorch(建议用 Colab 免费 GPU 或本地环境)。
- 下载 minGPT/nanoGPT 代码,浏览结构,作为参考。
- 实现位置编码(Positional Encoding)(1 小时)
- 根据公式:
- PE(pos, 2i) = \sin(pos / 10000^{2i/d}))
- PE(pos, 2i+1) = \cos(pos / 10000^{2i/d}))
- 代码示例:
- python
- import torch import math def positional_encoding(max_len, d_model): pe = torch.zeros(max_len, d_model) position = torch.arange(0, max_len, dtype=torch.float).unsqueeze(1) div_term = torch.exp(torch.arange(0, d_model, 2).float() * (-math.log(10000.0) / d_model)) pe[:, 0::2] = torch.sin(position * div_term) pe[:, 1::2] = torch.cos(position * div_term) return pe # 测试 pe = positional_encoding(10, 64) # 序列长度 10,维度 64 print(pe.shape) # 输出:torch.Size([10, 64])
- 作用:生成位置信息,添加到词嵌入中。
- 实现自注意力(Self-Attention)(1.5 小时)
- 计算公式:
- \text{Attention}(Q, K, V) = \text{softmax}(\frac{QK^T}{\sqrt{d_k}})V
- 代码示例:
- python
- import torch.nn as nn import torch.nn.functional as F class SelfAttention(nn.Module): def __init__(self, d_model, d_k): super().__init__() self.d_k = d_k self.w_q = nn.Linear(d_model, d_k) # Query 权重 self.w_k = nn.Linear(d_model, d_k) # Key 权重 self.w_v = nn.Linear(d_model, d_k) # Value 权重 def forward(self, x): q = self.w_q(x) # (batch, seq_len, d_k) k = self.w_k(x) # (batch, seq_len, d_k) v = self.w_v(x) # (batch, seq_len, d_k) scores = torch.matmul(q, k.transpose(-2, -1)) / math.sqrt(self.d_k) attn = F.softmax(scores, dim=-1) return torch.matmul(attn, v) # (batch, seq_len, d_k)
- 作用:计算输入序列中每个词与其他词的关联。
- 扩展到多头注意力(Multi-Head Attention)(1 小时)
- 将注意力分成多头,拼接结果。
- 代码示例:
- python
- class MultiHeadAttention(nn.Module): def __init__(self, d_model, num_heads): super().__init__() self.d_k = d_model // num_heads self.num_heads = num_heads self.attn = SelfAttention(d_model, self.d_k) self.w_o = nn.Linear(self.d_k * num_heads, d_model) def forward(self, x): batch_size, seq_len, _ = x.size() # 分头处理 heads = [self.attn(x) for _ in range(self.num_heads)] # 拼接 multi_head = torch.cat(heads, dim=-1) return self.w_o(multi_head)
- 搭建单层 Transformer(1 小时)
- 编码器:多头注意力 + Add & Norm + 前馈网络 + Add & Norm。
- 解码器:加 Masked 多头注意力(防止看到未来词)。
- 代码示例:
- python
- class TransformerLayer(nn.Module): def __init__(self, d_model, num_heads): super().__init__() self.attn = MultiHeadAttention(d_model, num_heads) self.ffn = nn.Sequential( nn.Linear(d_model, d_model * 4), nn.ReLU(), nn.Linear(d_model * 4, d_model) ) self.norm1 = nn.LayerNorm(d_model) self.norm2 = nn.LayerNorm(d_model) def forward(self, x): # 编码器部分 attn_out = self.attn(x) x = self.norm1(x + attn_out) # 残差连接 + 归一化 ffn_out = self.ffn(x) return self.norm2(x + ffn_out)
第 11 天:训练与生成文本(5 小时)
任务:
- 完成模型的训练逻辑,用简单数据集训练并生成文本序列。
具体步骤:
- 准备数据(1 小时)
- 用简单文本(如“hello world”),构建字符级数据集。
- 代码示例:
- python
- text = "hello world" chars = sorted(list(set(text))) vocab_size = len(chars) char_to_idx = {ch: i for i, ch in enumerate(chars)} idx_to_char = {i: ch for i, ch in enumerate(chars)} data = [char_to_idx[c] for c in text]
- 生成输入-目标对:输入“hel”,目标“ell”。
- 完成完整模型(1.5 小时)
- 添加嵌入层和输出层。
- 代码示例:
- python
- class SimpleTransformer(nn.Module): def __init__(self, vocab_size, d_model, num_heads): super().__init__() self.embedding = nn.Embedding(vocab_size, d_model) self.pos_encoding = positional_encoding(50, d_model) self.layer = TransformerLayer(d_model, num_heads) self.fc = nn.Linear(d_model, vocab_size) def forward(self, x): x = self.embedding(x) + self.pos_encoding[:x.size(1), :].to(x.device) x = self.layer(x) return self.fc(x)
- 训练模型(1.5 小时)
- 设置超参数并训练:
- python
- model = SimpleTransformer(vocab_size, d_model=64, num_heads=4) optimizer = torch.optim.Adam(model.parameters(), lr=0.001) criterion = nn.CrossEntropyLoss() for epoch in range(200): inputs = torch.tensor(data[:-1], dtype=torch.long).unsqueeze(0) targets = torch.tensor(data[1:], dtype=torch.long).unsqueeze(0) outputs = model(inputs) loss = criterion(outputs.view(-1, vocab_size), targets.view(-1)) optimizer.zero_grad() loss.backward() optimizer.step() if epoch % 50 == 0: print(f"Epoch {epoch}, Loss: {loss.item()}")
- 生成文本(1 小时)
- 从起始字符生成序列:
- python
- def generate(model, start_char, max_len=10): model.eval() input_idx = torch.tensor([char_to_idx[start_char]], dtype=torch.long).unsqueeze(0) generated = [start_char] for _ in range(max_len): output = model(input_idx) next_idx = torch.argmax(output[:, -1, :], dim=-1).item() next_char = idx_to_char[next_idx] generated.append(next_char) input_idx = torch.tensor([char_to_idx[c] for c in generated], dtype=torch.long).unsqueeze(0) return ''.join(generated) print(generate(model, 'h')) # 期望类似 "hello worl"
输出要求
- 代码:一个完整的 PyTorch 脚本,实现单层 Transformer。
- 结果:生成简单文本序列(如“hello”或类似)。
- 可选:写 200 字总结,记录实现心得。
注意事项
- 维度匹配:检查张量形状(如 batch_size, seq_len, d_model)。
- Masked Attention:解码器需屏蔽未来信息(可选简化)。
- 计算资源:用 GPU 加速训练(Colab 免费)。
学习成果预期
完成任务后,你将掌握 Transformer 的核心实现,并能用 PyTorch 构建神经网络。动手试试吧,我可以随时帮你调试!
相关推荐
- 使用 Pinia ORM 管理 Vue 中的状态
-
转载说明:原创不易,未经授权,谢绝任何形式的转载状态管理是构建任何Web应用程序的重要组成部分。虽然Vue提供了管理简单状态的技术,但随着应用程序复杂性的增加,处理状态可能变得更具挑战性。这就是为什么...
- Vue3开发企业级音乐Web App 明星讲师带你学习大厂高质量代码
-
Vue3开发企业级音乐WebApp明星讲师带你学习大厂高质量代码下栽课》jzit.top/392/...
- 一篇文章说清 webpack、vite、vue-cli、create-vue 的区别
-
webpack、vite、vue-cli、create-vue这些都是什么?看着有点晕,不要怕,我们一起来分辨一下。...
- 超赞 vue2/3 可视化打印设计VuePluginPrint
-
今天来给大家推荐一款非常不错的Vue可拖拽打印设计器Hiprint。引入使用//main.js中引入安装import{hiPrintPlugin}from'vue-plugin-...
- 搭建Trae+Vue3的AI开发环境(vue3 ts开发)
-
从2024年2025年,不断的有各种AI工具会在自媒体中火起来,号称各种效率王炸,而在AI是否会替代打工人的话题中,程序员又首当其冲。...
- Vue中mixin怎么理解?(vue的mixins有什么用)
-
作者:qdmryt转发链接:https://mp.weixin.qq.com/s/JHF3oIGSTnRegpvE6GSZhg前言...
- Vue脚手架安装,初始化项目,打包并用Tomcat和Nginx部署
-
1.创建Vue脚手架#1.在本地文件目录创建my-first-vue文件夹,安装vue-cli脚手架:npminstall-gvue-cli安装过程如下图所示:创建my-first-vue...
- 新手如何搭建个人网站(小白如何搭建个人网站)
-
ElementUl是饿了么前端团队推出的桌面端UI框架,具有是简洁、直观、强悍和低学习成本等优势,非常适合初学者使用。因此,本次项目使用ElementUI框架来完成个人博客的主体开发,欢迎大家讨论...
- 零基础入门vue开发(vue快速入门与实战开发)
-
上面一节我们已经成功的安装了nodejs,并且配置了npm的全局环境变量,那么这一节我们就来正式的安装vue-cli,然后在webstorm开发者工具里运行我们的vue项目。这一节有两种创建vue项目...
- .net core集成vue(.net core集成vue3)
-
react、angular、vue你更熟悉哪个?下边这个是vue的。要求需要你的计算机安装有o.netcore2.0以上版本onode、webpack、vue-cli、vue(npm...
- 使用 Vue 脚手架,为什么要学 webpack?(一)
-
先问大家一个很简单的问题:vueinitwebpackprjectName与vuecreateprojectName有什么区别呢?它们是Vue-cli2和Vue-cli3创建...
- vue 构建和部署(vue项目部署服务器)
-
普通的搭建方式(安装指令)安装Node.js检查node是否已安装,终端输入node-v会使用命令行(安装)npminstallvue-cli-首先安装vue-clivueinitwe...
- Vue.js 环境配置(vue的环境搭建)
-
说明:node.js和vue.js的关系:Node.js是一个基于ChromeV8引擎的JavaScript运行时环境;类比:Java的jvm(虚拟机)...
- vue项目完整搭建步骤(vuecli项目搭建)
-
简介为了让一些不太清楚搭建前端项目的小白,更快上手。今天我将一步一步带领你们进行前端项目的搭建。前端开发中需要用到框架,那vue作为三大框架主流之一,在工作中很常用。所以就以vue为例。...
你 发表评论:
欢迎- 一周热门
- 最近发表
-
- 使用 Pinia ORM 管理 Vue 中的状态
- Vue3开发企业级音乐Web App 明星讲师带你学习大厂高质量代码
- 一篇文章说清 webpack、vite、vue-cli、create-vue 的区别
- 超赞 vue2/3 可视化打印设计VuePluginPrint
- 搭建Trae+Vue3的AI开发环境(vue3 ts开发)
- 如何在现有的Vue项目中嵌入 Blazor项目?
- Vue中mixin怎么理解?(vue的mixins有什么用)
- Vue脚手架安装,初始化项目,打包并用Tomcat和Nginx部署
- 新手如何搭建个人网站(小白如何搭建个人网站)
- 零基础入门vue开发(vue快速入门与实战开发)
- 标签列表
-
- idea eval reset (50)
- vue dispatch (70)
- update canceled (42)
- order by asc (53)
- spring gateway (67)
- 简单代码编程 贪吃蛇 (40)
- transforms.resize (33)
- redisson trylock (35)
- 卸载node (35)
- np.reshape (33)
- torch.arange (34)
- node卸载 (33)
- npm 源 (35)
- vue3 deep (35)
- win10 ssh (35)
- exceptionininitializererror (33)
- vue foreach (34)
- idea设置编码为utf8 (35)
- vue 数组添加元素 (34)
- std find (34)
- tablefield注解用途 (35)
- python str转json (34)
- java websocket客户端 (34)
- tensor.view (34)
- java jackson (34)