我的模型我做主02——训练自己的大模型:简易入门指南
ztj100 2025-06-09 07:25 13 浏览 0 评论
模型训练往往需要较高的配置,为了满足友友们的好奇心,这里我们不要内存,不要gpu,用最简单的方式,让大家感受一下什么是模型训练。基于你的硬件配置,我们可以设计一个完全在CPU上运行的简易模型训练方案。以下是具体步骤:
环境准备
这里以mac为例,其他系统原理类似,也可不使用miniconda,本文主要集中在训练代码和推理代码上。
安装Miniconda(推荐)
# 下载Miniconda
wget https://repo.anaconda.com/miniconda/Miniconda3-latest-MacOSX-arm64.sh
# 安装
bash Miniconda3-latest-MacOSX-arm64.sh
创建虚拟环境
conda create -n tinyai python=3.9
conda activate tinyai
安装PyTorch
# 安装pytorch,也可通过官网选择合适的安装语句
pip install torch torchvision torchaudio
超简易模型训练方案
纯CPU训练微型文本模型
import torch
import torch.nn as nn
import torch.optim as optim
from torch.utils.data import Dataset, DataLoader
# 超简单数据集
class TextDataset(Dataset):
def __init__(self):
self.data = ["hello world", "deep learning", "apple silicon", "metal acceleration"]
def __len__(self):
return len(self.data)
def __getitem__(self, idx):
text = self.data[idx]
# 简单字符级编码
x = [ord(c) for c in text[:-1]]
y = [ord(c) for c in text[1:]]
return torch.tensor(x), torch.tensor(y)
# 超简单模型
class TinyLM(nn.Module):
def __init__(self, vocab_size=128):
super().__init__()
self.embed = nn.Embedding(vocab_size, 32)
self.rnn = nn.RNN(32, 64, batch_first=True)
self.fc = nn.Linear(64, vocab_size)
def forward(self, x):
x = self.embed(x)
out, _ = self.rnn(x)
return self.fc(out)
def custom_collate_fn(batch):
# batch是包含多个(__getitem__返回结果)的列表
x_batch, y_batch = zip(*batch)
# 找到本批次中的最大长度
max_len = max(len(x) for x in x_batch)
# 填充每个样本
x_padded = torch.stack([
torch.cat([x, torch.zeros(max_len - len(x), dtype=torch.long)])
for x in x_batch
])
y_padded = torch.stack([
torch.cat([y, torch.zeros(max_len - len(y), dtype=torch.long)])
for y in y_batch
])
return x_padded, y_padded
# 训练设置
dataset = TextDataset()
# loader = DataLoader(dataset, batch_size=2)
# 然后修改DataLoader
loader = DataLoader(dataset, batch_size=2, collate_fn=custom_collate_fn)
model = TinyLM()
criterion = nn.CrossEntropyLoss()
optimizer = optim.Adam(model.parameters(), lr=0.01)
# 训练循环
for epoch in range(10):
for x, y in loader:
optimizer.zero_grad()
output = model(x)
loss = criterion(output.view(-1, 128), y.view(-1))
loss.backward()
optimizer.step()
print(f"Epoch {epoch}, Loss: {loss.item():.4f}")
# 保存模型和tokenizer(虽然我们用的是简单编码)
torch.save(model.state_dict(), 'tinylm.pth')
# 同时保存词汇表信息(这里只是示例,实际字符编码是固定的)
import pickle
with open('char_vocab.pkl', 'wb') as f:
pickle.dump({'vocab_size': 128}, f) # ASCII字符范围
模型推理
创建一个新的Python文件inference.py:
import torch
import torch.nn as nn
class TinyLM(nn.Module):
def __init__(self, vocab_size=128):
super().__init__()
self.embed = nn.Embedding(vocab_size, 32)
self.rnn = nn.RNN(32, 64, batch_first=True)
self.fc = nn.Linear(64, vocab_size)
def forward(self, x):
x = self.embed(x)
out, _ = self.rnn(x)
return self.fc(out)
# 加载模型
model = TinyLM()
model.load_state_dict(torch.load('tinylm.pth'))
model.eval() # 设置为评估模式
# 简单的字符编码函数
def text_to_tensor(text):
return torch.tensor([[ord(c) for c in text]])
# 推理函数
def generate_text(start_str, length=10):
input_seq = text_to_tensor(start_str)
hidden = None
for _ in range(length):
with torch.no_grad(): # 禁用梯度计算
output = model(input_seq)
# 获取最后一个字符的预测
last_char_logits = output[0, -1, :]
# 选择概率最高的字符
predicted_char = torch.argmax(last_char_logits).item()
# 添加到输入序列中
input_seq = torch.cat([
input_seq,
torch.tensor([[predicted_char]])
], dim=1)
# 将数字转换回字符
generated_text = ''.join([chr(c) for c in input_seq[0].tolist()])
return generated_text
# 使用示例
if __name__ == "__main__":
while True:
seed = input("输入起始字符串(或输入q退出): ")
if seed.lower() == 'q':
break
generated = generate_text(seed, length=20)
print(f"生成结果: {generated}")
运行推理示例
输入起始字符串(或输入q退出): hello
生成结果: hello world deep lear
结果分析
生成的文本无意义
主要原因是模型太小或训练不足,后续的解决方案是增加训练epoch或扩大模型,当然本文的目的就是让大家熟悉一下基本的模型训练和推理流程。
相关推荐
- 这个 JavaScript Api 已被废弃!请慎用!
-
在开发过程中,我们可能会不自觉地使用一些已经被标记为废弃的JavaScriptAPI。这些...
- JavaScript中10个“过时”的API,你的代码里还在用吗?
-
JavaScript作为一门不断发展的语言,其API也在持续进化。新的、更安全、更高效的API不断涌现,而一些旧的API则因为各种原因(如安全问题、性能瓶颈、设计缺陷或有了更好的替代品)被标记为“废...
- 几大开源免费的 JavaScript 富文本编辑器测评
-
MarkDown编辑器用的时间长了,发现发现富文本编辑器用起来是真的舒服。...
- 比较好的网页里面的 html 编辑器 推荐
-
如果您正在寻找嵌入到网页中的HTML编辑器,以便用户可以直接在网页上编辑HTML内容,以下是几个备受推荐的:CKEditor:CKEditor是一个功能强大的、开源的富文本编辑器,可以嵌入到...
- Luckysheet 实现excel多人在线协同编辑
-
前言前些天看到Luckysheet支持协同编辑Excel,正符合我们协同项目的一部分,故而想进一步完善协同文章,但是遇到了一下困难,特此做声明哈,若侵权,请联系我删除文章!若侵犯版权、个人隐私,请联系...
- 从 Element UI 源码的构建流程来看前端 UI 库设计
-
作者:前端森林转发链接:https://mp.weixin.qq.com/s/ziDMLDJcvx07aM6xoEyWHQ引言...
- 手把手教你如何用 Decorator 装饰你的 Typescript?「实践」
-
作者:Nealyang转发连接:https://mp.weixin.qq.com/s/PFgc8xD7gT40-9qXNTpk7A...
- 推荐五个优秀的富文本编辑器
-
富文本编辑器是一种可嵌入浏览器网页中,所见即所得的文本编辑器。对于许多从事前端开发的小伙伴来说并不算陌生,它的应用场景非常广泛,平时发个评论、写篇博客文章等都能见到它的身影。...
- 基于vue + element的后台管理系统解决方案
-
作者:林鑫转发链接:https://github.com/lin-xin前言该方案作为一套多功能的后台框架模板,适用于绝大部分的后台管理系统(WebManagementSystem)开发。基于v...
- 开源富文本编辑器Quill 2.0重磅发布
-
开源富文本编辑器Quill正式发布2.0版本。官方TypeScript声明...
- Python之Web开发框架学习 Django-表单处理
-
在Django中创建表单实际上类似于创建模型。同样,我们只需要从Django类继承,则类属性将是表单字段。让我们在myapp文件夹中添加一个forms.py文件以包含我们的应用程序表单。我们将创建一个...
- Django测试入门:打造坚实代码基础的钥匙
-
这一篇说一下django框架的自动化测试,...
- Django ORM vs SQLAlchemy:到底谁更香?从入门到上头的选择指南
-
阅读文章前辛苦您点下“关注”,方便讨论和分享,为了回馈您的支持,我将每日更新优质内容。...
- 超详细的Django 框架介绍,它来了!
-
时光荏苒,一晃小编的Tornado框架系列也结束了。这个框架虽然没有之前的FastAPI高流量,但是,它也是小编的心血呀。总共16篇博文,从入门到进阶,包含了框架的方方面面。虽然小编有些方面介绍得不是...
- 20《Nginx 入门教程》使用 Nginx 部署 Python 项目
-
今天的目标是完成一个PythonWeb项目的线上部署,我们使用最新的Django项目搭建一个简易的Web工程,然后基于Nginx服务部署该PythonWeb项目。1.前期准备...
你 发表评论:
欢迎- 一周热门
- 最近发表
- 标签列表
-
- idea eval reset (50)
- vue dispatch (70)
- update canceled (42)
- order by asc (53)
- spring gateway (67)
- 简单代码编程 贪吃蛇 (40)
- transforms.resize (33)
- redisson trylock (35)
- 卸载node (35)
- np.reshape (33)
- torch.arange (34)
- npm 源 (35)
- vue3 deep (35)
- win10 ssh (35)
- vue foreach (34)
- idea设置编码为utf8 (35)
- vue 数组添加元素 (34)
- std find (34)
- tablefield注解用途 (35)
- python str转json (34)
- java websocket客户端 (34)
- tensor.view (34)
- java jackson (34)
- vmware17pro最新密钥 (34)
- mysql单表最大数据量 (35)