GPT-2 部署实战:用 Flask 构建在线生成接口,支持公网访问!
ztj100 2025-05-24 18:21 10 浏览 0 评论
训练好的大模型如果不能被别人用,那只是一个“孤岛”。
本文带你从本地训练模型开始,构建 RESTful 接口,借助 Flask 和 Ngrok 实现公网访问,让你的 GPT-2 成为“在线可调用的文本生成服务”。
1. 模型准备:有哪些文件必须有?
确保你已经完成模型微调,并保存了以下文件夹:
gpt2_finetune/
├── config.json
├── model.safetensors
├── tokenizer_config.json
├── vocab.json
├── merges.txt
├── special_tokens_map.json
这些文件是实现推理 + 接口调用的基础!
2. 创建 Flask 推理服务
① 安装依赖:
pip install flask transformers torch
② 编写服务脚本 app.py:
from flask import Flask, request, jsonify
from transformers import GPT2LMHeadModel, GPT2Tokenizer
import torch
device = torch.device("cuda" if torch.cuda.is_available() else "cpu")
model_path = "gpt2_finetune"
tokenizer = GPT2Tokenizer.from_pretrained(model_path)
tokenizer.pad_token = tokenizer.eos_token
model = GPT2LMHeadModel.from_pretrained(model_path).to(device).eval()
def generate_response(prompt):
inputs = tokenizer(prompt, return_tensors="pt", padding=True).to(model.device)
with torch.no_grad():
outputs = model.generate(
input_ids=inputs.input_ids,
attention_mask=inputs.attention_mask,
max_length=80,
do_sample=True,
top_k=40,
top_p=0.9,
temperature=0.7,
repetition_penalty=1.2,
pad_token_id=tokenizer.eos_token_id
)
return tokenizer.decode(outputs[0], skip_special_tokens=True)
app = Flask(__name__)
@app.route("/generate", methods=["POST"])
def generate():
data = request.get_json()
prompt = data.get("prompt", "")
if not prompt:
return jsonify({"error": "Prompt is required"}), 400
return jsonify({"response": generate_response(prompt)})
if __name__ == "__main__":
app.run(host="0.0.0.0", port=5000)
提供 /generate 接口,支持 JSON 输入 + JSON 返回!
3. 本地启动 + Postman 测试
运行 Flask:
python app.py
用 Postman 或 curl 测试 POST 接口:
POST http://localhost:5000/generate
{
"prompt": "今天天气怎么样?"
}
你将收到类似:
{
"response": "今天天气晴朗,适合出门散步。"
}
4. 使用 Ngrok 实现公网访问
① 下载 Ngrok 并绑定 token:
ngrok config add-authtoken <你的token>
② 启动端口映射:
ngrok http 5000
得到公网地址后就能让任何设备访问你的接口!
https://abc12345.ngrok.io/generate
5. 容器化部署建议(可选)
如果你想部署到云服务器或团队协作,建议封装为 Docker 容器:
Dockerfile 示例:
FROM python:3.10
WORKDIR /app
COPY . /app
RUN pip install flask transformers torch
EXPOSE 5000
CMD ["python", "app.py"]
构建 + 运行:
docker build -t gpt2-flask .
docker run --gpus all -p 5000:5000 gpt2-flask
6. 项目部署流程总结
最终效果回顾
成功将 GPT-2 模型转为 Web 服务
支持 Postman、网页前端调用
可远程部署,全球访问
扩展性强,方便集成前端/移动应用
本文为 GPT-2 三部曲最终篇:部署实战篇
推荐系列阅读:
- 第一篇:手把手训练你的 GPT-2:从分词、batch 到优化调参全流程
- 第二篇:搭建属于你的 GPT-2 文本生成器:推理参数优化与调用实战
- 第三篇:GPT-2 部署实战:用 Flask 构建在线生成接口,支持公网访问!
YoanAILab 技术导航页(包含 github 源码和各平台专栏合集)
复制以下链接到浏览器打开即可查看:
https://docs.qq.com/doc/DV3RtTG90cXBHa01T
也可关注我的公众号:YoanAILab
专注 AI 工程实战 · LLM 训练部署 · 智能资产应用
如果你觉得这篇文章有启发,别忘了点赞 + 收藏 + 分享支持一下!
相关推荐
- 拒绝躺平,如何使用AOP的环绕通知实现分布式锁
-
如何在分布式环境下,像用synchronized关键字那样使用分布式锁。比如开发一个注解,叫@DistributionLock,作用于一个方法函数上,每次调方法前加锁,调完之后自动释放锁。可以利用Sp...
- 「解锁新姿势」 兄dei,你代码需要优化了
-
前言在我们平常开发过程中,由于项目时间紧张,代码可以用就好,往往会忽视代码的质量问题。甚至有些复制粘贴过来,不加以整理规范。往往导致项目后期难以维护,更别说后续接手项目的人。所以啊,我们要编写出优雅的...
- 消息队列核心面试点讲解(消息队列面试题)
-
Rocketmq消息不丢失一、前言RocketMQ可以理解成一个特殊的存储系统,这个存储系统特殊之处数据是一般只会被使用一次,这种情况下,如何保证这个被消费一次的消息不丢失是非常重要的。本文将分析Ro...
- 秒杀系统—4.第二版升级优化的技术文档二
-
大纲7.秒杀系统的秒杀活动服务实现...
- SpringBoot JPA动态查询与Specification详解:从基础到高级实战
-
一、JPA动态查询概述1.1什么是动态查询动态查询是指根据运行时条件构建的查询,与静态查询(如@Query注解或命名查询)相对。在业务系统中,80%的查询需求都是动态的,例如电商系统中的商品筛选、订...
- Java常用工具类技术文档(java常用工具类技术文档有哪些)
-
一、概述Java工具类(UtilityClasses)是封装了通用功能的静态方法集合,能够简化代码、提高开发效率。本文整理Java原生及常用第三方库(如ApacheCommons、GoogleG...
- Guava 之Joiner 拼接字符串和Map(字符串拼接join的用法)
-
Guave是一个强大的的工具集合,今天给大家介绍一下,常用的拼接字符串的方法,当然JDK也有方便的拼接字符串的方式,本文主要介绍guava的,可以对比使用基本的拼接的话可以如下操作...
- SpringBoot怎么整合Redis,监听Key过期事件?
-
一、修改Redis配置文件1、在Redis的安装目录2、找到redis.windows.conf文件,搜索“notify-keyspace-events”...
- 如何使用Python将多个excel文件数据快速汇总?
-
在数据分析和处理的过程中,Excel文件是我们经常会遇到的数据格式之一。本文将通过一个具体的示例,展示如何使用Python和Pandas库来读取、合并和处理多个Excel文件的数据,并最终生成一个包含...
- 利用Pandas高效处理百万级数据集,速度提升10倍的秘密武器
-
处理大规模数据集,尤其是百万级别的数据量,对效率的要求非常高。使用Pandas时,可以通过一些策略和技巧显著提高数据处理的速度。以下是一些关键的方法,帮助你使用Pandas高效地处理大型数据集,从而实...
- Python进阶-Day 25: 数据分析基础
-
目标:掌握Pandas和NumPy的基本操作,学习如何分析CSV数据集并生成报告。课程内容...
- Pandas 入门教程 - 第五课: 高级数据操作
-
在前几节课中,我们学习了如何使用Pandas进行数据操作和可视化。在这一课中,我们将进一步探索一些高级的数据操作技巧,包括数据透视、分组聚合、时间序列处理以及高级索引和切片。高级索引和切片...
- 原来这才是Pandas!(原来这才是薯片真正的吃法)
-
听到一些人说,Pandas语法太乱、太杂了,根本记不住。...
- python(pandas + numpy)数据分析的基础
-
数据NaN值排查,统计,排序...
- 利用Python进行数据分组/数据透视表
-
1.数据分组源数据表如下所示:1.1分组键是列名分组键是列名时直接将某一列或多列的列名传给groupby()方法,groupby()方法就会按照这一列或多列进行分组。按照一列进行分组...
你 发表评论:
欢迎- 一周热门
- 最近发表
- 标签列表
-
- idea eval reset (50)
- vue dispatch (70)
- update canceled (42)
- order by asc (53)
- spring gateway (67)
- 简单代码编程 贪吃蛇 (40)
- transforms.resize (33)
- redisson trylock (35)
- 卸载node (35)
- np.reshape (33)
- torch.arange (34)
- npm 源 (35)
- vue3 deep (35)
- win10 ssh (35)
- vue foreach (34)
- idea设置编码为utf8 (35)
- vue 数组添加元素 (34)
- std find (34)
- tablefield注解用途 (35)
- python str转json (34)
- java websocket客户端 (34)
- tensor.view (34)
- java jackson (34)
- vmware17pro最新密钥 (34)
- mysql单表最大数据量 (35)