百度360必应搜狗淘宝本站头条
当前位置:网站首页 > 技术分类 > 正文

GPT-2 部署实战:用 Flask 构建在线生成接口,支持公网访问!

ztj100 2025-05-24 18:21 10 浏览 0 评论

训练好的大模型如果不能被别人用,那只是一个“孤岛”。
本文带你从本地训练模型开始,构建 RESTful 接口,借助 Flask 和 Ngrok 实现公网访问,让你的 GPT-2 成为“在线可调用的文本生成服务”。


1. 模型准备:有哪些文件必须有?

确保你已经完成模型微调,并保存了以下文件夹:

gpt2_finetune/
├── config.json
├── model.safetensors
├── tokenizer_config.json
├── vocab.json
├── merges.txt
├── special_tokens_map.json

这些文件是实现推理 + 接口调用的基础!


2. 创建 Flask 推理服务

① 安装依赖:

pip install flask transformers torch

② 编写服务脚本 app.py

from flask import Flask, request, jsonify
from transformers import GPT2LMHeadModel, GPT2Tokenizer
import torch

device = torch.device("cuda" if torch.cuda.is_available() else "cpu")
model_path = "gpt2_finetune"

tokenizer = GPT2Tokenizer.from_pretrained(model_path)
tokenizer.pad_token = tokenizer.eos_token
model = GPT2LMHeadModel.from_pretrained(model_path).to(device).eval()

def generate_response(prompt):
    inputs = tokenizer(prompt, return_tensors="pt", padding=True).to(model.device)
    with torch.no_grad():
        outputs = model.generate(
            input_ids=inputs.input_ids,
            attention_mask=inputs.attention_mask,
            max_length=80,
            do_sample=True,
            top_k=40,
            top_p=0.9,
            temperature=0.7,
            repetition_penalty=1.2,
            pad_token_id=tokenizer.eos_token_id
        )
    return tokenizer.decode(outputs[0], skip_special_tokens=True)

app = Flask(__name__)

@app.route("/generate", methods=["POST"])
def generate():
    data = request.get_json()
    prompt = data.get("prompt", "")
    if not prompt:
        return jsonify({"error": "Prompt is required"}), 400
    return jsonify({"response": generate_response(prompt)})

if __name__ == "__main__":
    app.run(host="0.0.0.0", port=5000)

提供 /generate 接口,支持 JSON 输入 + JSON 返回!


3. 本地启动 + Postman 测试

运行 Flask:

python app.py

用 Postman 或 curl 测试 POST 接口:

POST http://localhost:5000/generate
{
  "prompt": "今天天气怎么样?"
}

你将收到类似:

{
  "response": "今天天气晴朗,适合出门散步。"
}

4. 使用 Ngrok 实现公网访问

① 下载 Ngrok 并绑定 token:

ngrok config add-authtoken <你的token>

② 启动端口映射:

ngrok http 5000

得到公网地址后就能让任何设备访问你的接口!

https://abc12345.ngrok.io/generate

5. 容器化部署建议(可选)

如果你想部署到云服务器或团队协作,建议封装为 Docker 容器:

Dockerfile 示例

FROM python:3.10
WORKDIR /app
COPY . /app
RUN pip install flask transformers torch
EXPOSE 5000
CMD ["python", "app.py"]

构建 + 运行:

docker build -t gpt2-flask .
docker run --gpus all -p 5000:5000 gpt2-flask

6. 项目部署流程总结


最终效果回顾

成功将 GPT-2 模型转为 Web 服务
支持 Postman、网页前端调用
可远程部署,全球访问
扩展性强,方便集成前端/移动应用


本文为 GPT-2 三部曲最终篇:部署实战篇

推荐系列阅读:


YoanAILab 技术导航页(包含 github 源码和各平台专栏合集)
复制以下链接到浏览器打开即可查看:
https://docs.qq.com/doc/DV3RtTG90cXBHa01T

也可关注我的公众号:YoanAILab
专注 AI 工程实战 · LLM 训练部署 · 智能资产应用

如果你觉得这篇文章有启发,别忘了点赞 + 收藏 + 分享支持一下!

相关推荐

拒绝躺平,如何使用AOP的环绕通知实现分布式锁

如何在分布式环境下,像用synchronized关键字那样使用分布式锁。比如开发一个注解,叫@DistributionLock,作用于一个方法函数上,每次调方法前加锁,调完之后自动释放锁。可以利用Sp...

「解锁新姿势」 兄dei,你代码需要优化了

前言在我们平常开发过程中,由于项目时间紧张,代码可以用就好,往往会忽视代码的质量问题。甚至有些复制粘贴过来,不加以整理规范。往往导致项目后期难以维护,更别说后续接手项目的人。所以啊,我们要编写出优雅的...

消息队列核心面试点讲解(消息队列面试题)

Rocketmq消息不丢失一、前言RocketMQ可以理解成一个特殊的存储系统,这个存储系统特殊之处数据是一般只会被使用一次,这种情况下,如何保证这个被消费一次的消息不丢失是非常重要的。本文将分析Ro...

秒杀系统—4.第二版升级优化的技术文档二

大纲7.秒杀系统的秒杀活动服务实现...

SpringBoot JPA动态查询与Specification详解:从基础到高级实战

一、JPA动态查询概述1.1什么是动态查询动态查询是指根据运行时条件构建的查询,与静态查询(如@Query注解或命名查询)相对。在业务系统中,80%的查询需求都是动态的,例如电商系统中的商品筛选、订...

Java常用工具类技术文档(java常用工具类技术文档有哪些)

一、概述Java工具类(UtilityClasses)是封装了通用功能的静态方法集合,能够简化代码、提高开发效率。本文整理Java原生及常用第三方库(如ApacheCommons、GoogleG...

Guava 之Joiner 拼接字符串和Map(字符串拼接join的用法)

Guave是一个强大的的工具集合,今天给大家介绍一下,常用的拼接字符串的方法,当然JDK也有方便的拼接字符串的方式,本文主要介绍guava的,可以对比使用基本的拼接的话可以如下操作...

SpringBoot怎么整合Redis,监听Key过期事件?

一、修改Redis配置文件1、在Redis的安装目录2、找到redis.windows.conf文件,搜索“notify-keyspace-events”...

如何使用Python将多个excel文件数据快速汇总?

在数据分析和处理的过程中,Excel文件是我们经常会遇到的数据格式之一。本文将通过一个具体的示例,展示如何使用Python和Pandas库来读取、合并和处理多个Excel文件的数据,并最终生成一个包含...

利用Pandas高效处理百万级数据集,速度提升10倍的秘密武器

处理大规模数据集,尤其是百万级别的数据量,对效率的要求非常高。使用Pandas时,可以通过一些策略和技巧显著提高数据处理的速度。以下是一些关键的方法,帮助你使用Pandas高效地处理大型数据集,从而实...

Python进阶-Day 25: 数据分析基础

目标:掌握Pandas和NumPy的基本操作,学习如何分析CSV数据集并生成报告。课程内容...

Pandas 入门教程 - 第五课: 高级数据操作

在前几节课中,我们学习了如何使用Pandas进行数据操作和可视化。在这一课中,我们将进一步探索一些高级的数据操作技巧,包括数据透视、分组聚合、时间序列处理以及高级索引和切片。高级索引和切片...

原来这才是Pandas!(原来这才是薯片真正的吃法)

听到一些人说,Pandas语法太乱、太杂了,根本记不住。...

python(pandas + numpy)数据分析的基础

数据NaN值排查,统计,排序...

利用Python进行数据分组/数据透视表

1.数据分组源数据表如下所示:1.1分组键是列名分组键是列名时直接将某一列或多列的列名传给groupby()方法,groupby()方法就会按照这一列或多列进行分组。按照一列进行分组...

取消回复欢迎 发表评论: