大模型实战:Flask+H5三件套实现大模型基础聊天界面
ztj100 2025-07-09 18:38 4 浏览 0 评论
本文使用 Flask 和 H5 三件套(HTML+JS+CSS)实现大模型聊天应用的基本方式
话不多说,先贴上实现效果:
流式输出:
思考输出:
聊天界面模型设置:
模型设置会话切换:
前言
大模型的聊天应用从功能到 UI 设计来说都已经非常标准化了,然而身为小白的我至今还天真地以为页面上的流式响应是一门了不起的技术。 于是在得空的时候亲手实现了一个名为 Chat Mate 的聊天应用,该应用主打低代码量和简单易用,并且实现了 Chat 应用需要具备的流式输出、历史记录、模型思考等功能。 项目采用前后端分离的方式,前端完全由原生 HTML、JS、CSS 编写,没有使用任何封装好的框架,后端使用 Python 的 Flask 编写,实现简单。 用户可以输入自己已经购买的 API 调用商用 LLM,也可以调用通过 Ollama 部署的本地模型。 完整的项目代码放在了 Github 上(见文末),欢迎小伙伴们下载学习和二次开发
关键实现
项目采用前后端分离的方式设计,分别使用 Flask 框架编写前端服务器和后端服务器。
- 页面文件:见 /templates/index.html 文件,其中 /templates 目录方便 Flask 直接读取和渲染。
- 样式文件:见 /static/styles.css 文件。
- 脚本文件:见 /static/script.js 文件,其中 /static 目录也是为了方便 Flask 直接读取和渲染。
- 后端文件:见 /web_server.py 和 /openai_server.py 文件,其中 /web_server.py 为前端服务器,/openai_server.py 为后端服务器。
一、页面设计
仿照主流聊天应用,前端页面主要包含侧边栏和主要内容区域,其中侧边栏用于显示历史记录和设置,主要内容区域用于显示聊天记录和输入框。
<html lang="zh-CN"><head> <meta charset="UTF-8"> <meta name="viewport" content="width=device-width, initial-scale=1.0"> <title>Chat Mate - 聊天搭子title> <link rel="stylesheet" type="text/css" href="../static/styles.css">head><body> <div class="sidebar" id="sidebar"> <div class="sidebar-header"> <div class="sidebar-title">历史对话div> <button class="close-sidebar" id="close-sidebar">×button> div> <div class="history-list" id="history-list"> div> <div class="sidebar-footer"> <button class="new-chat-btn" id="new-chat-btn">开始新对话button> 设置 --> div> div> <div class="settings-modal" id="settings-modal"> <div class="settings-content"> <div class="settings-header"> <h3 class="settings-title">API 设置h3> <button class="close-settings" id="close-settings">×button> div> <form class="settings-form" id="settings-form"> <div class="form-group"> <label for="api-url" class="form-label">API 地址label> <input type="text" id="api-url" class="form-input" placeholder="https://api.example.com/v1"> div> <div class="form-group"> <label for="api-key" class="form-label">API 密钥label> <input type="password" id="api-key" class="form-input" placeholder="输入您的API密钥"> div> <div class="form-group"> <label for="model-name" class="form-label">模型名称label> <input type="text" id="model-name" class="form-input" placeholder="Qwen/QwQ-32B"> div> form> <div class="settings-footer"> <button type="button" class="btn btn-secondary" id="clear-settings">清除button> <button type="button" class="btn btn-primary" id="save-settings">保存button> div> div> div> <div class="sidebar-overlay" id="sidebar-overlay">div> <div class="main-content" id="main-content"> <button class="menu-btn" id="settings-btn"> <img src="../static/logo/a-more2.svg" alt="更多" width="24" height="24"> button> <button class="menu-btn" id="menu-btn" style="top: 80px;"> <img src="../static/logo/lishijilu.svg" alt="历史记录" width="24" height="24"> button> <button class="menu-btn" id="clear-history-btn" style="top: 140px;"> <img src="../static/logo/shuaxin.svg" alt="刷新" width="24" height="24"> button> <main> <div class="chat-container"> <div class="chat-header"> <div class="status">div> <span>Chat Mate - 你的在线聊天伙伴span> div> <div class="chat-messages" id="chat-messages"> <div class="message-container bot"> <div class="avatar bot-avatar">AIdiv> <div class="message bot-message"> 你好!我是你的聊天搭子。你可以跟我说说你的感受和想法,我会认真倾听并给予温暖的回应。今天有什么想分享的吗? <div class="message-time">刚刚div> div> div> div> <div class="typing-indicator" id="typing-indicator"> <div class="typing-dot">div> <div class="typing-dot">div> <div class="typing-dot">div> div> <div class="input-area"> <textarea class="message-input" id="message-input" placeholder="向 AI 发送消息 嗖嗖~咻~" rows="1">textarea> <button class="send-button" id="send-button"> <svg class="send-icon" viewBox="0 0 24 24" fill="none" xmlns="http://www.w3.org/2000/svg"> <path d="M22 2L11 13" stroke="currentColor" stroke-width="2" stroke-linecap="round" stroke-linejoin="round"/> <path d="M22 2L15 22L11 13L2 9L22 2Z" stroke="currentColor" stroke-width="2" stroke-linecap="round" stroke-linejoin="round"/> svg> button> div> div> main> div> <script src="../static/scripts.js">script>body>html>
流式输出
流式输出的实现主要依赖如下三个函数,前端中依赖 generateResponse
和 updateStreamingMessage
函数,后端中依赖 stream_openai_generate
函数。
- 在
generateResponse
函数中,使用fetch
API 发送 POST 请求,并使用response.body.getReader()
获取可读流。
async function generateResponse(userMessage) { // ... 其他代码 ... try { const response = await fetch(`http://localhost:${SERVER_PORT}/stream_openai_generate`, { method: 'POST', headers: {'Content-Type': 'application/json'}, body: JSON.stringify({/* 请求数据 */}) }); const reader = response.body.getReader(); // 获取可读流 const decoder = new TextDecoder(); let solution = ''; let responseText = ''; while (true) { const {done, value} = await reader.read(); // 读取数据块 if (done) break; const chunk = decoder.decode(value); // 解码数据 const lines = chunk.split('\n'); for (const line of lines) { if (line.startsWith('data:')) { const data = JSON.parse(line.substring(5).trim()); // 根据字段类型累积内容 if (data.reason != null && data.reason) { solution += data.text; updateStreamingMessage(solution, 'reasoner'); // 实时更新解决方案 } else { responseText += data.text; updateStreamingMessage(responseText, 'bot'); // 实时更新回复 } } } } // ... 返回最终结果 ... } catch (error) { console.error('Error:', error); // ... 错误处理 ... }}
2. 在 updateStreamingMessage
函数中,使用 innerHTML
更新消息内容,并支持 HTML 换行。
function updateStreamingMessage(text, sender) { // 查找或创建消息容器 let messageContainer = document.querySelector(`.message-container.${sender}:last-child`); if (!messageContainer) { // 创建新消息容器(头像+消息框) messageContainer = document.createElement('div'); messageContainer.classList.add('message-container', sender); // ... 创建avatar和messageDiv ... chatMessages.appendChild(messageContainer); } // 更新消息内容(支持HTML换行) const messageDiv = messageContainer.querySelector('.message'); messageDiv.innerHTML = text.replace(/\n/g, '
'); // 自动滚动到底部 chatMessages.scrollTop = chatMessages.scrollHeight;}
3. 前端使用 fetch
API 发送 POST 请求,将调用大模型所需的 base_url、api_key 和 model 三个参数发送给后端服务器(见
函数)。
script.js/generateResponse
try { const response = await fetch(`http://localhost:${SERVER_PORT}/stream_openai_generate`, { method: 'POST', headers: { 'Content-Type': 'application/json', }, body: JSON.stringify({ messages: currentConversation.messages, base_url: apiUrlInput.value, api_key: apiKeyInput.value, model: apiModelInput.value, newMessage: userMessage, }) }); if (!response.ok) { throw new Error(`HTTP error! status: ${response.status}`); } const reader = response.body.getReader(); const decoder = new TextDecoder(); let solution = ''; let responseText = ''; let currentField = ''; while (true) { const {done, value} = await reader.read(); // console.log('value:', value); // console.log('done:', done); if (done) break; const chunk = decoder.decode(value); console.log('chunk:', chunk); const lines = chunk.split('\n'); for (const line of lines) { if (line.startsWith('data:')) { const data = JSON.parse(line.substring(5).trim()); if (data.reason != null && data.reason) { solution += data.text; currentField = 'solution'; } else { responseText += data.text; currentField = 'response'; } // 实时更新消息 if (currentField === 'solution') { updateStreamingMessage(solution, 'reasoner'); } else if (currentField === 'response') { updateStreamingMessage(responseText, 'bot'); } } } } // 返回最终结果 return { solution: solution, responseText: responseText };} catch (error) { console.error('Error:', error); // 处理错误}
4. 在后端 openai_server.py
文件中,使用 stream_openai_generate
函数,将请求数据发送给 OpenAI API 或 Ollama,并使用 yield
逐行返回结果。
from flask import Flask, request, Responsefrom flask_cors import CORS # 导入CORSimport jsonimport ollamaapp = Flask(__name__)CORS(app) # 启用CORS支持role = { 'bot': 'assistant', 'user': 'user'}def generate_stream_response_by_openai(messages=None, model='Qwen/QwQ-32B', base_url=None, api_key=None): from openai import OpenAI client = OpenAI( base_url=base_url, api_key=api_key, # ModelScope Token ) response = client.chat.completions.create( model=model, # ModelScope Model-Id messages=messages, stream=True ) for chunk in response: reasoning_chunk = chunk.choices[0].delta.reasoning_content # delta.reasoning_content 是推理 answer_chunk = chunk.choices[0].delta.content # delta.content 是响应内容 if reasoning_chunk != '': yield f"data: {json.dumps({'text': reasoning_chunk, 'reason': True}, ensure_ascii=False)}\n" elif answer_chunk != '': yield f"data: {json.dumps({'text': answer_chunk, 'reason': False}, ensure_ascii=False)}\n" yield "" # 结束标记def generate_stream_response_by_ollama(messages=None, model='qwen2'): response = ollama.chat( model=model, messages=messages, stream=True ) for chunk in response: answer_chunk = chunk['message']['content'] if answer_chunk != '': yield f"data: {json.dumps({'text': answer_chunk, 'reason': False}, ensure_ascii=False)}\n" yield "" # 结束标记@app.route('/stream_openai_generate', methods=['POST'])def stream_generate_openai(): print(request.json) # 获取请求中的输入数据 data = request.json['messages'] model = request.json['model'] base_url = request.json['base_url'] api_key = request.json['api_key'] messages = [] for line in data[1:]: messages.append({ 'role': role[line['sender']], 'content': line['text'] }) print(messages) if base_url != 'Ollama': # 返回流式响应 return Response( generate_stream_response_by_openai( messages=messages, model=model, base_url=base_url, api_key=api_key ), mimetype='text/event-stream', # Server-Sent Events类型 headers={ 'X-Accel-Buffering': 'no', # 禁用Nginx缓存 'Cache-Control': 'no-cache' } ) else: # 返回流式响应 return Response( generate_stream_response_by_ollama( messages=messages, model=model ), mimetype='text/event-stream', # Server-Sent Events类型 headers={ 'X-Accel-Buffering': 'no', # 禁用Nginx缓存 'Cache-Control': 'no-cache' } )if __name__ == '__main__': app.run(host='0.0.0.0', port=8000)
侧边栏的显示与隐藏
侧边栏的实现原理如下:
- 初始状态:
- 侧边栏通过
transform: translateX(-100%)
隐藏在屏幕左侧 - 遮罩层透明度为0且不可点击
2. 显示侧边栏:
- 点击菜单按钮触发
toggleSidebar()
- 为侧边栏添加
active
类,使其平移到可视区域 - 同时显示半透明遮罩层
3. 隐藏侧边栏:
- 点击关闭按钮或遮罩层再次触发
toggleSidebar()
- 移除
active
类,侧边栏平移回隐藏位置 - 隐藏遮罩层
4. 动画效果:
- 通过CSS的
transition
属性实现平滑的滑动动画 - 遮罩层也有淡入淡出效果
HTML结构:
<div id="sidebar">...div><div id="sidebar-overlay">div>
CSS样式:
.sidebar { transform: translateX(-100%); /* 默认隐藏 */ transition: transform 0.3s ease; /* 添加过渡动画 */}.sidebar.active { transform: translateX(0); /* 显示状态 */}.sidebar-overlay { opacity: 0; pointer-events: none; /* 默认不可点击 */ transition: opacity 0.3s ease;}.sidebar-overlay.active { opacity: 1; pointer-events: all; /* 激活时可点击 */}
JavaScript控制:
// 获取DOM元素const sidebar = document.getElementById('sidebar');const sidebarOverlay = document.getElementById('sidebar-overlay');const menuBtn = document.getElementById('menu-btn');const closeSidebar = document.getElementById('close-sidebar');// 切换侧边栏函数function toggleSidebar() { sidebar.classList.toggle('active'); sidebarOverlay.classList.toggle('active'); mainContent.classList.toggle('sidebar-open');}// 事件监听menuBtn.addEventListener('click', toggleSidebar);closeSidebar.addEventListener('click', toggleSidebar);sidebarOverlay.addEventListener('click', toggleSidebar);
总结
以上仅展示了项目的部分功能和关键代码,完整代码和功能说明请查阅项目仓库。
代码地址:
- 上一篇:SSE前端(sse前端数据)
- 下一篇:前端里的拖拖拽拽(拖拽式前端框架)
相关推荐
- 前端案例·程序员的浪漫:流星雨背景
-
如果文章对你有收获,还请不要吝啬【点赞收藏评论】三连哦,你的鼓励将是我成长助力之一!谢谢!(1)方式1:简单版本【1】先看实现效果...
- UI样式iPod classic的HTML本地音乐播放器框架
-
PS:音量可以鼠标点击按住在音量图标边的轮盘上下拖拽滑动音量大小中心按钮可以更改播放器为白色...
- JavaScript 强制回流问题及优化方案
-
JavaScript代码在运行过程中可能会强制触发浏览器的回流(Reflow)...
- Ai 编辑器 Cursor 零基础教程:推箱子小游戏实战演练
-
最近Ai火的同时,Ai编辑器Cursor同样火了一把。今天我们就白漂一下Cursor,使用免费版本搞一个零基础教程...
- 19年前司机被沉尸水库!凶手落网,竟已是身家千万的大老板
-
]|\[sS])*"|'(?:[^\']|\[sS])*'|[^)}]+)s*)/g,l=window.testenv_reshost||window.__moon_host||"res.wx.qq...
- 全民健身网络热度调查“居家健身”成为第一网络热词
-
]|\[sS])*"|'(?:[^\']|\[sS])*'|[^)}]+)s*)/g,l=window.testenv_reshost||window.__moon_host||"res.wx.qq...
- 取代JavaScript库的10个现代Web API及详细实施代码
-
为什么浏览器内置的API你还在用某个臃肿的Javascript库呢?用内置的API有什么好处呢?Web平台经历了巨大演进,引入了强大的原生API,不再需要臃肿的JavaScript库。现代浏览器现已支...
- 前端文件下载的N种姿势:从简单到高级
-
文件下载是web开发里一个非常常见的功能,无论是下载用户生成的数据、图片、文档还是应用程序包。前端开发者有多种方式来实现这一需求,每种方式都有其适用场景和优缺点。介绍下几种比较常用的文件下载方法。...
- JavaScript 性能优化方法(js前端性能优化)
-
JavaScript性能优化方法减少DOM操作频繁的DOM操作会导致浏览器重绘和回流,影响性能。使用文档片段(DocumentFragment)或虚拟DOM技术减少直接操作。...
- DOM节点的创建、插入、删除、查找、替换
-
在前端开发中,js与html联系最紧密的莫过于对DOM的操作了,本文为大家分享一些DOM节点的基本操作。一、创建DOM节点使用的命令是varoDiv=document.createElement...
- 前端里的拖拖拽拽(拖拽式前端框架)
-
最近在项目中使用了react-dnd,一个基于HTML5的拖拽库,“拖拽能力”丰富了前端的交互方式,基于拖拽能力,会扩展各种各样的拖拽反馈效果,因此有必要学习了解,最好的学习方式就是实操!...
- 大模型实战:Flask+H5三件套实现大模型基础聊天界面
-
本文使用Flask和H5三件套(HTML+JS+CSS)实现大模型聊天应用的基本方式话不多说,先贴上实现效果:流式输出:思考输出:聊天界面模型设置:模型设置会话切换:前言大模型的聊天应用从功能...
- SSE前端(sse前端数据)
-
<!DOCTYPEhtml><htmllang="zh-CN"><head>...
- 课堂点名总尴尬?试试 DeepSeek,或能实现点名自由!(附教程)
-
2025年2月26日"你有没有经历过这样的场景?老师拿着花名册扫视全班:'今天我们来点名...'那一刻心跳加速,默念:'别点我!'但现在,我要...
- 我会在每个项目中复制这10个JS代码片段
-
你是否也有这种感觉:在搭建新项目时,你会想:"这个函数我是不是已经写过了...在某个地方?"是的——我也是。所以在开发了数十个React、Node和全栈应用后,我不再重复造轮子。我创建...
你 发表评论:
欢迎- 一周热门
- 最近发表
- 标签列表
-
- idea eval reset (50)
- vue dispatch (70)
- update canceled (42)
- order by asc (53)
- spring gateway (67)
- 简单代码编程 贪吃蛇 (40)
- transforms.resize (33)
- redisson trylock (35)
- 卸载node (35)
- np.reshape (33)
- torch.arange (34)
- npm 源 (35)
- vue3 deep (35)
- win10 ssh (35)
- vue foreach (34)
- idea设置编码为utf8 (35)
- vue 数组添加元素 (34)
- std find (34)
- tablefield注解用途 (35)
- python str转json (34)
- java websocket客户端 (34)
- tensor.view (34)
- java jackson (34)
- vmware17pro最新密钥 (34)
- mysql单表最大数据量 (35)