百度360必应搜狗淘宝本站头条
当前位置:网站首页 > 技术分类 > 正文

Ubuntu os中部署Deep seek

ztj100 2025-03-03 21:15 35 浏览 0 评论

1. 环境准备


1.1 硬件要求


? 操作系统: Ubuntu 24.04 LTS

? GPU(可选): NVIDIA GPU(建议至少 24GB VRAM,如 RTX 4090 / A100)

? CPU(仅用于 CPU 推理): 至少 8 核,推荐 16 核以上

? 内存: 至少 32GB(建议 64GB 以上)

? 硬盘空间: 至少 60GB(用于模型存储)


2. 安装必要的软件和驱动


2.1 更新系统


sudo apt update && sudo apt upgrade -y


2.2 安装 NVIDIA 驱动(如果使用 GPU)


检查显卡型号:


lspci | grep -i nvidia


安装 NVIDIA 官方驱动(例如 535 版本):


sudo apt install -y nvidia-driver-535

reboot # 重启系统以加载新驱动


验证驱动安装:


nvidia-smi


如果输出类似以下内容,说明驱动安装成功:


+-----------------------------------------------------------------------------+

| NVIDIA-SMI 535.113.01 Driver Version: 535.113.01 CUDA Version: 12.2 |

|-------------------------------+----------------------+----------------------+


2.3 安装 CUDA 和 cuDNN(GPU 用户)


安装 CUDA


sudo apt install -y cuda


安装 cuDNN


sudo apt install -y libcudnn8


验证 CUDA:


nvcc --version


3. 创建 Python 环境


3.1 安装 Miniconda(推荐)


wget https://repo.anaconda.com/miniconda/Miniconda3-latest-Linux-x86_64.sh

bash Miniconda3-latest-Linux-x86_64.sh


安装完成后,关闭终端重新打开,或手动运行:


source ~/.bashrc


3.2 创建 Python 环境


conda create -n deepseek python=3.10 -y

conda activate deepseek


4. 安装 PyTorch 和 DeepSeek 依赖


4.1 安装 PyTorch


GPU 版本


pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu118


CPU 版本


pip install torch torchvision torchaudio


测试 PyTorch 是否安装成功:


python -c "import torch; print(torch.cuda.is_available())"


如果输出 True,说明 PyTorch 可以使用 GPU。


4.2 安装 transformers、accelerate 和 vllm


pip install transformers accelerate vllm


5. 下载 DeepSeek 代码和模型


5.1 下载 DeepSeek 代码


git clone https://github.com/DeepSeek-AI/DeepSeek-LLM.git

cd DeepSeek-LLM


5.2 下载 DeepSeek 7B 模型


官方 Hugging Face 地址:
https://huggingface.co/DeepSeek-AI/deepseek-llm-7b


手动下载


mkdir -p models/deepseek-llm-7b

cd models/deepseek-llm-7b

wget https://huggingface.co/DeepSeek-AI/deepseek-llm-7b/resolve/main/config.json

wget https://huggingface.co/DeepSeek-AI/deepseek-llm-7b/resolve/main/model.safetensors

wget https://huggingface.co/DeepSeek-AI/deepseek-llm-7b/resolve/main/tokenizer.model


(或使用 git-lfs 下载完整模型)


git lfs install

git clone https://huggingface.co/DeepSeek-AI/deepseek-llm-7b models/deepseek-llm-7b


6. 运行 DeepSeek


6.1 运行 DeepSeek 推理


创建 run.py 文件:


from transformers import AutoModelForCausalLM, AutoTokenizer

import torch


model_name = "models/deepseek-llm-7b" # 本地模型路径

tokenizer = AutoTokenizer.from_pretrained(model_name, trust_remote_code=True)

model = AutoModelForCausalLM.from_pretrained(model_name, torch_dtype=torch.float16, device_map="auto")


inputs = tokenizer("你好,DeepSeek!", return_tensors="pt").to("cuda")

outputs = model.generate(**inputs, max_new_tokens=100)

print(tokenizer.decode(outputs[0], skip_special_tokens=True))


运行:


python run.py


7. 运行 Web 界面


可以使用 FastAPI + Gradio 构建 Web 界面。


7.1 安装依赖


pip install fastapi gradio uvicorn


7.2 创建 web_app.py


from fastapi import FastAPI

import gradio as gr

from transformers import AutoModelForCausalLM, AutoTokenizer

import torch


app = FastAPI()


# 加载模型

model_name = "models/deepseek-llm-7b"

tokenizer = AutoTokenizer.from_pretrained(model_name, trust_remote_code=True)

model = AutoModelForCausalLM.from_pretrained(model_name, torch_dtype=torch.float16, device_map="auto")


def generate_response(prompt):

inputs = tokenizer(prompt, return_tensors="pt").to("cuda")

outputs = model.generate(**inputs, max_new_tokens=100)

return tokenizer.decode(outputs[0], skip_special_tokens=True)


# Gradio 界面

def chatbot(prompt):

return generate_response(prompt)


iface = gr.Interface(fn=chatbot, inputs="text", outputs="text")


@app.get("/")

def read_root():

return {"message": "DeepSeek Web Server is Running"}


# 启动 Gradio

@app.get("/webui")

def launch_gradio():

iface.launch(share=True)


7.3 运行 Web 界面


uvicorn web_app:app --host 0.0.0.0 --port 8000


在浏览器中打开:


http://localhost:8000/webui


8. 总结


步骤 命令

更新系统 sudo apt update && sudo apt upgrade -y

安装 GPU 驱动 sudo apt install -y nvidia-driver-535

安装 CUDA 和 cuDNN sudo apt install -y cuda libcudnn8

创建 Python 环境 conda create -n deepseek python=3.10 -y && conda activate deepseek

安装 PyTorch pip install torch torchvision torchaudio --index-url
https://download.pytorch.org/whl/cu118

安装 transformers pip install transformers accelerate vllm

下载模型 git clone
https://huggingface.co/DeepSeek-AI/deepseek-llm-7b models/deepseek-llm-7b

运行推理 python run.py

运行 Web 界面 uvicorn web_app:app --host 0.0.0.0 --port 8000


这样,你就可以在 Ubuntu 24.04 上部署 DeepSeek-LLM 了!

相关推荐

Vue3非兼容变更——函数式组件(vue 兼容)

在Vue2.X中,函数式组件有两个主要应用场景:作为性能优化,因为它们的初始化速度比有状态组件快得多;返回多个根节点。然而在Vue3.X中,有状态组件的性能已经提高到可以忽略不计的程度。此外,有状态组...

利用vue.js进行组件化开发,一学就会(一)

组件原理/组成组件(Component)扩展HTML元素,封装可重用的代码,核心目标是为了可重用性高,减少重复性的开发。组件预先定义好行为的ViewModel类。代码按照template\styl...

Vue3 新趋势:10 个最强 X 操作!(vue.3)

Vue3为前端开发带来了诸多革新,它不仅提升了性能,还提供了...

总结 Vue3 组件管理 12 种高级写法,灵活使用才能提高效率

SFC单文件组件顾名思义,就是一个.vue文件只写一个组件...

前端流行框架Vue3教程:17. _组件数据传递

_组件数据传递我们之前讲解过了组件之间的数据传递,...

前端流行框架Vue3教程:14. 组件传递Props效验

组件传递Props效验Vue组件可以更细致地声明对传入的props的校验要求...

前端流行框架Vue3教程:25. 组件保持存活

25.组件保持存活当使用...

5 个被低估的 Vue3 实战技巧,让你的项目性能提升 300%?

前端圈最近都在卷性能优化和工程化,你还在用老一套的Vue3开发方法?作为摸爬滚打多年的老前端,今天就把私藏的几个Vue3实战技巧分享出来,帮你在开发效率、代码质量和项目性能上实现弯道超车!一、...

绝望!Vue3 组件频繁崩溃?7 个硬核技巧让性能暴涨 400%!

前端的兄弟姐妹们五一假期快乐,谁还没在Vue3项目上栽过跟头?满心欢喜写好的组件,一到实际场景就频频崩溃,页面加载慢得像蜗牛,操作卡顿到让人想砸电脑。用户疯狂吐槽,领导脸色难看,自己改代码改到怀疑...

前端流行框架Vue3教程:15. 组件事件

组件事件在组件的模板表达式中,可以直接使用...

Vue3,看这篇就够了(vue3 从入门到实战)

一、前言最近很多技术网站,讨论的最多的无非就是Vue3了,大多数都是CompositionAPI和基于Proxy的原理分析。但是今天想着跟大家聊聊,Vue3对于一个低代码平台的前端更深层次意味着什么...

前端流行框架Vue3教程:24.动态组件

24.动态组件有些场景会需要在两个组件间来回切换,比如Tab界面...

前端流行框架Vue3教程:12. 组件的注册方式

组件的注册方式一个Vue组件在使用前需要先被“注册”,这样Vue才能在渲染模板时找到其对应的实现。组件注册有两种方式:全局注册和局部注册...

焦虑!Vue3 组件频繁假死?6 个奇招让页面流畅度狂飙 500%!

前端圈的朋友们,谁还没在Vue3项目上踩过性能的坑?满心期待开发出的组件,一到高并发场景就频繁假死,用户反馈页面点不动,产品经理追着问进度,自己调试到心态炸裂!别以为这是个例,不少人在电商大促、数...

前端流行框架Vue3教程:26. 异步组件

根据上节课的代码,我们在切换到B组件的时候,发现并没有网络请求:异步组件:...

取消回复欢迎 发表评论: