百度360必应搜狗淘宝本站头条
当前位置:网站首页 > 技术分类 > 正文

Ubuntu os中部署Deep seek

ztj100 2025-03-03 21:15 46 浏览 0 评论

1. 环境准备


1.1 硬件要求


? 操作系统: Ubuntu 24.04 LTS

? GPU(可选): NVIDIA GPU(建议至少 24GB VRAM,如 RTX 4090 / A100)

? CPU(仅用于 CPU 推理): 至少 8 核,推荐 16 核以上

? 内存: 至少 32GB(建议 64GB 以上)

? 硬盘空间: 至少 60GB(用于模型存储)


2. 安装必要的软件和驱动


2.1 更新系统


sudo apt update && sudo apt upgrade -y


2.2 安装 NVIDIA 驱动(如果使用 GPU)


检查显卡型号:


lspci | grep -i nvidia


安装 NVIDIA 官方驱动(例如 535 版本):


sudo apt install -y nvidia-driver-535

reboot # 重启系统以加载新驱动


验证驱动安装:


nvidia-smi


如果输出类似以下内容,说明驱动安装成功:


+-----------------------------------------------------------------------------+

| NVIDIA-SMI 535.113.01 Driver Version: 535.113.01 CUDA Version: 12.2 |

|-------------------------------+----------------------+----------------------+


2.3 安装 CUDA 和 cuDNN(GPU 用户)


安装 CUDA


sudo apt install -y cuda


安装 cuDNN


sudo apt install -y libcudnn8


验证 CUDA:


nvcc --version


3. 创建 Python 环境


3.1 安装 Miniconda(推荐)


wget https://repo.anaconda.com/miniconda/Miniconda3-latest-Linux-x86_64.sh

bash Miniconda3-latest-Linux-x86_64.sh


安装完成后,关闭终端重新打开,或手动运行:


source ~/.bashrc


3.2 创建 Python 环境


conda create -n deepseek python=3.10 -y

conda activate deepseek


4. 安装 PyTorch 和 DeepSeek 依赖


4.1 安装 PyTorch


GPU 版本


pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu118


CPU 版本


pip install torch torchvision torchaudio


测试 PyTorch 是否安装成功:


python -c "import torch; print(torch.cuda.is_available())"


如果输出 True,说明 PyTorch 可以使用 GPU。


4.2 安装 transformers、accelerate 和 vllm


pip install transformers accelerate vllm


5. 下载 DeepSeek 代码和模型


5.1 下载 DeepSeek 代码


git clone https://github.com/DeepSeek-AI/DeepSeek-LLM.git

cd DeepSeek-LLM


5.2 下载 DeepSeek 7B 模型


官方 Hugging Face 地址:
https://huggingface.co/DeepSeek-AI/deepseek-llm-7b


手动下载


mkdir -p models/deepseek-llm-7b

cd models/deepseek-llm-7b

wget https://huggingface.co/DeepSeek-AI/deepseek-llm-7b/resolve/main/config.json

wget https://huggingface.co/DeepSeek-AI/deepseek-llm-7b/resolve/main/model.safetensors

wget https://huggingface.co/DeepSeek-AI/deepseek-llm-7b/resolve/main/tokenizer.model


(或使用 git-lfs 下载完整模型)


git lfs install

git clone https://huggingface.co/DeepSeek-AI/deepseek-llm-7b models/deepseek-llm-7b


6. 运行 DeepSeek


6.1 运行 DeepSeek 推理


创建 run.py 文件:


from transformers import AutoModelForCausalLM, AutoTokenizer

import torch


model_name = "models/deepseek-llm-7b" # 本地模型路径

tokenizer = AutoTokenizer.from_pretrained(model_name, trust_remote_code=True)

model = AutoModelForCausalLM.from_pretrained(model_name, torch_dtype=torch.float16, device_map="auto")


inputs = tokenizer("你好,DeepSeek!", return_tensors="pt").to("cuda")

outputs = model.generate(**inputs, max_new_tokens=100)

print(tokenizer.decode(outputs[0], skip_special_tokens=True))


运行:


python run.py


7. 运行 Web 界面


可以使用 FastAPI + Gradio 构建 Web 界面。


7.1 安装依赖


pip install fastapi gradio uvicorn


7.2 创建 web_app.py


from fastapi import FastAPI

import gradio as gr

from transformers import AutoModelForCausalLM, AutoTokenizer

import torch


app = FastAPI()


# 加载模型

model_name = "models/deepseek-llm-7b"

tokenizer = AutoTokenizer.from_pretrained(model_name, trust_remote_code=True)

model = AutoModelForCausalLM.from_pretrained(model_name, torch_dtype=torch.float16, device_map="auto")


def generate_response(prompt):

inputs = tokenizer(prompt, return_tensors="pt").to("cuda")

outputs = model.generate(**inputs, max_new_tokens=100)

return tokenizer.decode(outputs[0], skip_special_tokens=True)


# Gradio 界面

def chatbot(prompt):

return generate_response(prompt)


iface = gr.Interface(fn=chatbot, inputs="text", outputs="text")


@app.get("/")

def read_root():

return {"message": "DeepSeek Web Server is Running"}


# 启动 Gradio

@app.get("/webui")

def launch_gradio():

iface.launch(share=True)


7.3 运行 Web 界面


uvicorn web_app:app --host 0.0.0.0 --port 8000


在浏览器中打开:


http://localhost:8000/webui


8. 总结


步骤 命令

更新系统 sudo apt update && sudo apt upgrade -y

安装 GPU 驱动 sudo apt install -y nvidia-driver-535

安装 CUDA 和 cuDNN sudo apt install -y cuda libcudnn8

创建 Python 环境 conda create -n deepseek python=3.10 -y && conda activate deepseek

安装 PyTorch pip install torch torchvision torchaudio --index-url
https://download.pytorch.org/whl/cu118

安装 transformers pip install transformers accelerate vllm

下载模型 git clone
https://huggingface.co/DeepSeek-AI/deepseek-llm-7b models/deepseek-llm-7b

运行推理 python run.py

运行 Web 界面 uvicorn web_app:app --host 0.0.0.0 --port 8000


这样,你就可以在 Ubuntu 24.04 上部署 DeepSeek-LLM 了!

相关推荐

其实TensorFlow真的很水无非就这30篇熬夜练

好的!以下是TensorFlow需要掌握的核心内容,用列表形式呈现,简洁清晰(含表情符号,<300字):1.基础概念与环境TensorFlow架构(计算图、会话->EagerE...

交叉验证和超参数调整:如何优化你的机器学习模型

准确预测Fitbit的睡眠得分在本文的前两部分中,我获取了Fitbit的睡眠数据并对其进行预处理,将这些数据分为训练集、验证集和测试集,除此之外,我还训练了三种不同的机器学习模型并比较了它们的性能。在...

机器学习交叉验证全指南:原理、类型与实战技巧

机器学习模型常常需要大量数据,但它们如何与实时新数据协同工作也同样关键。交叉验证是一种通过将数据集分成若干部分、在部分数据上训练模型、在其余数据上测试模型的方法,用来检验模型的表现。这有助于发现过拟合...

深度学习中的类别激活热图可视化

作者:ValentinaAlto编译:ronghuaiyang导读使用Keras实现图像分类中的激活热图的可视化,帮助更有针对性...

超强,必会的机器学习评估指标

大侠幸会,在下全网同名[算法金]0基础转AI上岸,多个算法赛Top[日更万日,让更多人享受智能乐趣]构建机器学习模型的关键步骤是检查其性能,这是通过使用验证指标来完成的。选择正确的验证指...

机器学习入门教程-第六课:监督学习与非监督学习

1.回顾与引入上节课我们谈到了机器学习的一些实战技巧,比如如何处理数据、选择模型以及调整参数。今天,我们将更深入地探讨机器学习的两大类:监督学习和非监督学习。2.监督学习监督学习就像是有老师的教学...

Python教程(三十八):机器学习基础

...

Python 模型部署不用愁!容器化实战,5 分钟搞定环境配置

你是不是也遇到过这种糟心事:花了好几天训练出的Python模型,在自己电脑上跑得顺顺当当,一放到服务器就各种报错。要么是Python版本不对,要么是依赖库冲突,折腾半天还是用不了。别再喊“我...

超全面讲透一个算法模型,高斯核!!

...

神经网络与传统统计方法的简单对比

传统的统计方法如...

AI 基础知识从0.1到0.2——用“房价预测”入门机器学习全流程

...

自回归滞后模型进行多变量时间序列预测

下图显示了关于不同类型葡萄酒销量的月度多元时间序列。每种葡萄酒类型都是时间序列中的一个变量。假设要预测其中一个变量。比如,sparklingwine。如何建立一个模型来进行预测呢?一种常见的方...

苹果AI策略:慢哲学——科技行业的“长期主义”试金石

苹果AI策略的深度原创分析,结合技术伦理、商业逻辑与行业博弈,揭示其“慢哲学”背后的战略智慧:一、反常之举:AI狂潮中的“逆行者”当科技巨头深陷AI军备竞赛,苹果的克制显得格格不入:功能延期:App...

时间序列预测全攻略,6大模型代码实操

如果你对数据分析感兴趣,希望学习更多的方法论,希望听听经验分享,欢迎移步宝藏公众号...

AI 基础知识从 0.4 到 0.5—— 计算机视觉之光 CNN

...

取消回复欢迎 发表评论: