云计算百科
云计算领域专业知识百科平台

nvidia显卡服务器离线环境下通过vllm部署deepseek

一、操作系统 如果不要求操作系统,个人建议使用ubuntu22.04版本

二、环境准备 安装python https://www.python.org/downloads/source/ 压缩包地址 下载好的压缩包上传到服务器 执行一下命令

```
tar -zxvf Python-3.12.9.tgz //解压
cd /Python-3.12.9 //进入解压后的目录
./configure –prefix=/usr/local/python3.12.9 //指定安装在哪个目录
make && sudo make install //编译以及安装
ln -sf /usr/local/python3.12.9/bin/python3.12 /usr/bin/python3 软链接
ln -sf /usr/local/python3.12.9/bin/pip3.12 /usr/bin/pip3
python3 -v
```

三、安装miniconda3

  • 创建目录

    ```
    mkdir -p ~/miniconda3
    ```

  • 下载脚本 https://repo.anaconda.com/miniconda/Miniconda3-latest-Linux-x86_64.sh 下载之后上传到服务器

  • 运行脚本 bash ~/miniconda3/miniconda.sh -b -u -p ~/miniconda3

  • 激活 ~/miniconda3/bin/conda init bash ~/miniconda3/bin/conda init zsh source ~/.bashrc

  • 配置国内镜像源 vim ~/miniconda3/.condarc

  • show_channel_urls: true
    channels:
    – https://mirrors.tuna.tsinghua.edu.cn/anaconda/cloud/pytorch/
    – https://mirrors.tuna.tsinghua.edu.cn/anaconda/cloud/msys2/
    – https://mirrors.tuna.tsinghua.edu.cn/anaconda/cloud/conda-forge/
    – https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/main/
    – https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/free/
    – defaults
    custom_channels:
    conda-forge: https://mirrors.tuna.tsinghua.edu.cn/anaconda/cloud
    msys2: https://mirrors.tuna.tsinghua.edu.cn/anaconda/cloud
    bioconda: https://mirrors.tuna.tsinghua.edu.cn/anaconda/cloud
    menpo: https://mirrors.tuna.tsinghua.edu.cn/anaconda/cloud
    pytorch: https://mirrors.tuna.tsinghua.edu.cn/anaconda/cloud
    pytorch-lts: https://mirrors.tuna.tsinghua.edu.cn/anaconda/cloud
    simpleitk: https://mirrors.tuna.tsinghua.edu.cn/anaconda/cloud

  • 验证 conda –version conda info
  • 创建虚拟环境 conda create –name vLLM python=3.10 -y 注意python版本要和自己一致
  • 激活环境 conda activate vLLM
  • 四、安装nvidia驱动

  • 禁用nouveau驱动 vim /etc/modprobe.d/blacklist-nouveau.conf 因为可能会冲突 blacklist nouveau options nouveau modeset=0
  • nvidia驱动下载(若已装好则跳过) https://www.nvidia.cn/ 下载好后上传到服务器安装 dpkg -i 驱动包名 apt update apt install -y cuda-drivers reboot now nvidia-smi 五、安装cuda conda activate vLLM https://developer.nvidia.com/cuda-toolkit-archive 找到对应版本执行下载命令 cuda的版本要与nvidia-smi中显示的版本一致 赋予权限 chmod a+x 文件名.run ./文件名 配置环境变量 echo ‘export PATH=/usr/local/cuda-12.4/bin:

    P

    A

    T

    H

    >

    >

     

    /

    .

    b

    a

    s

    h

    r

    c

    e

    c

    h

    o

    e

    x

    p

    o

    r

    t

    L

    D

    L

    I

    B

    R

    A

    R

    Y

    P

    A

    T

    H

    =

    /

    u

    s

    r

    /

    l

    o

    c

    a

    l

    /

    c

    u

    d

    a

    12.4

    /

    l

    i

    b

    64

    :

    PATH' >> ~/.bashrc echo 'export LD_LIBRARY_PATH=/usr/local/cuda- 12.4/lib64:

    PATH>> /.bashrcechoexportLDLIBRARYPATH=/usr/local/cuda12.4/lib64:LD_LIBRARY_PATH’ >> ~/.bashrc source ~/.bashrc nvcc –version reboot now conda activate vLLM 六、安装torch https://download.pytorch.org/whl/torch/ 上传torch-2.4.0+cu124-cp310-cp310-linux_x86_64.whl pip install torch-2.4.0+cu124-cp310-cp310-linux_x86_64.whl 七、上传vllm 准备一台可以联网的服务器(如果当前服务器联网直接pip install vllm) pip download vLLM -i https://pypi.tuna.tsinghua.edu.cn/simple 将下载好的vllm打包传输到目标服务器 pip install vllm.tar vllm –version 八、上传模型 https://modelscope.cn/models/deepseek-ai/DeepSeek-R1-Distill-Qwen-14B,模型下载地址,我是通过移动硬盘传输的,因为是离线的不能直接下载 九、运行模型 下载好了之后运行模型,跑起来就ok了

  • 赞(0)
    未经允许不得转载:网硕互联帮助中心 » nvidia显卡服务器离线环境下通过vllm部署deepseek
    分享到: 更多 (0)

    评论 抢沙发

    评论前必须登录!