
4卡4090服务器ollama环境部署、模型下载、模型调用及API接口调用
文章浏览阅读811次,点赞29次,收藏8次。本文详细介绍了在配备4块NVIDIA 4090显卡的高性能服务器上部署Ollama环境的全过程。内容包括:硬件配置(...
文章浏览阅读811次,点赞29次,收藏8次。本文详细介绍了在配备4块NVIDIA 4090显卡的高性能服务器上部署Ollama环境的全过程。内容包括:硬件配置(...
文章浏览阅读696次,点赞4次,收藏4次。银河麒麟服务器操作系统V10安装Nvidia显卡驱动和CUDA(L40)并安装ollama运行DeepSeek【开荒存...
文章浏览阅读5k次,点赞21次,收藏24次。通过上述步骤,你可以轻松地在Windows上配置Ollama服务,使其能够被局域网中的其他设备访问。具体操作包括:设...
文章浏览阅读768次,点赞15次,收藏4次。Win10专业版。
文章浏览阅读688次,点赞22次,收藏15次。新手小白参考csdn上其他博主完成,开始接到这个小任务连docker怎么用完全不知道,最开始是直接用官方ollam...
文章浏览阅读8.7k次,点赞22次,收藏30次。关于修改 Ollama 及其模型默认路径、迁移已安装的 Ollama 程序和模型以及重启 Ollama 的操作指...
文章浏览阅读1.9k次,点赞7次,收藏11次。如何在服务器上部署运行DeepSeek R1模型_服务器部署deepseek
文章浏览阅读1.2k次,点赞18次,收藏14次。从上个月20号DeepSeek推出R1推理模型以来,DeepSeek一直频繁刷圈,一方面是来自行内行外的各个用户...
文章浏览阅读5.4k次。蒸馏版本本地化部署的意义在于,可以免费使用个人电脑算力进行逻辑推理。而且,蒸馏模型相对于教师模型,是一个体积缩小60% 到80%、推理速...
文章浏览阅读1.2k次,点赞27次,收藏6次。当一个Ollama服务器创建好后,除了用ollama指令来测试,还可以使用curl和python来通过网络测试Ol...