
DeepSeek服务器挤爆了 教你一招解决——Ollama 本地部署DeepSeek
文章浏览阅读4k次。蒸馏版本本地化部署的意义在于,可以免费使用个人电脑算力进行逻辑推理。而且,蒸馏模型相对于教师模型,是一个体积缩小60% 到80%、推理速度提...
文章浏览阅读4k次。蒸馏版本本地化部署的意义在于,可以免费使用个人电脑算力进行逻辑推理。而且,蒸馏模型相对于教师模型,是一个体积缩小60% 到80%、推理速度提...
文章浏览阅读859次,点赞6次,收藏5次。进入AI算力主导的全新智能时代!
文章浏览阅读1.6k次,点赞25次,收藏25次。购买服务器并部署AI模型是一个系统化的过程,需要根据具体需求选择合适的硬件、软件和部署方案。本文整理了在部署搭建...
文章浏览阅读1.2k次,点赞26次,收藏28次。如果你只想简单的抛给 DeepSeek 一个问题,就想得到一个满意的答案的话,我估计它也不可能让你满意。就像其他...
文章浏览阅读1.2k次,点赞18次,收藏14次。从上个月20号DeepSeek推出R1推理模型以来,DeepSeek一直频繁刷圈,一方面是来自行内行外的各个用户...
文章浏览阅读5.4k次。蒸馏版本本地化部署的意义在于,可以免费使用个人电脑算力进行逻辑推理。而且,蒸馏模型相对于教师模型,是一个体积缩小60% 到80%、推理速...
文章浏览阅读964次,点赞16次,收藏20次。本地服务器部署开源大模型有一个前提,就是得有 GPU 显卡资源,在我下面的例子中我租用了 autodl 中的算力资...
文章浏览阅读1k次,点赞14次,收藏13次。因此如果大语言模型可以自由的使用不同专长模态的模型, 它就可以快速准确的解决自身技术的不足, 和扩展处理业务范围, ...
文章浏览阅读1.9k次,点赞22次,收藏25次。LLaMA-Factory 是一个强大的大型语言模型微调框架:支持多种模型:涵盖 LLaMA、LLaVA、Mis...
文章浏览阅读6.6k次,点赞40次,收藏38次。关于671B转译和量化过程中智商降低多少的问题,是一个开放性问题,转译和量化一定是跟原版的智商是有区别的,智商下...