
MNN 手机本地部署 DeepSeek R1 和多模态大模型,告别服务器繁忙!
文章浏览阅读1.3k次,点赞26次,收藏18次。本文介绍了MNN Chat这款由阿里巴巴开源的多模态大模型应用。它支持本地运行,无需依赖外部服务器,确保数据隐私...
文章浏览阅读1.3k次,点赞26次,收藏18次。本文介绍了MNN Chat这款由阿里巴巴开源的多模态大模型应用。它支持本地运行,无需依赖外部服务器,确保数据隐私...
文章浏览阅读1.2k次,点赞26次,收藏28次。如果你只想简单的抛给 DeepSeek 一个问题,就想得到一个满意的答案的话,我估计它也不可能让你满意。就像其他...
文章浏览阅读1.2k次,点赞18次,收藏14次。从上个月20号DeepSeek推出R1推理模型以来,DeepSeek一直频繁刷圈,一方面是来自行内行外的各个用户...
文章浏览阅读861次,点赞11次,收藏16次。本地运行的蒸馏模型还是比较容易的主要下载ollama和蒸馏模型就行。但是受限于本地机器限制,蒸馏的模型参数比较少,...
文章浏览阅读988次,点赞16次,收藏16次。而要能够部署满血版671B的的服务器显存需要480GB,一张A100 80GB的卡大概14w一张,稳妥起见,需要8...
文章浏览阅读1.7k次,点赞24次,收藏9次。【linux】在 Linux 服务器上部署 DeepSeek-r1:70b 并通过 Windows 远程可视化使用...
文章浏览阅读946次,点赞17次,收藏18次。2025年,DeepSeek火了,成为全球焦点,以一种颠覆性的算力运用方式让AI发展触手可及。但随之而来的是用户量...
文章浏览阅读4.5k次,点赞85次,收藏13次。DeepSeek离线可用,手把手教你一招永久解决DeepSeek服务器繁忙!_deepseek部署到本地还会服务...
文章浏览阅读5.4k次。蒸馏版本本地化部署的意义在于,可以免费使用个人电脑算力进行逻辑推理。而且,蒸馏模型相对于教师模型,是一个体积缩小60% 到80%、推理速...
文章浏览阅读1k次,点赞14次,收藏13次。因此如果大语言模型可以自由的使用不同专长模态的模型, 它就可以快速准确的解决自身技术的不足, 和扩展处理业务范围, ...