
【第四章:大模型(LLM)】05.LLM实战: 实现GPT2-(7)模型训练与微调
文章浏览阅读1k次,点赞34次,收藏26次。本文介绍了GPT-2模型的训练与微调过程。首先回顾了模型架构的关键组件,包括分词器、注意力机制等。重点阐述了训练目标...
文章浏览阅读1k次,点赞34次,收藏26次。本文介绍了GPT-2模型的训练与微调过程。首先回顾了模型架构的关键组件,包括分词器、注意力机制等。重点阐述了训练目标...
文章浏览阅读304次,点赞5次,收藏3次。本文介绍了GPT-2模型处理文本输入的实现方法,主要包括两个关键步骤:首先使用Tokenizer将自然语言文本转换为t...
文章浏览阅读1k次,点赞36次,收藏17次。本文介绍了在4卡4090服务器上部署GraphRAG环境的过程。硬件配置包括双路至强金牌6148处理器、128GB内...
文章浏览阅读1.1k次,点赞27次,收藏10次。本文分享了在纯CPU服务器上优化Embedding模型部署的经验。原方案使用Hugging Face的trans...
文章浏览阅读811次,点赞29次,收藏8次。本文详细介绍了在配备4块NVIDIA 4090显卡的高性能服务器上部署Ollama环境的全过程。内容包括:硬件配置(...
文章浏览阅读5.9k次,点赞23次,收藏18次。昇腾推理服务器部署embedding和rerank相关的RAG模型_昇腾部署embedding