云计算百科
云计算领域专业知识百科平台

FedSRD Sparsify-Reconstruct-Decompose for北大提出FedSRD:高效联邦大模型微调

第一部分:基本信息

https://arxiv.org/pdf/2510.04601v2

  • 论文标题:FedSRD: Sparsify-Reconstruct-Decompose for Communication-Efficient Federated Large Language Models Fine-Tuning

  • 作者/单位:Guochen Yan、Luyuan Xie、Qingni Shen、Yuejian Fang、Zhonghai Wu(Peking University)

  • 年份/来源:2025;arXiv:2510.04601v2(2025-10-08)

  • 关键词:Federated Learning、Large Language Models、Communication、LoRA、Fine-tuning

  • 研究对象/背景:在联邦学习(FL)里做 LLM 的 LoRA 微调,但 LoRA 参数在每轮通信仍可能达到“每客户端每轮数百 MB”,成为互联网异构网络下的瓶颈(图1)

第二部分:问题描述

论文

赞(0)
未经允许不得转载:网硕互联帮助中心 » FedSRD Sparsify-Reconstruct-Decompose for北大提出FedSRD:高效联邦大模型微调
分享到: 更多 (0)

评论 抢沙发

评论前必须登录!