第一部分:基本信息
https://arxiv.org/pdf/2510.04601v2
-
论文标题:FedSRD: Sparsify-Reconstruct-Decompose for Communication-Efficient Federated Large Language Models Fine-Tuning
-
作者/单位:Guochen Yan、Luyuan Xie、Qingni Shen、Yuejian Fang、Zhonghai Wu(Peking University)
-
年份/来源:2025;arXiv:2510.04601v2(2025-10-08)
-
关键词:Federated Learning、Large Language Models、Communication、LoRA、Fine-tuning
-
研究对象/背景:在联邦学习(FL)里做 LLM 的 LoRA 微调,但 LoRA 参数在每轮通信仍可能达到“每客户端每轮数百 MB”,成为互联网异构网络下的瓶颈(图1)
第二部分:问题描述
论文
网硕互联帮助中心



评论前必须登录!
注册