云计算百科
云计算领域专业知识百科平台

1 + 1 < 1? BREAKING THE STANDALONE BARRIER INFEDERATED FINE-TUNING OF MULTIMODAL LARGELANGUAGE MOD

第一部分:基本信息

投稿至 ICLR 2026 的论文,核心聚焦非独立同分布(non-IID)数据下多模态大语言模型(MLLMs)联邦微调的关键问题与解决方案。

论文研究对象 ✅ 多模态(MLLM)
Algorithm 1 本身 ❌ 模态无关
routed/shared/Router 机制 ❌ 模态无关
输入 xix_ixi​ 的形式 抽象变量,可是文本/图像/音频

第二部分:解决的问题

现有联邦微调(结合LoRA降低通信成本)在非IID数据下,多个客户端联手训练(联邦微调),结果反而不如每个客户端各自单独训练的效果好。

比如A单独训练能得70分,B单独训练能得68分,原本指望联手能到75分,结果因为共用“技能包”,联手后A只得了65分

赞(0)
未经允许不得转载:网硕互联帮助中心 » 1 + 1 < 1? BREAKING THE STANDALONE BARRIER INFEDERATED FINE-TUNING OF MULTIMODAL LARGELANGUAGE MOD
分享到: 更多 (0)

评论 抢沙发

评论前必须登录!