# 分割联邦学习架构:实现高精度和低延迟的模型训练 ## 摘要 联邦学习使多。.

我们能否找到一种网络架构用于机器学习模型训练,以优化分割联邦学习(SFL)中的训练损失(进而提高准确度)?这种架构能否同时降低训练延迟和通信开销?虽然在普通的、最先进的SFL中准确度不受模型分割方式的影响,但在这项工作中我们对上述问题给出了肯定的回答。最近的分层SFL(HSFL)架构采用由客户端、(本地)聚合器和中央服务器组成的三层训练结构。在这种架构中,模型在两个分割层被分割成三个子模型,这些子模型在三层中执行。尽管HSFL架构具有优点,但它们忽视了分割层和客户端到聚合器分配对准确度、延迟和开销的影响。这项工作通过制定联合优化问题,明确捕捉分割层和客户端到聚合器分配对准确度、延迟和开销的影响。我们证明了该问题是NP-困难的,并提出了第一个准确度感知启发式算法,该算法明确考虑模型准确度,同时保持延迟效率。在公开数据集上的仿真结果表明,与最先进的SFL和HSFL方案相比,我们的方法可以将准确度提高3%,同时将延迟降低20%,开销降低50%。
评论
    公告

    AI千集是一个专注于科研服务的智能平台
    在这里您可以获得本平台自训练的
    科研智能体
    和小伙伴一起玩转AI,做自己的AI机器人
    来AI千集,赋能智慧快人一步
    扫一扫,快速获取解决方案与报价
    立即咨询

    积分排行