联邦学习(federated learning),理学-统计学-大数据统计分析-联邦学习,基于多中心数据结构,不依赖于数据本身的传输来融合各节点信息的机器学习方法。联邦学习旨在建立基于多中心数据结构的全局模型。在构建全局模型的过程中,其不依赖于各节点之间原始数据样本传输,而是通过对各个数据节点的局部模型参数的融合来进行全局模型参数的优化。联邦学习允许各节点数据的异质性,例如,不要求节点与节点之间数据同分布,也不需要各节点数据样本量大体一致。同时,考虑到各节点计算资源的不平衡,也允许各个节点的局部模型存在模型可靠性方面的差异。联邦学习在2015年和2016年开始成为重要的研究课题,主要研究电信通信框架下的中联邦平均方法。在2017年和2018年,相关研究开始集中在减少联邦学习过程中的通信负担方面。例如,通过反熵(Gossip算法)来减少节点之间的通信要求,对通信的差分隐私攻击的鲁棒性研究,以及通过稀疏化和压缩的方法来减少通信带宽。自2019年,相关研究开始考虑在无线通信下的联邦学习效率,以及对具有不同计算复杂度的异质性局部模型进行研究,构建全局模型。