加速局部模型的拟合:根据网络状态的不同,提出一种基于模型分割的端边云协同训练算法,加速FL本地训练;设计一种多轮迭代再聚合的模型聚合算法,加速FL聚合
采用分支DNN对数据进行训练
DNN分割是指利用深度神经网络(Deep Neural Network,DNN)来进行图像分割的一项技术。DNN是一种人工智能算法,能够通过学习大量数据来识别图像中的对象和场景。在图像分割领域,DNN可以被训练来识别图像中的不同区域,并将它们分割开来。
DNN分割通常包含以下几个步骤:
- 数据准备:首先需要收集大量的图像数据,并对这些图像进行标注,以表示不同的区域。这些标注可以是像素级的标签,也可以是更高层次的区域标记。
- 模型训练:使用标注好的图像数据来训练DNN模型。在训练过程中,模型学习如何从原始图像中提取特征,并利用这些特征来进行分割。
- 模型评估:在训练完成后,需要对模型的性能进行评估。通常会使用一些未在训练过程中使用的测试图像来评估模型的分割效果。
- 模型应用:将训练好的模型应用于实际的图像分割任务中。在实际应用中,模型会接收未知的图像作为输入,并输出分割后的结果。
DNN分割的优势在于其高精度和灵活性。通过训练,DNN可以适应各种不同的图像分割任务,从而在计算机视觉领域中得到了广泛的应用。同时,随着深度学习技术的不断发展,DNN分割的方法也在不断改进和优化,提高了分割的效果和速度。
减少通信开销:梯度量化——>分层梯度量化
SL(切分学习)模型生成策略较慢,但是SL由于在客户端和服务器之间分割ML模型而提供了比FL更好的隐私,并且保证学习精度不损失
SL可以在资源受限的情况下进行ML训练,因为设备只训练分割后的ML网络模型的前几层,从而让IoT设备进行FL成为可能。
Split Learning的核心思想是将网络的结构进行拆分,每个设备只保留一部分网络结构,所有设备的子网络结构构成一个完整的网络模型。在训练过程中,不同的设备只对本地的网络结构进行前向或反向计算,并将计算结果传递给下一个设备。多个设备端通过联合网络层的中间结果完成模型的训练,直到模型收敛为止。
切分学习(Slicing Learning)是一种机器学习方法,它通过将数据集中的实例分割成更小的片段或“切片”来改善模型的泛化能力。这种方法的主要思想是,通过对数据进行细粒度的切分,可以捕捉到数据中更加局部的特征和模式,从而有助于模型学习。
在实际应用中,切分学习可以与其他机器学习算法结合使用,例如支持向量机(SVM)、决策树、神经网络等。通过将切分学习与这些算法结合,可以有效地提高模型的性能,特别是在处理高维数据和复杂问题时。
切分学习的主要优点是可以提高模型的泛化能力,减少过拟合的风险。此外,它还可以提高模型的解释性,使我们能够更好地理解数据的结构和特征。
然而,切分学习也存在一些挑战,如如何选择合适的切分策略、如何处理切分后的数据不平衡问题等。在实际应用中,我们需要根据具体问题和数据特点来设计合适的切分策略,并结合其他机器学习技术来提高模型的性能。
信任区(Trust Zone, TZ)的概念。信任区内部 包括资源受限的IoT设备以及相应的边缘服务器(TZ1与TZ2)
【1】En, ZHOU Zhi, and CHEN Xu. Edge intelligence: Ondemand deep learning model co-inference with device-edge synergy[C]. Proceedings of 2018 Workshop on Mobile Edge Communications, Budapest, Hungary, 2018: 31–36. doi: 10. 1145/3229556.3229562.
【2】KANG Yiping, HAUSWALD J, GAO Cao, et al. Neurosurgeon: Collaborative intelligence between the cloud and mobile edge[J]. ACM SIGARCH Computer Architecture News, 2017, 45(1): 615–629. doi: 10.1145/3093337.3037698.
【3】ESHRATIFAR A E, ABRISHAMI M S, and PEDRAM M. JointDNN: an efficient training and inference engine for intelligent mobile cloud computing services[J]. IEEE Transactions on Mobile Computing, 2021, 20(2): 565–576. doi: 10.1109/TMC.2019.2947893.
【4】THAPA C, CHAMIKARA M A P, CAMTEPE S, et al. Splitfed: When federated learning meets split learning[J]. arXiv: 2004.12088, 2020. doi: 10.48550/arXiv.2004.12088.