GASSIP是一种结合课程图稀疏化与网络剪枝的轻量级GNN搜索方法,优化性能并降低模型复杂度。
原文标题:【KDD2024】面向课程图稀疏化的轻量级图神经网络搜索
原文作者:数据派THU
冷月清谈:
本文介绍了一种新颖的轻量级图神经网络架构搜索方法,名为GASSIP。该方法结合了课程图稀疏化与网络剪枝,旨在优化图神经网络在资源受限条件下的表现。GASSIP通过有价值的图数据识别出重要的网络子架构,并采用操作剪枝架构搜索模块,实现轻量级GNN的高效搜索。同时,设计了课程图数据稀疏化模块,通过架构感知的边删除难度测量来优化子架构选择。实验结果表明,GASSIP在节点分类性能上表现优异,所搜索的GNN模型参数减半或更多,并且图的稀疏性显著提高,充分验证了该方法的有效性。
怜星夜思:
1、为什么资源受限情况下图神经网络的性能优化如此重要?
2、你认为课程图稀疏化在未来的研究中会有什么样的发展趋势?
3、GASSIP在资源受限环境中的应用前景如何?
2、你认为课程图稀疏化在未来的研究中会有什么样的发展趋势?
3、GASSIP在资源受限环境中的应用前景如何?
原文内容

来源:专知本文为论文介绍,建议阅读5分钟
我们提出了一种结合课程图稀疏化和网络剪枝的轻量级图神经网络架构搜索(GASSIP)方法。
图神经网络架构搜索(Graph Neural Architecture Search, GNAS)在各种图结构任务中取得了优异的性能。然而,现有的GNAS研究忽略了GNAS在资源受限场景中的应用。本文提出设计一种联合图数据和架构机制,通过有价值的图数据识别重要的子架构。为了搜索最优的轻量级图神经网络(Graph Neural Networks, GNNs),我们提出了一种结合课程图稀疏化和网络剪枝的轻量级图神经网络架构搜索(GASSIP)方法。具体来说,GASSIP包括一个操作剪枝的架构搜索模块,以实现高效的轻量级GNN搜索。同时,我们设计了一个新颖的课程图数据稀疏化模块,并结合架构感知的边删除难度测量来帮助选择最优的子架构。在两个可微掩码的帮助下,我们迭代优化这两个模块,以高效地搜索最优的轻量级架构。在五个基准上的广泛实验表明,GASSIP的有效性。特别是,我们的方法在节点分类性能方面达到相当甚至更高的水平,同时所搜索的GNN模型参数减半或更少,且图更加稀疏。
https://arxiv.org/abs/2406.16357