首页> 外文会议>統計関連学会連合大会 >勾配ブースティング法を用いたマルチスケールグラフニューラルネットワークの学習とその最適化及び汎化性能解析
【24h】

勾配ブースティング法を用いたマルチスケールグラフニューラルネットワークの学習とその最適化及び汎化性能解析

机译:使用梯度升压方法学习多尺度图神经网络及其优化与泛化性能分析

获取原文

摘要

グラフニューラルネットワーク(Graph Neural Network; GNN)はグラフ構造を持つデータに利用される深層学習モデルの総称である.現在利用されているGNNの多くは,過平滑(over-smoothing) と呼ばれる問題により精度劣化することが知られており,それを緩和するモデルが様々提案されている.特に,中間出力達を集約して最終出力を構成することで,入力グラフ中の様々なスケールの部分グラフ構造を捉えるように設計されたモデル(本講演ではマルチスケールGNNと呼ぶ)は,過平滑問題の解決に有望視されている.しかし,これらがなぜ経験的に高精度を達成できるかについて,統計的学習理論の観点からの説明は少ない.本研究では,ブースティングの理論を用いてマルチスケールGNNを含むトランスダクティブ学習モデルについて最適化性能と汎化性能を解析した.ブースティング理論で一般的な仮定(弱学習条件)の下で,ある種のマルチスケールGNNの推定誤差の上限が層数に対して単調減少する事を示した.さらに,実データでの節点予測問題におけるマルチスケールGNNの挙動が理論と整合性を持つことを確認した.
机译:图神经网络(GNN)是用于与图形结构数据深度学习模型的总称,许多目前使用的GNNS是准确的,由于所谓的过平滑的问题,这是众所周知的恶化和缓解机型它已经提出了一个模型,旨在捕获(在此讲学,多尺度GNN)也很有希望解决俯瞰的问题。但是,他们为什么能达到高精度经验经验,统计学习有一个从理论的角度来看一点解释。在这研究中,我们在推进理论根据(弱学习条件)分析式学习模式,包括使用提高理论多尺度GNN优化性能和推广能力。一般假设,它表明,某些多尺度的估计误差的上限GNNS单调相对于层的数量减少了。此外,多尺度GNN在节点预测问题的行为与真实数据可以确认,它具有理论和一致性。

著录项

相似文献

  • 外文文献
  • 中文文献
  • 专利
获取原文

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号