大規模言語モデル(LLM)の登場により、グラフ機械学習の一般化、転移学習能力、少量学習能力が大幅に向上している。一方で、LLMにも限界があり、グラフ構造を活用することでLLMの推論能力や説明性を高められる可能性がある。
グラフデータの構造的バイアスを軽減し、公平性と性能のバランスを取るための新しいフレームワークを提案する。教師付きコントラスト損失と環境損失を導入し、コンテンツ情報と環境情報の分離を促進する。
グラフニューラルネットワークでは、トポロジカルなボトルネックによる過剰な圧縮と、繰り返しの情報集約による過剰な平滑化という二つの問題が存在する。本研究では、エッジの削除によってこれらの問題を同時に解決できることを示す。スペクトルギャップの最大化を目的とした効率的なグラフ修正アルゴリズムを提案し、大規模な異質性の高いデータセットでの有効性を実証する。
メッセージ伝播型GNNがグラフを計算ツリーの集合に分解することに着目し、頻出する計算ツリーのみを保持することで、GNN架構や超パラメータに依存せずにグラフデータを効率的に圧縮できる。
グラフニューラルネットワークの表現力を評価する際、k-WLテストを用いることには問題がある。k-WLテストは表現力の一部しか捉えておらず、実世界のグラフタスクとも必ずしも一致しない。表現力の評価には、より適切な指標と評価方法が必要である。