本論文では、事前学習されたグラフニューラルネットワークモデルを特定のタスクに適応させるための新しい手法として、グラフプロンプトチューニングを提案している。
まず、従来のファインチューニング手法の課題を指摘する。事前学習タスクと下流タスクの目的関数の不整合や、少量データでの過学習などの問題がある。
そこで、プロンプトチューニングに着目する。プロンプトチューニングは入力データを変換することで事前学習モデルを適応させる手法で、言語処理分野で大きな成果を上げている。しかし、グラフデータへの適用は容易ではない。事前学習タスクが多様であるため、適切なプロンプト関数を設計するのが難しい。
そこで本論文では、グラフの特徴空間に学習可能なパラメータを追加する「グラフプロンプトフィーチャー(GPF)」と、ノード毎に異なる学習パラメータを導入する「GPF-plus」を提案する。これらの手法は、事前学習タスクに依存せずに適用可能であり、理論的にも従来のファインチューニングと同等以上の性能が期待できることを示す。
実験では、様々な事前学習手法を用いた事前学習モデルに対して提案手法を適用し、ファインチューニングを上回る性能を示す。特に、既存の特化型プロンプトチューニング手法と比べても大幅な性能向上が確認された。
以上より、提案手法は事前学習モデルの下流タスク適応に有効な汎用的なプロンプトチューニング手法であると結論付けられる。
To Another Language
from source content
arxiv.org
Key Insights Distilled From
by Taoran Fang,... at arxiv.org 04-11-2024
https://arxiv.org/pdf/2209.15240.pdfDeeper Inquiries