Khái niệm cốt lõi
GNNトレーニングにおいて、半精度浮動小数点数を効果的に活用することで、従来の単精度浮動小数点数と同等の精度を維持しながら、大幅な高速化と省メモリ化を実現できる。
Tóm tắt
HalfGNN: GNNトレーニングにおける半精度浮動小数点数の活用
本論文は、グラフニューラルネットワーク(GNN)のトレーニングにおいて、半精度浮動小数点数を利用したシステム設計「HalfGNN」を提案しています。従来のGNNシステムでは、半精度浮動小数点数を利用すると精度が大幅に低下するという問題がありましたが、HalfGNNは、精度を維持しながら高速化と省メモリ化を実現しています。
GNNは、グラフ構造を持つデータの分析に有効な深層学習モデルとして注目されています。しかし、大規模なグラフデータを扱う場合、計算量とメモリ使用量が膨大になるという課題があります。そこで、近年注目されているのが、半精度浮動小数点数を利用したトレーニングです。半精度浮動小数点数は、従来の単精度浮動小数点数に比べてメモリ使用量が半分で済むため、大規模なモデルのトレーニングに適しています。
従来のGNNシステムでは、半精度浮動小数点数を利用すると、以下の問題が発生していました。
値のオーバーフロー: 半精度浮動小数点数は、表現できる数値の範囲が狭いため、計算過程で値がオーバーフローしやすくなります。
オーバーフローへの懸念: 深層学習フレームワークは、オーバーフローを避けるために、半精度浮動小数点数を入力とする演算を単精度浮動小数点数にアップグレードすることがあります。
半精度演算の速度: 従来の半精度演算は、単精度演算に比べて速度が遅いという問題がありました。