本論文は、拡散モデルのサンプリングプロセスを高速化する新しい手法「Distilled-ODE solvers (D-ODE solvers)」を提案している。
拡散モデルは高品質な生成サンプルを生成できるが、サンプリングプロセスが非常に遅いという課題がある。これまで、学習なしのサンプリング手法(ODE solvers)と学習ありのサンプリング手法(知識蒸留)が提案されてきた。
ODE solversは事前学習済みのモデルに適用できるが、少ステップでは真のサンプリングトラジェクトリを正確に追跡できない。一方、知識蒸留は多くの追加学習を必要とし、実用性が限られていた。
本手法のD-ODE solversは、ODE solversの長所と知識蒸留の長所を融合した手法である。D-ODE solversは既存のODE solverに単一のパラメータを追加することで構築され、大ステップのODE solverから小ステップのD-ODE solverへの知識蒸留を行う。
実験の結果、D-ODE solversは既存のODE solversよりも優れたFID scoreを達成し、特に少ステップの場合に顕著な改善が見られた。また、D-ODE solversは追加学習の必要がなく、わずかなCPU時間で蒸留が可能であるため、実用的な手法といえる。
翻译成其他语言
从原文生成
arxiv.org
更深入的查询