本論文では、生成モデルの学習において合成データを使用する際の課題に取り組む。合成データを使用した生成モデルの学習では、自己消費型のループが生じ、学習の不安定性や崩壊につながる可能性がある。
本論文では、理想化された修正関数を導入することで、自己消費型ループをより安定化できることを示す。修正関数は、合成データを生成元の分布により近いデータに変換する。
理論的な分析では、修正関数を導入した自己消費型ループが、修正なしの自己消費型ループに比べて指数関数的に安定性が高く、分散も小さいことを示す。
実験では、人間の動作合成タスクにおいて、物理シミュレータを修正関数として使用することで、高い合成データ比率でも崩壊を回避し、高品質な動作を生成できることを示す。
Til et annet språk
fra kildeinnhold
arxiv.org
Viktige innsikter hentet fra
by Nate Gillman... klokken arxiv.org 04-08-2024
https://arxiv.org/pdf/2402.07087.pdfDypere Spørsmål