継続学習では、新しいタスクの学習が既存のタスクの性能に干渉することを防ぐ必要がある。本手法InfLoRAは、事前学習モデルのパラメータを低ランク空間に射影することで、新旧タスクの干渉を排除し、安定性と可塑性のバランスを取る。