This work proposes a self-tuning method for the decay rate of the prescribed performance function (PF) to achieve faster steady-state convergence while avoiding the risk of error violation beyond the PF's envelopes, which may arise from input saturation and improper decay rate selection in traditional prescribed performance control (PPC) methods.
オンラインクローズドループデータを用いて、LQR の最適ゲインを直接的かつ適応的に学習する。提案手法は、サンプル共分散に基づく新しいポリシーパラメータ化を用いることで、効率的にデータを活用し、収束保証付きの再帰的な更新が可能となる。