本研究では、ロボット操作タスクにおける強化学習の課題に取り組むため、ベイズ型ニューラルネットワークモデルを用いたモデルベースの強化学習アプローチを提案している。
まず、ロボットの動的モデルをベイズ型ニューラルネットワークで表現し、その不確実性を活用することで、効率的な探索を行う。具体的には、遷移の情報量を最大化するような探索戦略を採用する。
次に、探索フェーズで収集したデータを用いて、様々なタスクに対するポリシーを学習する。ベイズ型モデルの不確実性情報を活用することで、少ない実行ステップで高い性能を発揮することができる。
実験では、OpenAI GymのHalfCheetah環境やRLBenchのCoppelia環境を用いて評価を行った。提案手法は、既存手法と比較して高い性能と効率性を示した。特に、Laplace近似に基づくモデルが優れた校正性能と計算効率を示した。
以上より、ベイズ型モデルベースの強化学習アプローチは、ロボット操作タスクにおいて有効であることが示された。モデルの不確実性を活用した探索と、効率的なタスク解決の両立が可能となった。
A otro idioma
del contenido fuente
arxiv.org
Ideas clave extraídas de
by Carlos Plou,... a las arxiv.org 04-03-2024
https://arxiv.org/pdf/2404.01867.pdfConsultas más profundas