核心概念
RLSynCは、強化学習を用いて合成中間体(synthon)を完成させる新しい手法である。オフラインデータと
オンラインの相互作用を組み合わせることで、既知の反応パターンを学習するだけでなく、新しい反応パ
ターンも発見することができる。
摘要
本論文では、合成経路の予測に関する新しい手法RLSynCを提案している。RLSynCは、強化学習を用いて
合成中間体(synthon)を完成させる手法である。
RLSynCの特徴は以下の通りである:
- 各合成中間体に1つのエージェントを割り当て、エージェントが協調的に行動して中間体を完成させる。
- オフラインデータと、オンラインの相互作用から得られる新しいデータを組み合わせて学習する。これ
により、既知の反応パターンを学習するだけでなく、新しい反応パターンも発見することができる。
- 合成可能性を評価する別のモデルを用いて報酬関数を定義し、エージェントの行動を適切に誘導する。
実験の結果、RLSynCは既存の手法と比べて、正解率(MAP@N, NDCG@N)と多様性(Diversity@N)の両面で
優れた性能を示すことが分かった。特に、上位N個の予測の正解率と多様性が高いことから、RLSynCは
合成計画の際に有用な選択肢を提示できると考えられる。
統計資料
合成中間体を3ステップ以内で完成できる反応は全体の89.10%を占める。
合成中間体を完成させるために必要な原子の追加パターンは98.42%をカバーできる。