本論文は、自己回帰型の大規模言語モデル(LLM)に存在する一般化の失敗について明らかにしている。LLMが「A is B」という文を学習した場合、「B is A」という逆の関係を自動的に学習することはできない。例えば、LLMが「ワレンチナ・テレシコワは宇宙に行った最初の女性だった」を学習しても、「宇宙に行った最初の女性はワレンチナ・テレシコワだった」という質問に正しく答えることはできない。さらに、正解の名前に対するモデルの尤度は、ランダムな名前に対する尤度と変わらない。
実験1では、架空の有名人の名前と説明を使ってGPT-3やLlama-1を微調整し、この逆転の呪いを確認した。モデルは、名前が先行する文を学習した場合は良好に一般化できるが、説明が先行する場合は全く一般化できない。この傾向は、モデルサイズや手法を変えても変わらない。
実験2では、実在の有名人とその両親に関する質問でGPT-4を評価した。GTP-4は「トム・クルーズの母親は誰か」という質問には79%正解するが、「メアリー・リー・パファーの子供は誰か」という逆の質問には33%しか正解できない。
これらの結果は、LLMが「A is B」という知識を学習しても、「B is A」という論理的に等価な知識を自動的に学習できないことを示している。この逆転の呪いは、LLMの基本的な論理推論能力の欠如を示唆している。
In eine andere Sprache
aus dem Quellinhalt
arxiv.org
Wichtige Erkenntnisse aus
by Lukas Berglu... um arxiv.org 04-08-2024
https://arxiv.org/pdf/2309.12288.pdfTiefere Fragen