核心概念
大規模言語モデルの内在する知識とインストラクション理解能力を活用し、自己プロンプティングによって擬似的なQAデータセットを生成し、それを用いたインコンテキスト学習により、ゼロショット型オープンドメインQAの性能を大幅に向上させる。
摘要
本論文は、大規模言語モデル(LLM)を用いたゼロショット型オープンドメインQA(ODQA)に関する研究である。
まず、LLMに対してステップバイステップのプロンプティングを行い、背景情報付きの擬似的なQAペアとその説明文を自動生成させる。この生成されたデータを利用して、クラスタリングに基づく動的な例示選択手法を提案し、インコンテキスト学習を行う。
実験の結果、提案手法は、直接プロンプティングや先行研究の手法を大幅に上回る性能を示し、一部の教師あり学習モデルと同等の性能を達成した。さらに分析を通して、生成されたデータの品質や、インコンテキスト学習における例示の選択方法、入力フォーマットの影響などを明らかにした。
本手法は、LLMの内在する知識とインストラクション理解能力を効果的に引き出し、ゼロショット型ODQAの性能を大幅に向上させることができる。
統計資料
大規模言語モデルは、膨大なパラメータ数(175B)を持つ。
提案手法は、外部知識コーパスを一切使用せずに、ゼロショット学習を行う。
引述
"Self-Prompting LLMs for Zero-Shot Open-Domain Question Answering"
"We propose Self-Prompting to leverage multiple capabilities of LLMs for zero-shot ODQA."
"Experimental results show that our method significantly surpasses previous state-of-the-art zero-shot methods on three widely-used ODQA datasets and even achieves comparable performance with various customized fine-tuned models on full training data."