本研究では、法的分野の大規模な教示データセット「LawInstruct」を作成し、これを用いてFlan-T5言語モデルの性能向上を実証的に検討した。
LawInstructは、17の法域、24言語にわたる12Mの教示例を含む大規模なデータセットである。LawInstructを用いてFlan-T5モデルをファインチューニングした結果、LegalBenchマークで8ポイント(16%)の性能向上が確認された。特に小規模モデルでは大きな効果が見られた。
一方で、この効果は全てのタスク、トレーニング手法、モデルサイズで一般化されるわけではない。法的分野における情報処理と意思決定能力の向上には、ドメイン固有のプリトレーニングと教示チューニングが重要であることが示された。
A otro idioma
del contenido fuente
arxiv.org
Ideas clave extraídas de
by Joel Niklaus... a las arxiv.org 04-03-2024
https://arxiv.org/pdf/2404.02127.pdfConsultas más profundas