Die Studie untersucht das Phänomen des katastrophalen Vergessens (Catastrophic Forgetting, CF) in großen Sprachmodellen (Large Language Models, LLMs) während des kontinuierlichen Feinabstimmens auf Instruktionsaufgaben. Die Autoren evaluieren die Beibehaltung von Allgemeinwissen in LLMs aus drei Perspektiven: Domänenwissen, Reasoning und Leseverständnis. Zusätzlich wird die Entwicklung von Vorurteilen in den Modellen untersucht.
Die Ergebnisse zeigen, dass das CF-Problem generell in LLMs auftritt. Mit zunehmender Modellgröße von 1 Milliarde bis 7 Milliarden Parametern verstärkt sich die Schwere des Vergessens. Der dekodierspezifische Modelltyp BLOOMZ zeigt dabei weniger Vergessen als der Encoder-Decoder-Modelltyp mT0. Interessanterweise können LLMs auch Sprachvorurteile wie Geschlechtsvorurteile während des kontinuierlichen Feinabstimmens abmildern.
Darüber hinaus deuten die Ergebnisse darauf hin, dass die allgemeine Instruktionsabstimmung, wie sie bei ALPACA im Vergleich zu LLAMA durchgeführt wurde, das Vergessen in nachfolgenden Feinabstimmungsprozessen abmildern kann.
إلى لغة أخرى
من محتوى المصدر
arxiv.org
الرؤى الأساسية المستخلصة من
by Yun Luo,Zhen... في arxiv.org 04-03-2024
https://arxiv.org/pdf/2308.08747.pdfاستفسارات أعمق