Khái niệm cốt lõi
Große Sprachmodelle können die RST-Diskursanalyse erfolgreich unterstützen.
Tóm tắt
Die Forschung untersucht die Verwendung von Large Language Models (LLMs) für die RST-Diskursanalyse. Es wird gezeigt, dass LLMs wie Llama 2 mit 70 Milliarden Parametern in der Bottom-up-Strategie signifikante Ergebnisse erzielen. Die Generalisierbarkeit der Parser wird anhand von Benchmark-Datensätzen demonstriert. Die Studie bietet wertvolle Einblicke in die Zukunft der RST-Diskursanalyse.
Abstract
- LLMs haben großen Einfluss auf NLP-Aufgaben
- Llama 2 mit 70 Mrd. Parametern erzielt SOTA-Ergebnisse
- Generalisierbarkeit der Parser wird gezeigt
Einleitung
- RST-Theorie erklärt Textkohärenz
- Wichtige Rolle in NLP-Aufgaben
- Text als binarisierte Konstituentenbaum dargestellt
Verwandte Arbeit
- Unterschiedliche Ansätze zur RST-Diskursanalyse
- Erfolge von Encoder-only PLMs
Vorgeschlagener Ansatz
- Verwendung von LLMs für RST-Diskursanalyse
- Übersetzung von Parsing-Schritten in Prompts für LLMs
Thống kê
Llama 2 mit 70 Milliarden Parametern
Verbesserung der SOTA-Ergebnisse um 2-3 Punkte
Trích dẫn
"LLMs haben bemerkenswerten Erfolg in verschiedenen NLP-Aufgaben gezeigt."
"Die Generalisierbarkeit der Parser wurde anhand von Benchmark-Datensätzen demonstriert."