Effektive und effiziente Anpassung von vortrainierten Sprachmodellen für textzentriertes Verständnis.
Transformer-based CLMs encode task-specific information through clustering in their hidden space, aiding in instruction-following capabilities.