Conceitos essenciais
대규모 언어 모델(LLM)의 출력이 원하는 형식을 따르도록 하는 제약 생성 기법은 성능 저하와 정확도 감소 문제가 있다. 이를 해결하기 위해 DOMINO라는 새로운 제약 생성 알고리즘을 제안하여 최소한의 개입으로 효율적인 제약 생성을 달성한다.
Resumo
이 논문은 대규모 언어 모델(LLM)의 출력을 원하는 형식으로 제한하는 제약 생성 기법에 대해 다룬다.
- 제약 생성 기법의 문제점 분석:
- 기존 방법들은 성능 저하와 정확도 감소 문제가 있음
- 이는 LLM의 서브워드 토큰과 외부 제약 사이의 불일치 때문
- DOMINO 알고리즘 제안:
- 서브워드 토큰과 제약을 효과적으로 정렬하여 최소한의 개입으로 제약 생성 달성
- 사전 계산과 추측 생성을 활용하여 거의 오버헤드 없이 빠른 생성 가능
- 실험 결과:
- DOMINO는 기존 방법들보다 정확도를 유지하거나 향상시키면서 처리량을 크게 개선
- 특히 스키마 기반 JSON 생성에서 최대 77% 처리량 향상
전반적으로 DOMINO는 LLM 출력에 대한 제약을 효과적이고 효율적으로 적용할 수 있는 새로운 접근법을 제시한다.
Estatísticas
제약 없는 생성 대비 DOMINO의 JSON 생성 처리량이 최대 77% 향상되었다.
DOMINO의 JSON 생성 정확도는 기존 방법들과 동등하거나 향상되었다.
Citações
"To ensure that text generated by large language models (LLMs) is in an expected format, constrained decoding proposes to enforce strict formal language constraints during generation."
"However, as we show in this work, not only do such methods incur performance overhead during generation, but many of them also significantly impair task accuracy, if they do not correctly align the underlying LLM sub-word vocabularies with external constraints."