이 논문은 대규모 언어 모델(LLM)의 사실성 향상을 위한 새로운 디코딩 기법인 통합 디코딩(Integrative Decoding, ID)을 소개한다.
ID는 다음과 같은 과정을 통해 작동한다:
이를 통해 ID는 출력의 전반적인 일관성을 암묵적으로 디코딩 목적에 반영할 수 있다.
실험 결과, ID는 다양한 규모의 LLM에서 일관되게 사실성을 크게 향상시켰다. TruthfulQA에서 최대 11.2%, Biographies에서 최대 15.4%, LongFact에서 최대 8.5%의 성능 향상을 보였다. 또한 샘플링된 출력의 수가 늘어날수록 성능 향상 효과가 점진적으로 증폭되는 것으로 나타났다.
In un'altra lingua
dal contenuto originale
arxiv.org
Approfondimenti chiave tratti da
by Yi Cheng, Xi... alle arxiv.org 10-03-2024
https://arxiv.org/pdf/2410.01556.pdfDomande più approfondite