이 연구에서는 사전 훈련된 언어 모델이 불충실하게 생성된 텍스트와 충실한 텍스트에 대해 구별 가능한 생성 확률 및 불확실성 분포를 반환한다는 것을 보여준다. 24개의 모델과 6개의 데이터 세트를 분석한 결과, 88-98%의 경우에서 통계적으로 유의미한 차이를 보였다. 이러한 일반적인 현상을 활용하여, 저자들은 불충실한 텍스트 생성을 줄이는 훈련 알고리즘을 제안한다. 이 알고리즘은 다른 기준선 모델들보다 충실도 지표가 높으면서도 일반적인 텍스트 품질 지표를 유지하는 성능을 보였다.
In un'altra lingua
dal contenuto originale
arxiv.org
Approfondimenti chiave tratti da
by Taehun Cha, ... alle arxiv.org 09-26-2024
https://arxiv.org/pdf/2409.16658.pdfDomande più approfondite