이 연구에서는 사전 훈련된 언어 모델이 불충실하게 생성된 텍스트와 충실한 텍스트에 대해 구별 가능한 생성 확률 및 불확실성 분포를 반환한다는 것을 보여준다. 24개의 모델과 6개의 데이터 세트를 분석한 결과, 88-98%의 경우에서 통계적으로 유의미한 차이를 보였다. 이러한 일반적인 현상을 활용하여, 저자들은 불충실한 텍스트 생성을 줄이는 훈련 알고리즘을 제안한다. 이 알고리즘은 다른 기준선 모델들보다 충실도 지표가 높으면서도 일반적인 텍스트 품질 지표를 유지하는 성능을 보였다.
toiselle kielelle
lähdeaineistosta
arxiv.org
Tärkeimmät oivallukset
by Taehun Cha, ... klo arxiv.org 09-26-2024
https://arxiv.org/pdf/2409.16658.pdfSyvällisempiä Kysymyksiä