대규모 언어 모델(LLM) 시스템은 뛰어난 추론 및 질문 답변 능력을 보여주지만, 종종 거짓 출력과 근거 없는 답변을 생성하는 '환각'을 보여준다. 이는 법적 선례 조작, 뉴스 기사의 거짓 사실 생성, 의료 분야에서의 인명 위험 등의 문제를 야기한다. 감독 또는 강화를 통한 진실성 향상은 부분적으로만 성공적이었다. 연구자들은 사람들이 답변을 모르는 새로운 질문에 대해서도 작동하는 LLM의 환각을 탐지할 수 있는 일반적인 방법이 필요하다.
이 연구에서는 통계 기반의 새로운 방법을 개발했다. 의미 수준의 불확실성을 측정하는 엔트로피 기반 추정기를 사용하여 임의적이고 잘못된 생성물인 '환각'을 탐지한다. 이 방법은 특정 단어 순서가 아닌 의미 수준에서 불확실성을 계산하여, 사전 지식 없이도 새로운 데이터셋과 과제에 적용할 수 있다. 프롬프트가 환각을 생성할 가능성을 탐지함으로써, 사용자가 LLM을 신중하게 다뤄야 할 때를 이해할 수 있게 하고 LLM의 신뢰성 문제를 해결할 수 있는 새로운 가능성을 열어준다.
他の言語に翻訳
原文コンテンツから
www.nature.com
抽出されたキーインサイト
by Sebastian Fa... 場所 www.nature.com 06-19-2024
https://www.nature.com/articles/s41586-024-07421-0深掘り質問