Core Concepts
대규모 언어 모델은 불확실하거나 확실한 답변이 없을 때 응답을 보류할 수 있는 능력인 회피 능력이 중요하다. 이 연구는 다양한 질문 유형, 도메인, 작업 유형에 걸쳐 회피 능력을 평가하는 새로운 접근법을 제안하고, 전략적 프롬프팅 기법이 이 능력을 향상시킬 수 있음을 보여준다.
Abstract
이 연구는 대규모 언어 모델(LLM)의 회피 능력(AA)을 평가하기 위한 새로운 방법론을 제안합니다.
- 회피 능력은 LLM의 신뢰성에 중요한 측면으로, 불확실하거나 확실한 답변이 없을 때 응답을 보류할 수 있는 능력을 의미합니다.
- 기존 연구는 표준화된 평가 방법이 부족하고 블랙박스 모델에 적합하지 않아 비교 분석이 어려웠습니다.
- 이 연구는 블랙박스 평가 접근법과 새로운 데이터셋 'Abstain-QA'를 소개합니다. Abstain-QA는 다양한 질문 유형, 도메인, 작업 유형을 포함하여 AA를 엄격하게 평가합니다.
- 또한 'Answerable-Unanswerable Confusion Matrix(AUCM)'이라는 새로운 혼동 행렬을 제안하여 AA 평가의 구조화된 접근법을 제공합니다.
- 세 가지 프롬프팅 전략(Strict Prompting, Verbal Confidence Thresholding, Chain-of-Thought)이 AA를 향상시킬 수 있음을 보여줍니다.
- 실험 결과, 강력한 모델인 GPT-4와 Mixtral 8x22b도 회피에 어려움을 겪지만, 전략적 접근법을 통해 이 능력을 향상시킬 수 있습니다.
Stats
이 연구에서 사용된 데이터셋 Abstain-QA는 2900개의 다중 선택형 질문 답변 쌍으로 구성되어 있습니다.
Abstain-QA에는 답변 가능한 질문과 답변 불가능한 질문이 균등하게 포함되어 있으며, 각 질문에는 "모르겠음/해당 없음" 옵션이 포함되어 있습니다.
이 데이터셋에는 잘 알려진 도메인(MMLU, Pop-QA)과 잘 알려지지 않은 도메인(Carnatic-QA)의 질문이 포함되어 있습니다.
Quotes
"대규모 언어 모델(LLM)은 신뢰성이 중요하며, 특히 법, 의료, 보안 등의 민감한 분야에 적용될 때 오류가 심각한 결과를 초래할 수 있습니다."
"회피 능력은 LLM의 신뢰성을 위해 필수적이며, 불확실하거나 확실한 답변이 없을 때 응답을 보류하는 능력을 의미합니다."
"이 연구는 블랙박스 평가 접근법과 새로운 데이터셋 'Abstain-QA'를 소개하여 다양한 질문 유형, 도메인, 작업 유형에 걸쳐 AA를 엄격하게 평가합니다."