이 논문은 소량의 레이블된 데이터로 BERT 모델을 효과적으로 사전 학습하는 방법을 제안한다. 기존 연구들은 대규모 대화 데이터로 BERT 모델을 추가 학습하는 방식을 사용했지만, 이 논문에서는 공개된 의도 분류 데이터셋의 약 1,000개 샘플로 BERT 모델을 사전 학습하여 IntentBERT라는 모델을 만들었다.
IntentBERT는 기존 모델들에 비해 매우 다른 도메인의 데이터에서도 뛰어난 성능을 보였다. 이는 대부분의 의도 분류 과제가 유사한 기저 구조를 공유하고 있으며, 이를 소량의 데이터로 효과적으로 학습할 수 있음을 보여준다.
또한 논문에서는 소량의 레이블된 데이터와 대량의 무레이블 데이터를 함께 사용하는 joint 사전 학습 방식을 제안했다. 이 방식은 기존의 2단계 사전 학습 방식보다 성능이 크게 향상되었다.
翻译成其他语言
从原文生成
arxiv.org
更深入的查询