통합 디코딩은 반복적인 샘플링을 통해 생성된 출력들의 전반적인 일관성을 향상시킴으로써 대규모 언어 모델의 사실성을 크게 개선할 수 있다.
소셜 미디어 게시물에서 우울증 징후를 정확하게 식별하기 위해 트랜스포머 기반 모델과 메타데이터 및 언어적 표지를 활용한 새로운 신경망 아키텍처를 제안합니다.
사전 훈련된 언어 모델은 크기와 구조와 관계없이 불충실하게 생성된 텍스트에 대해 구별 가능한 생성 확률 및 불확실성 분포를 반환한다.
LLM은 이전 문서의 관련성 수준에 따라 후속 문서의 관련성 점수를 체계적으로 편향되게 평가한다.
대규모 언어 모델은 수십 년에 걸친 연구 끝에 발전해왔으며, 인간 수준의 텍스트 처리, 이해 및 생성 능력을 갖추게 되었다.
대규모 언어 모델의 도메인 특화 능력 향상을 위해 대화 구조와 도메인 지식을 통합하는 계획 엔진을 제안한다.
대화 데이터에서 핵심 정보를 추출하고 분석하여 비즈니스 통찰력과 의사결정을 지원하는 것이 대화 분석의 목표이다.
음성 기반 개방형 질의 응답 시스템에서 자동 음성 인식 모델의 오류를 극복하고 효과적인 문서 검색을 위해 다중 모달 밀집 검색 방식을 제안한다.
본 연구는 대규모 언어 모델의 감정 지능을 평가하기 위한 새로운 벤치마크 'EmotionQueen'을 제안한다. 이 벤치마크는 핵심 이벤트 인식, 복합 이벤트 인식, 암묵적 감정 인식, 의도 인식 등 4가지 독특한 과제로 구성되어 있으며, 언어 모델의 감정 관련 문장 인식 및 공감적 대응 능력을 평가한다.
소량의 레이블된 데이터로 BERT 모델을 효과적으로 사전 학습하여 다양한 도메인에서 우수한 성능의 의도 분류 모델을 얻을 수 있다.