이 논문은 대형 언어 모델(LLM)의 강력한 기능을 활용하여 긴 문맥을 간단한 메모리 슬롯으로 압축하는 기술인 인-컨텍스트 오토인코더(ICAE)를 제안한다.
ICAE는 두 개의 모듈로 구성된다:
ICAE는 다음과 같은 과정으로 학습된다:
실험 결과, ICAE(Llama 기반)는 약 4배의 문맥 압축을 달성하며, 지연 시간과 GPU 메모리 비용을 크게 개선할 수 있다. 또한 ICAE는 LLM의 기억 능력에 대한 흥미로운 통찰을 제공하며, LLM의 문맥 관리를 위한 추가 연구의 가능성을 시사한다.
In un'altra lingua
dal contenuto originale
arxiv.org
Approfondimenti chiave tratti da
by Tao Ge,Jing ... alle arxiv.org 03-19-2024
https://arxiv.org/pdf/2307.06945.pdfDomande più approfondite