이 논문은 그래프와 대규모 언어 모델(LLM)의 통합에 대한 종합적인 조사를 제공한다. 먼저 저자들은 LLM이 그래프 관련 작업에서 수행하는 역할에 따라 새로운 분류법을 제안한다.
LLM as Enhancer 접근법은 LLM을 사용하여 그래프 신경망(GNN)의 성능을 향상시킨다. 설명 기반 향상 방식은 LLM을 활용하여 텍스트 속성에 대한 추가적인 설명을 생성하고, 임베딩 기반 향상 방식은 LLM을 직접 사용하여 노드 임베딩을 생성한다.
LLM as Predictor 접근법은 LLM을 사용하여 그래프 관련 작업에 대한 예측을 수행한다. 평탄화 기반 예측은 그래프 구조를 텍스트 설명으로 변환하여 LLM에 입력하고, GNN 기반 예측은 GNN을 사용하여 구조 정보를 캡처한 후 LLM에 전달한다.
GNN-LLM Alignment 접근법은 GNN과 LLM의 임베딩 공간을 정렬하여 두 모달리티를 통합한다. 대칭적 정렬은 두 모달리티에 동등한 비중을 두지만, 비대칭적 정렬은 한 모달리티를 다른 모달리티를 강화하는 데 사용한다.
마지막으로 논문은 현재 연구의 한계와 미래 연구 방향을 논의한다.
To Another Language
from source content
arxiv.org
Key Insights Distilled From
by Yuhan Li,Zhi... at arxiv.org 04-25-2024
https://arxiv.org/pdf/2311.12399.pdfDeeper Inquiries