Conceitos Básicos
대형 언어 모델의 강력한 의미 추론 능력과 하이퍼그래프 신경망의 구조적 장점을 결합하여 사용자의 다양한 관심사를 효과적으로 포착하고 해석함으로써 설명 가능한 추천 시스템을 구현한다.
Resumo
이 논문은 대형 언어 모델(LLM)과 하이퍼그래프 신경망을 결합한 새로운 추천 시스템 프레임워크인 LLMHG를 제안한다.
- 관심 각도 추출: LLM을 활용하여 사용자의 다양한 관심사 측면(장르, 테마, 시대 등)을 추출한다.
- 다중 관점 하이퍼그래프 구축: 추출된 관심 각도를 기반으로 사용자의 선호도를 다각도로 반영하는 하이퍼그래프를 구성한다.
- 하이퍼그래프 구조 학습: LLM의 추론 한계를 보완하기 위해 하이퍼그래프 구조 최적화 기법을 적용하여 사용자 선호도를 정교하게 모델링한다.
- 표현 융합: 하이퍼그래프 임베딩과 기존 순차 추천 모델의 잠재 임베딩을 결합하여 최종 추천 결과를 생성한다.
이를 통해 사용자의 다면적인 관심사를 보다 정확하게 포착하고 설명 가능한 추천 시스템을 구현할 수 있다.
Estatísticas
사용자 당 평균 상호작용 길이는 ML-1M에서 165.5, Amazon Beauty와 Toys에서 각각 8.9와 8.6이다.
ML-1M 데이터셋의 희소성은 95.16%이고, Amazon Beauty와 Toys는 각각 99.93%이다.
Citações
"대형 언어 모델(LLM)은 사용자 행동과 선호도에 대한 깊이 있는 이해와 예측 능력을 통해 추천 시스템을 혁신할 수 있는 기회를 제공한다."
"LLM의 의미 추론 능력을 활용하여 개인의 관심사 측면을 효과적으로 추출, 분석, 이해할 수 있다."
"하이퍼그래프 구조 학습을 통해 LLM 출력의 추론 격차를 보완하고 사용자 선호도를 정교하게 모델링할 수 있다."