대규모 언어 모델에서 원치 않는 데이터 제거를 위한 효과적인 언러닝 기법
대규모 언어 모델은 학습 데이터에 포함된 민감하거나 저작권이 있는 정보를 기억할 수 있다. 이 문제를 해결하기 위해 언러닝 기법이 제안되었지만, 기존 방법들은 모델의 유용성을 크게 저하시키는 문제가 있다. 본 연구에서는 Negative Preference Optimization (NPO)라는 새로운 언러닝 기법을 제안하여, 이러한 문제를 해결하고 더 나은 언러닝 성능을 달성한다.