핵심 개념
대형 언어 모델의 안전 조치 테스트를 위해 자연어 탈옥 생성 방법을 연구하고 있습니다.
통계
"GUARD는 Vicuna-13B, LongChat-7B, Llama-2-7B 및 ChatGPT와 같은 다양한 대형 언어 모델에 대해 효과적인 평균 82% 성공률을 보여줍니다."
인용구
"우리는 GUARD를 소개하여 안전한 LLM 기반 응용 프로그램을 개발하기 위한 가치 있는 통찰력을 제공합니다."
"GUARD는 LLM 기반 VLM에 대한 자연어 탈옥을 확장하는 데 효과적입니다."