核心概念
FIM 사전 훈련은 L2R 추론 능력을 향상시키며, 모델 크기보다 사전 훈련 방법과 데이터 품질이 더 중요하다.
統計
FIM 사전 훈련은 FIM 능력과 L2R 추론을 향상시킴
SAFIM은 17,720개의 예제를 제공하며, 8,590개의 코드 파일을 포함
CodeLLaMa-13B는 CodeLLaMa-34B보다 더 우수한 성능을 보임
引用
"FIM 사전 훈련은 L2R 추론 능력을 향상시키며, 모델 크기보다 사전 훈련 방법과 데이터 품질이 더 중요하다."
"SAFIM은 17,720개의 예제를 제공하며, 8,590개의 코드 파일을 포함하며, 다양한 LLMs 간의 정확하고 공정한 비교를 용이하게 함."