Core Concepts
단일 뷰와 다중 뷰 깊이 추정 기술을 적응적으로 융합하여 정확하고 강건한 깊이 추정을 달성한다.
Abstract
이 논문은 자율주행을 위한 깊이 추정 문제를 다룹니다. 기존의 다중 뷰 깊이 추정 방법은 정확한 카메라 자세 정보를 필요로 하지만, 실제 자율주행 환경에서는 이러한 정보를 얻기 어려운 경우가 많습니다. 이에 저자들은 단일 뷰와 다중 뷰 깊이 추정 기술을 적응적으로 융합하는 AFNet을 제안합니다.
AFNet은 다음과 같은 특징을 가집니다:
- 단일 뷰 깊이 추정 모듈과 다중 뷰 깊이 추정 모듈을 병렬로 구성하여 각각의 장점을 활용합니다.
- 적응적 융합 모듈을 통해 두 모듈의 출력을 상황에 맞게 선택적으로 융합합니다. 이를 통해 노이즈가 있는 카메라 자세 정보에도 강건한 깊이 추정이 가능합니다.
- 실험 결과, AFNet은 KITTI와 DDAD 벤치마크에서 최신 기술 대비 우수한 성능을 보였으며, 특히 노이즈가 있는 카메라 자세 정보 환경에서 강건성이 뛰어났습니다.
Stats
단일 뷰 깊이 추정 결과의 절대 상대 오차(AbsRel)는 0.088이다.
다중 뷰 깊이 추정 결과의 절대 상대 오차(AbsRel)는 0.095이다.
적응적 융합 결과의 절대 상대 오차(AbsRel)는 0.088이다.
Quotes
"단일 뷰 방법은 텍스처가 없는 영역과 동적 객체에 강건하지만, 성능이 여전히 다중 뷰 방법에 미치지 못한다."
"기존 융합 시스템은 이상적인 카메라 자세를 가정하지만, 실제 환경에서는 노이즈가 있는 자세 정보를 사용해야 한다."