이 연구는 신경망 학습에 널리 사용되는 ADAM 최적화기를 분석하고 개선하는 것을 목표로 한다.
ADAM 알고리즘은 매우 작은 학습률 한계에서 기저 상미분방정식(ODE)에 해당한다는 것을 보였다. 이 ODE를 암시적-명시적(IMEX) GARK 이산화 기법으로 풀면 ADAM 알고리즘이 도출된다.
이를 바탕으로 고차 IMEX 이산화 기법을 적용하여 새로운 최적화 알고리즘을 제안했다. 수치 실험 결과, 제안한 IMEX Trapezoidal Adam 알고리즘이 기존 ADAM에 비해 회귀 및 분류 문제에서 더 나은 성능을 보였다.
To Another Language
from source content
arxiv.org
Key Insights Distilled From
by Abhinab Bhat... at arxiv.org 03-21-2024
https://arxiv.org/pdf/2403.13704.pdfDeeper Inquiries