toplogo
VærktøjerPriser
Log på
indsigt - 머신러닝 - # 베이지안 최적화

최적 값의 경계를 고려한 베이지안 최적화: 한계 존중하기


Kernekoncepter
알려진 최적 값의 하한을 활용하는 새로운 대리 모델 및 획득 함수인 SlogGP 및 SlogTEI를 사용하는 경계 인식 베이지안 최적화(BABO)는 기존 베이지안 최적화 기법보다 뛰어난 성능을 보여줍니다.
Resumé

최적 값의 경계를 고려한 베이지안 최적화: 한계 존중하기

edit_icon

Tilpas resumé

edit_icon

Genskriv med AI

edit_icon

Generer citater

translate_icon

Oversæt kilde

visual_icon

Generer mindmap

visit_icon

Besøg kilde

본 연구 논문은 블랙박스 함수의 전역 최적화를 위한 순차적 전략인 베이지안 최적화(BO)에서 알려진 최적 목적 함수 값의 하한 정보를 활용하는 새로운 알고리즘인 경계 인식 베이지안 최적화(BABO)를 제안합니다.
BABO는 새로운 대리 모델인 이동 로그 정규 과정(SlogGP)과 이에 대응하는 획득 함수인 이동 로그 절단 예상 개선(SlogTEI)이라는 두 가지 핵심 구성 요소를 기반으로 합니다. SlogGP는 목적 함수의 하한에 대한 사전 정보를 고려할 수 있는 새로운 대리 모델이며, SlogTEI는 SlogGP에 맞게 조정된 획득 함수입니다. 본 연구에서는 SlogGP 모델과 SlogTEI 획득 함수를 결합하여 BABO를 구현하고, 다양한 합성 함수와 실제 응용 프로그램에서 제안된 프레임워크를 평가합니다. 또한, 하한 정보가 없는 경우에도 SlogGP가 표준 GP 모델보다 더 나은 성능을 보이는 것을 확인하고, 이를 SlogGP의 더 큰 표현력으로 설명합니다.

Vigtigste indsigter udtrukket fra

by Hanyang Wang... kl. arxiv.org 11-08-2024

https://arxiv.org/pdf/2411.04744.pdf
Respecting the limit:Bayesian optimization with a bound on the optimal value

Dybere Forespørgsler

노이즈가 있는 관측값에 BABO를 적용하기 위한 수정 사항

BABO를 노이즈가 있는 관측값에 적용하려면 기본 가정과 모델 구성 요소를 수정해야 합니다. Surrogate model (SlogGP) 수정: 노이즈가 없는 관측값을 가정하는 대신, 노이즈 모델을 SlogGP에 통합해야 합니다. 일반적으로 가우시안 프로세스 회귀에서는 관측 노이즈를 나타내기 위해 대각선 공분산 행렬에 작은 양수값(노이즈 분산)을 추가합니다. SlogGP의 경우, 변환된 함수값(eg(x) − ζ)에 노이즈가 추가된다고 가정할 수 있습니다. 이를 위해 SlogGP 모델을 다음과 같이 수정할 수 있습니다. f(x) = eg(x) − ζ + ε 여기서 ε ~ N(0, σ_n^2)는 관측 노이즈를 나타내고, σ_n^2는 추정해야 할 노이즈 분산입니다. 획득 함수 (SlogTEI) 수정: 노이즈가 있는 관측값을 고려하여 SlogTEI를 수정해야 합니다. 노이즈가 있는 경우, 실제 함수값은 관측값에 어느 정도의 불확실성을 가지고 분포됩니다. 따라서 SlogTEI를 계산할 때, 이러한 불확실성을 고려해야 합니다. 이는 노이즈가 있는 관측값을 사용하여 예상 개선(EI)을 계산하는 방법과 유사하게 수행할 수 있습니다. 즉, 예상 개선을 계산할 때, 예측 분포의 평균뿐만 아니라 분산도 고려해야 합니다. 하이퍼파라미터 학습: 노이즈 분산(σ_n^2)을 포함한 SlogGP 모델의 하이퍼파라미터는 노이즈가 있는 관측값을 사용하여 학습해야 합니다. 이는 최대 가능도 추정(MLE) 또는 베이지안 방법을 사용하여 수행할 수 있습니다. 요약하면, 노이즈가 있는 관측값에 BABO를 적용하려면 노이즈 모델을 통합하고 획득 함수를 수정하고 노이즈가 있는 데이터를 사용하여 모델 하이퍼파라미터를 학습해야 합니다. 이러한 수정을 통해 BABO는 노이즈가 있는 실제 최적화 문제를 더 잘 처리할 수 있습니다.

학습된 이동 매개변수 ζ의 영향

SlogGP 모델에서 학습된 이동 매개변수 ζ는 최적화 프로세스에 중요한 영향을 미칩니다. 함수 범위 제어: ζ는 SlogGP 모델의 출력 범위를 조정하는 역할을 합니다. 구체적으로, −ζ는 모델이 예측할 수 있는 최소값을 결정합니다. 이는 알려진 하한 f_b를 활용하여 최적화 탐색 공간을 효과적으로 제한할 수 있도록 합니다. 모델 유연성 향상: ζ는 표준 가우시안 프로세스(GP) 모델에 비해 SlogGP 모델의 유연성을 높여줍니다. 표준 GP는 데이터가 특정 패턴을 따르지 않을 경우 적합도가 떨어질 수 있습니다. 반면, SlogGP는 ζ를 통해 함수의 기울기를 조절하여 다양한 형태의 함수를 더 잘 표현할 수 있습니다. 탐색과 활용의 균형: ζ는 최적화 과정에서 탐색과 활용의 균형에 영향을 미칩니다. ζ 값이 너무 작으면 모델이 너무 보수적이 되어 탐색이 제한될 수 있습니다. 반대로 ζ 값이 너무 크면 모델이 너무 탐색적이 되어 수렴 속도가 느려질 수 있습니다. BABO는 데이터를 기반으로 ζ를 학습하여 탐색과 활용 사이의 균형을 자동으로 조정합니다. 요약하면, 학습된 이동 매개변수 ζ는 SlogGP 모델이 함수 범위를 제어하고, 모델 유연성을 향상시키고, 탐색과 활용 사이의 균형을 조정하는 데 중요한 역할을 합니다. 이를 통해 BABO는 다양한 최적화 문제에서 효과적으로 활용될 수 있습니다.

BABO를 다른 최적화 설정으로 확장

BABO는 다목표 베이지안 최적화 또는 고차원 문제와 같은 다른 최적화 설정으로 확장될 수 있습니다. 다목표 베이지안 최적화 (Multi-objective Bayesian Optimization): 다목표 최적화에서는 Pareto frontier를 찾는 것이 목표입니다. BABO를 다목표 설정으로 확장하기 위해 여러 가지 방법을 고려할 수 있습니다. 스칼라화 함수: 여러 목표 함수를 단일 목표 함수로 변환하는 스칼라화 함수를 사용할 수 있습니다. 예를 들어, 가중치 합 방법이나 Chebyshev 방법을 사용하여 여러 목표 함수를 단일 목표 함수로 결합할 수 있습니다. Pareto-based 획득 함수: Pareto frontier를 직접적으로 고려하는 획득 함수를 사용할 수 있습니다. 예를 들어, Expected Hypervolume Improvement (EHVI) 또는 Lower Confidence Bound Pareto (LCBP)와 같은 획득 함수를 사용할 수 있습니다. 고차원 문제 (High-dimensional problems): 고차원 문제에서는 차원의 저주로 인해 표준 베이지안 최적화 방법의 성능이 저하될 수 있습니다. BABO를 고차원 문제에 적용하기 위해 다음과 같은 방법을 고려할 수 있습니다. 차원 축소: 주성분 분석(PCA) 또는 선형 판별 분석(LDA)과 같은 차원 축소 기법을 사용하여 입력 변수의 차원을 줄일 수 있습니다. Additive model: 함수를 여러 개의 저차원 함수의 합으로 모델링하는 Additive model을 사용할 수 있습니다. 이를 통해 고차원 함수를 효과적으로 모델링하고 최적화할 수 있습니다. 딥 러닝 기반 surrogate model: 고차원 데이터를 잘 처리할 수 있는 딥 러닝 모델을 surrogate model로 사용할 수 있습니다. 예를 들어, 변분 자동 인코더(VAE) 또는 생성적 적대 신경망(GAN)을 사용하여 고차원 데이터를 저차원 공간에 매핑하고, 이를 기반으로 surrogate model을 학습할 수 있습니다. 요약하면, BABO는 다양한 전략과 수정을 통해 다목표 최적화 및 고차원 문제를 포함한 광범위한 최적화 설정으로 확장될 수 있습니다. 핵심은 SlogGP 모델과 SlogTEI 획득 함수를 특정 문제 설정에 맞게 조정하는 것입니다.
0
star