09-02 Convergence analysis
Convergence analysis
이 절에서는 proximal gradient descent의 수렴을 분석한다.
Convergence Analysis
Objective 함수
는 convex, differentiable하며 dom , 는 Lipschitz continuous하다 ( ). 는 convex이고 가 계산되어야 한다.
Convergence Theorem
Proximal gradient descent는 fixed step size
에 대해 다음 식을 만족한다.
Proximal gradient descent는
Backtracking line search
Proximal gradient descent의 backtracking line search 방법은 gradient descent와 비슷하지만 함수
먼저 파라미터를
이 backtracking 조건은 다음 step 위치인
이 식에서
참고 : Gradient descent의 backtracking에 대한 자세한 내용은 06-02-02 backtracking line search 참조
Backtracking line search 알고리즘
이 내용을 알고리즘으로 정리하면 다음과 같다. (단,
- 파라미터를 초기화한다. (
, ) - 각 반복에서
로 초기화 한다. ( ) - 조건
을 만족하면 로 줄인다. 이 조건이 만족되는 동안 3을 반복한다. - Gradient descent update
를 실행한다. - 종료 조건을 만족하지 않으면 2로 간다.
Proximal gradient descent에서 backtracking을 할 때
Convergence Theorem
앞의 가정과 동일한 가정 하에 backtracking line search 방식도 같은 성능을 구할 수 있다.
Proximal gradient descent는 backtracking line search에 대해 다음 식을 만족한다. Step size는
이다.