본문 바로가기
1. 인공지능/(3) Optimization, 기본수학

non-linear 함수의 최적화가 어려운 이유와 해법

by Labeler 2024. 8. 3.

  • Non-linear 최적화 특히, 제한조건까지 있는 최적화 문제는 local optimum을 가질 수 있어서 최적화가 어려워 (global을 찾으려면 여러번 random하게 새로 시작해야 함)
  • 수치적으로도 불안정하기 때문에 여러가지 계산 및 알고리즘을 적용해야 함

 

 

  • 비선형문제를 푸는 방법들 -> Gradient Based Method (Newton's 등)
  • 대표적으로 변수들을 2차 함수로 근사하고 제약조건은 1차 함수로 근사하는 SQP가 많이 사용됨.
    - SQP의 경우 1차 함수로 근사한 제약조건을 라그랑지 승수를 활용해 목적함수에 올림


  • 위상최적화에 사용되는 MMA(Method of Moving Asymptotes) 기법은 SQP와는 조금 다름
    - MMA는 목적함수를 2차함수로 근사하고, 제약조건도 2차 함수로 근사함 (제약조건이 결과에 큰 영향을 미치는 경우에 MMA를 활용한다고 봐도 될듯)
    - 그리고 위상최적설계는 있고 없고 이다보니 해석 결과가 목적함수에 큰 영향을 줘서, 점근선으로 변수 변화에 제한을 줌
    - 예를 들어 각 변수별로 10% 씩만 변해라 이런 식으로 줄 수 있는 것

'1. 인공지능 > (3) Optimization, 기본수학' 카테고리의 다른 글

Linear vs Affine Transformation  (0) 2024.08.26
PSO 최적화  (0) 2024.08.20
SQP(Sequential Quadratic Programming) 최적화  (0) 2024.08.03
CONVEX란?  (0) 2024.08.02