담금질 기법

위키백과, 우리 모두의 백과사전.
이동: 둘러보기, 검색

담금질 기법(Simulated Annealing, SA)은 전역 최적화 문제에 대한 일반적인 확률적 메타 알고리즘이다. 이 기법은 광대한 탐색 공간 안에서, 주어진 함수전역 최적해에 대한 좋은 근사를 준다. 커크패트릭, 젤라트, 베키가 1983년에 고안했다. 보통 영어를 그냥 읽어서 시뮬레이티드 어닐링이라고 부른다.

담금질 기법이라는 말은 금속 공학담금질(quenching)에서 왔는데, 이는 풀림(annealing)의 오역이다. 풀림은 금속재료를 가열한 다음 조금씩 냉각해 결정을 성장시켜 그 결함을 줄이는 작업이다. 열에 의해서 원자는 초기의 위치(내부 에너지가 극소점에 머무르는 상태)로부터 멀어져 에너지가 더욱 높은 상태로 추이된다. 천천히 냉각함으로써 원자는 초기 상태보다 내부 에너지가 한층 더 극소인 상태를 얻을 가능성이 많아진다.

SA 알고리즘은 해를 반복해 개선함으로써, 현재의 해 근방에 있는 해를 임의로 찾는데, 그때에 주어진 함수의 값과 전역 인자 T (온도를 의미한다)가 영향을 준다. 그리고 앞에서 기술한 물리 과정과 비슷한 원리로. T(온도)의 값은 서서히 작아진다. 따라서, 처음에는 T가 크기 때문에 해가 크게 변화하지만, T가 0에 가까워짐에 따라 변화가 줄어든다. 처음은 간단하게 비탈을 올라갈 수 있으므로, 등산법으로 문제가 되는 지역 최적점에 빠졌을 때의 대책을 생각할 필요가 없다.

의사 코드[편집]

P는 P=nk=5*100=500 이 되고 Step 이 500 이 된다. 여기서 Step의 값은 아주 중요한 요소가 된다. 만약 Step이 크게 되면 최적한된 값을 건더 뛰고 넘어가서 최적화의 단계를 가지지 못한다. 여기서 최적화를 예를 들면 만약 무작위의 10개의 돌이 있으면 이 돌을 가장 작은 공간에 배치할 때 가장 효율적으로 배치한 값이 담금질 기법의 최적화 값이 된다. 10개의 돌을 배치하는 방법으로 단순히 10!*10의 경우의 수를 생각해 보겠지만 이것을 한 번씩 다해서 최적의 경우의 수를 얻는다는 것은 너무나 비효율적이고 만약 돌의 갯수가 100000 개라고 하면 이 많은 경우의 수를 하는 것이 불가능하다. 그리고 특정 시간안에 이것을 찾아야 하는 조건이면 거의 불가능하게 된다. 그래서 모든 경우의 수를 하지 않고 이것을 찾는 방법이 바로 담금질 기법이다. 하지만 이 담금질 기법의 문제점이 바로 적당한 Step 사이즈 즉 가장 효율적으로 찾기 위한 돌을 움직여야 하는 갯수를 결정하는 것이다. 본론으로 돌아가서 Step의 사이즈가 작으면 최적화의 방법을 당연히 찾을 것이다. 여러가지 경우의 수를 많이 해보면 당연히 그중에 찾을 확률이 높다. 하지만 Step의 사이즈가 작으면 작을 수록 무작위로 모든 경우 수를 해보는 것과 점점 차이가 없어진다. 그럼 담금질 기법의 의미가 없어진다.

담금질 기법의 원문을 자주 보거나 번역판을 보면 온도라는 말과 Frozen 즉 냉각이라는 말이 자주 나온다. 이것은 이 기법이 담금질 기법과 비슷하기 때문에 같은 개념으로 설명하기 위한 것이지 절대 이것이 정말 온도나 냉각을 의미하는 것이 아니라 경우의 수를 높여서 더 안좋은 결과가 나오는 것을 Uphill 즉 상승 즉 온도의 상승으로 보고, 경우의 수의 조합을 좋게 해서 Downhill 즉 하락 온도의 하락으로 보고 설명을 하는 것이다. 온도가 완전히 떨어진 경우 Downhill의 최저점이 우리가 찾는 최적의 조합이 되는 것이다.

begin
Get an initial solution S; //  s ← s0; e ← E(s) 초기값을 설정한다.
Get an initial temperature T>0; // 초기 온도값을 설정함, 예) T=1000
while not yet "frozen" do  // 최적의 경우를 찾을 때 까지 즉 온도가 완전히 내려 갈때 까지 프로그램을 Loop한다.
   for 1<= i <= P do       // P=nk 즉 Step의 사이즈가 되고 k는 주어진 종류를 n은 우리가 결정하게 된다. 즉 STEP사이즈를 결정하게 된다.
   Pick a random neighbor S' of S; // 임의로 선택한 솔루션 S' 과 기존의 솔루션 S를 선택한다.
   ∆ ← cost(S')-cost(S); // 기존의 솔루션과 새로운 솔루션을 가격의 차 즉 최적화의 값의 차를 만듭니다.
                          // ∆ ← area(S')-area(S), 돌을 예를 들면 면적이 크기가 효율성의 차이 이다.
   /* downhill move */
   if ∆ <= 0 then S ← S' // S'의 값이 작으면 즉 차지하는 면적이 작고, 더 효율적으로 배치 되었으면,
                          // 이것이 현재까지의 최적화가 되고 이것을 온도가 내려간다. Downhill로 표현한다.
   /* uphill move */
   if ∆ > 0 then S ← S' // S'의 값이 크면 즉 차지하는 면적이 크고, 더 비 효율적으로 배치 되었으면, 이것을 온도가 올라간다.
                         //  uphill로 표현한다.
T ← rT; // 한가지 경우의 수를 처리 했었므로 한 단계 줄어 들게 되면 다음 반복을 진행한다.
return S    // 프로그램이 마무리 되면 우리가 찾는 최적화의 답을 리턴하고, 정확히 최적화의 답을 찾았으면 이것을 Global Optimization 즉 모든 경우의 수중에서 가장 최적화된 것이다.
end

여기서 원래의 SA(Generic Simulated Annealing Algorithm)은 여러가지 찾는 속도나 사용하는 메모리의 경우에 대하여 문제점이 있다. 그래서 여러 박사 과정의 분들이 새로운 기법을 추가하여 더욱 발전되어 기법을 찾아 내었다. 하지만 이 아이디어 자체는 모든 분야에 대하여 적용이 가능하다. 임의의 경우의 수가 많은 경우 정해진 조건에서 대용량의 최적화를 찾을 때 유용하게 사용이 된다.