본문으로 이동

최적 제어

위키백과, 우리 모두의 백과사전.

최적 제어(optimal control) 이론은 목적 함수가 최적화되도록 일정 기간 동안 동역학계에 대한 제어를 찾는 제어이론의 한 분야이다.[1] 과학, 공학 및 운영 연구 분야에 수많은 응용 프로그램이 있다. 예를 들어, 동역학계는 로켓 추진기에 해당하는 제어 장치를 갖춘 우주선일 수 있으며, 목표는 최소한의 연료 소비로 에 도달하는 것일 수 있다.[2] 또는 동역학계는 실업을 최소화하는 것을 목표로 하는 국가 경제일 수도 있다. 이 경우 통제는 재정 및 통화 정책일 수 있다.[3] 최적 제어 이론의 틀 내에 운영 연구 문제를 포함시키기 위해 동역학계가 도입될 수도 있다.[4][5]

최적 제어는 변동 계산의 확장이며 제어 정책을 도출하기 위한 수학적 최적화 방법이다.[6] 이 방법은 주로 에드워드 J. 맥셰인(Edward J. McShane)의 변분학에 기여한 이후 1950년대 레프 폰트랴긴리처드 E. 벨먼의 작업에 기인한다.[7] 최적 제어는 제어이론에서 제어 전략으로 볼 수 있다.[1]

같이 보기[편집]

각주[편집]

  1. Ross, Isaac (2015). 《A primer on Pontryagin's principle in optimal control》. San Francisco: Collegiate Publishers. ISBN 978-0-9843571-0-9. OCLC 625106088. 
  2. Luenberger, David G. (1979). 〈Optimal Control〉. 《Introduction to Dynamic Systems》. New York: John Wiley & Sons. 393–435쪽. ISBN 0-471-02594-1. 
  3. Kamien, Morton I. (2013). 《Dynamic Optimization: the Calculus of Variations and Optimal Control in Economics and Management》. Dover Publications. ISBN 978-1-306-39299-0. OCLC 869522905. 
  4. Ross, I. M.; Proulx, R. J.; Karpenko, M. (2020년 5월 6일). “An Optimal Control Theory for the Traveling Salesman Problem and Its Variants”. arXiv:2005.03186 [math.OC]. 
  5. Ross, Isaac M.; Karpenko, Mark; Proulx, Ronald J. (2016년 1월 1일). “A Nonsmooth Calculus for Solving Some Graph-Theoretic Control Problems**This research was sponsored by the U.S. Navy.”. 《IFAC-PapersOnLine》. 10th IFAC Symposium on Nonlinear Control Systems NOLCOS 2016 (영어) 49 (18): 462–467. doi:10.1016/j.ifacol.2016.10.208. ISSN 2405-8963. 
  6. Sargent, R. W. H. (2000). “Optimal Control”. 《Journal of Computational and Applied Mathematics》 124 (1–2): 361–371. Bibcode:2000JCoAM.124..361S. doi:10.1016/S0377-0427(00)00418-0. 
  7. Bryson, A. E. (1996). “Optimal Control—1950 to 1985”. 《IEEE Control Systems Magazine》 16 (3): 26–33. doi:10.1109/37.506395. 

외부 링크[편집]