Стохастическое управление и оптимальный контроль
Стохастическое управление оптимизирует процессы с неполной информацией и случайными помехами. Оно решает задачи динамического программирования для стохастических дифференциальных уравнений.
Базовая постановка: управляющий минимизирует критерий при динамике, заданной СДУ. Принцип Беллмана удовлетворяет нелинейному уравнению Гамильтона-Якоби-Беллману (ГЯБ). Линейно-квадратичный регулятор (LQR) даёт обратную связь, где матрица Риккати решает алгебраическое уравнение. В портфельном управлении проблема Мертон максимизирует полезность при стохастической динамике активов.
Стохастическое управление обобщает детерминированный контроль на случайные помехи и продолжает темы СДУ и Монте-Карло: оптимальные стратегии выражаются через решения стохастических уравнений, а численные методы используют симуляции. После изучения броуновского движения и мартингалов логично перейти к задачам управления.