Main menu

Стохастическая аппроксимация и робастные методы

Стохастическая аппроксимация итеративно минимизирует целевые функции по шумным градиентам. Она решает уравнения типа (mathbb{E}[H( heta,X)]=0) последовательными корректировками.

Алгоритм Роббинса-Монро обеспечивает сходимость к корню при подходящих условиях на шаг обучения. В обучении машин робастный стохастический градиентный спуск (SGD) с мини-батчами и адаптивными скоростями (Adam, RMSProp) оптимизирует нейросети. Стохастическая аппроксимация связывает Монте-Карло методы с оптимизацией: вместо прямой симуляции критериев итеративно улучшает параметры моделей. Она применяется для численного решения уравнений стохастического управления.

SGD траектории
Rate this item
(0 votes)
back to top

Соц. сети