метод решения широкого класса задач статистического оценивания (См.
Статистическое оценивание)
, при котором каждое следующее значение оценки получается в виде основанной лишь на новом наблюдении поправки к уже построенной оценке. Основными чертами, обусловившими популярность С. а. в теоретических и прикладных работах, явились её непараметричность (применимость при весьма скудной информации об объекте наблюдения) и рекуррентность (простота пересчёта оценки при поступлении нового результата наблюдений). С. а. Применяется во многих прикладных задачах теории управления, обучения, в задачах техники, биологии, медицины. С. а. описана в 1951 американскими статистиками Г. Роббинсом и С. Монро, которые предложили рекуррентный план отыскания корня уравнения регрессии (См.
Регрессия)
, т. е. корня θ уравнения r (x)
= α в ситуации, когда каждое измеренное значение
ук функции
R (
x) в точке
Xk содержит случайную ошибку. Процедура Роббинса - Монро даётся формулой
xK+i = Xk +ак (
ук - α)
. При некоторых условиях на функцию R (
x)
, последовательность
ak, стремящуюся к нулю, и на характер случайных ошибок доказано, что
Xk →∞ при увеличении
к. Позже метод С. а. был применен и для решения др. задач: отыскания максимума функции регрессии, оценки неизвестных параметров распределения по наблюдениям и др. На основе изучения предельного распределения нормированной разности
xk - θ построены асимптотически наилучшие процедуры С. а., в которых последовательность
ак нужно выбирать зависящей от наблюдений.