Der Robbins-Monro-Prozess ist ein stochastischer Prozess , mit dessen Hilfe die Nullstelle einer unbekannten Regressionsfunktion stochastisch approximiert werden kann. Er wurde 1951 von Herbert Robbins und Sutton Monro vorgestellt.
Sei
Y
x
:
R
→
R
{\displaystyle Y_{x}:\mathbb {R} \rightarrow \mathbb {R} }
eine Familie von Zufallsvariablen und
M
:
R
→
R
{\displaystyle M:\mathbb {R} \rightarrow \mathbb {R} }
eine messbare Funktion, sodass gilt:
M
(
x
)
=
E
(
Y
x
)
{\displaystyle M(x)=\mathbb {E} (Y_{x})}
. Sei zudem eine eindeutige Lösung
θ
∈
R
{\displaystyle \theta \in \mathbb {R} }
gegeben, sodass
M
(
θ
)
=
0
{\displaystyle M(\theta )=0\ }
.
Dann heißt die Folge
(
X
n
)
n
∈
N
{\displaystyle (X_{n})_{n\in \mathbb {N} }}
von Zufallsvariablen gegeben durch
X
n
+
1
=
X
n
−
a
n
(
Y
X
n
)
{\displaystyle X_{n+1}=X_{n}-a_{n}(Y_{X_{n}})}
Robbins-Monro-Prozess , wobei
X
1
{\displaystyle X_{1}}
eine beliebige reelle Konstante und
(
a
n
)
n
∈
N
{\displaystyle (a_{n})_{n\in \mathbb {N} }}
eine Folge reeller Konstanten mit
a
n
>
0
{\displaystyle a_{n}>0}
sei.
Unter den folgenden vier Bedingungen konvergiert
X
n
{\displaystyle X_{n}}
in
L
2
{\displaystyle L^{2}}
gegen
θ
{\displaystyle \theta }
[ 1] :
∃
C
>
0
∀
x
∈
R
(
P
[
|
Y
x
|
≤
C
]
=
1
)
{\displaystyle \exists {C>0}\forall {x\in \mathbb {R} }\ (P[\left|Y_{x}\right|\leq C]=1)}
,
M
(
x
)
{\displaystyle M(x)}
ist monoton wachsend,
M
′
(
θ
)
>
0
{\displaystyle M'(\theta )>0}
existiert,
a
n
{\displaystyle a_{n}}
genügt folgenden Bedingungen:
∑
n
=
0
∞
a
n
=
∞
und
∑
n
=
0
∞
a
n
2
<
∞
{\displaystyle \qquad \sum _{n=0}^{\infty }a_{n}=\infty \quad {\text{und}}\quad \sum _{n=0}^{\infty }a_{n}^{2}<\infty \quad }
Seien
Y
x
n
{\displaystyle Y_{x_{n}}}
um
1
/
2
{\displaystyle 1/2}
verschobene Sinusfunktionen zwischen
−
π
/
3
{\displaystyle -\pi /3}
und
π
/
3
{\displaystyle \pi /3}
mit zufälligen Schwankungen
ε
n
{\displaystyle \varepsilon _{n}}
, die an den Rändern linear fortgesetzt werden.
Y
x
n
=
{
x
n
+
sin
(
π
/
3
)
−
π
/
3
−
1
2
+
ε
n
für
x
n
>
π
/
3
sin
(
x
n
)
−
1
2
+
ε
n
für
−
π
/
3
≤
x
n
≤
π
/
3
x
n
−
sin
(
π
/
3
)
+
π
/
3
−
1
2
+
ε
n
für
x
n
<
−
π
/
3
{\displaystyle Y_{x_{n}}={\begin{cases}\ \;\,\ x_{n}+\sin(\pi /3)-\pi /3-{\frac {1}{2}}+\varepsilon _{n}&{\text{für }}x_{n}>\pi /3\\\ \;\,\ \sin(x_{n})-{\frac {1}{2}}+\varepsilon _{n}&{\text{für }}-\pi /3\leq x_{n}\leq \pi /3\\\ \;\,\ x_{n}-\sin(\pi /3)+\pi /3-{\frac {1}{2}}+\varepsilon _{n}&{\text{für }}x_{n}<-\pi /3\end{cases}}}
Wobei
ε
n
{\displaystyle \varepsilon _{n}}
unabhängige, gleichverteilte Zufallsvariablen in
(
−
1
4
,
1
4
)
{\displaystyle \left(-{\tfrac {1}{4}},{\tfrac {1}{4}}\right)}
sind.
Sei außerdem
a
n
=
1
n
+
1
{\displaystyle a_{n}={\tfrac {1}{n+1}}}
und
X
1
=
1
2
{\displaystyle X_{1}={\tfrac {1}{2}}}
. Dann konvergiert
X
n
+
1
=
X
n
−
a
n
(
Y
X
n
)
{\displaystyle X_{n+1}=X_{n}-a_{n}(Y_{X_{n}})}
gegen
π
/
6
{\displaystyle \pi /6}
.
Schaubild mit 5 verschiedenen Pfaden und 300 Iterationen. Die gestrichelte Linie bezeichnet dabei den Grenzwert
π
/
6
{\displaystyle \pi /6}
.
↑ Herbert Robbins, Sutton Monro: A Stochastic Approximation Method. In: The Annals of Mathematical Statistics. 22, Nr. 3, 1951, S. 405 Theorem 2.
Herbert Robbins, Sutton Monro: A Stochastic Approximation Method. In: The Annals of Mathematical Statistics. 22, Nr. 3, 1951, S. 400–407(PDF-Datei; 514KB ).
Marie Duflo: Random Iterative Models , Springer Verlag, 1997.