Oft müssen wir die Erwartung einer Funktion einer oder mehrerer Zufallsvariablen bestimmen. Wir betrachten zuerst ein Beispiel.
Wir werfen eine faire Münze solange bis wir "Kopf" werfen. Die Zufallsvariable
N
{\displaystyle N}
bezeichnet die benötigte Anzahl Würfen und ist geometrisch verteilt mit Parameter 1/2. Wenn wir
n
{\displaystyle n}
Würfe brauchten, bekommen wir einen Betrag
2
−
n
{\displaystyle 2^{-n}}
ausgezahlt. Die Ausbezahlung nennen wir
X
{\displaystyle X}
. Sie ist eine Funktion von
N
{\displaystyle N}
, und zwar
X
=
2
−
n
{\displaystyle X=2^{-n}}
. Für die erwartete Ausbezahlung berechnen wir:
E
X
=
∑
x
∈
S
X
x
P
(
X
=
x
)
=
1
2
P
(
X
=
1
2
)
+
1
4
P
(
X
=
1
4
)
+
1
8
P
(
X
=
1
8
)
+
.
.
.
{\displaystyle EX=\sum _{x\in S_{X}}x\;P(X=x)={\tfrac {1}{2}}P(X={\tfrac {1}{2}})+{\tfrac {1}{4}}P(X={\tfrac {1}{4}})+{\tfrac {1}{8}}P(X={\tfrac {1}{8}})+...}
.
Nun ist
P
(
X
=
2
−
n
)
=
P
(
N
=
n
)
=
(
1
2
)
n
{\displaystyle P(X=2^{-n})=P(N=n)=({\tfrac {1}{2}})^{n}}
,
also ist:
E
X
=
∑
n
=
1
∞
(
1
2
)
n
(
1
2
)
n
=
∑
n
=
1
∞
(
1
4
)
n
=
1
4
1
−
1
4
=
1
3
.
{\displaystyle EX=\sum _{n=1}^{\infty }({\tfrac {1}{2}})^{n}({\tfrac {1}{2}})^{n}=\sum _{n=1}^{\infty }({\tfrac {1}{4}})^{n}={\frac {\tfrac {1}{4}}{1-{\tfrac {1}{4}}}}={\tfrac {1}{3}}.}
Es zeigt sich, dass wir auf selbstverständliche Weise schreiben können:
E
X
=
E
2
−
N
=
∑
n
=
1
∞
(
1
2
)
n
P
(
N
=
n
)
,
{\displaystyle EX=E2^{-N}=\sum _{n=1}^{\infty }({\tfrac {1}{2}})^{n}P(N=n),}
wobei
E
X
{\displaystyle EX}
in der Verteilung von
N
{\displaystyle N}
ausgedrückt ist. Wir brauchen also nicht zuerst die Verteilung von
X
{\displaystyle X}
zu bestimmen.
Was wir im Beispiel sahen, gilt ganz allgemein, wie der nächste Satz zeigt.
Es seien
X
1
,
…
,
X
n
{\displaystyle X_{1},\ldots ,X_{n}}
Zufallsvariablen und
g
:
R
n
→
R
{\displaystyle g:\mathbb {R} ^{n}\to \mathbb {R} }
eine Funktion, dann ist
E
g
(
X
1
,
.
.
.
,
X
n
)
=
∑
x
1
,
.
.
.
,
x
n
g
(
x
1
,
.
.
.
,
x
n
)
P
(
X
1
=
x
1
,
.
.
.
,
X
n
=
x
n
)
.
{\displaystyle Eg(X_{1},...,X_{n})=\sum _{x_{1},...,x_{n}}g(x_{1},...,x_{n})P(X_{1}=x_{1},...,X_{n}=x_{n}).}
Dabei wird also summiert über alle möglichen Werte
(
x
1
,
…
,
x
n
)
{\displaystyle (x_{1},\ldots ,x_{n})}
von
(
X
1
,
…
,
X
n
)
{\displaystyle (X_{1},\ldots ,X_{n})}
.
Beweis.
Nenne
X
=
(
X
1
,
…
,
X
n
)
{\displaystyle X=(X_{1},\ldots ,X_{n})}
und
x
=
(
x
1
,
…
,
x
n
)
{\displaystyle x=(x_{1},\ldots ,x_{n})}
. Dann gilt für die Zufallsvariable
g
(
X
)
{\displaystyle g(X)}
:
E
g
(
X
)
=
∑
s
∈
S
g
(
X
(
s
)
)
p
(
s
)
=
∑
x
g
(
x
)
P
(
X
=
x
)
{\displaystyle Eg(X)=\sum _{s\in S}g(X(s))p(s)=\sum _{x}g(x)P(X=x)}
Um die Erwartung einer Funktion
Y
=
g
(
X
)
{\displaystyle Y=g(X)}
von
X
{\displaystyle X}
zu bestimmen, brauchen wir also nicht zuerst die Verteilung von
Y
{\displaystyle Y}
zu berechnen, sondern können mit dem obigen Satz die Erwartung
E
g
(
X
)
{\displaystyle Eg(X)}
direkt mittels der Verteilung von
X
{\displaystyle X}
bestimmen.
Beispiel 2 (zweimal Würfeln (Fortsetzung))
Bearbeiten
Die Zufallsvariablen
Z
=
X
+
Y
{\displaystyle Z=X+Y}
und
M
=
max
(
X
,
Y
)
{\displaystyle M=\max(X,Y)}
sind Funktionen der Augenzahlen
X
{\displaystyle X}
und
Y
{\displaystyle Y}
zw. des ersten und des zweiten Wurfs. Wir berechnen:
E
Z
=
E
(
X
+
Y
)
=
∑
x
=
1
6
∑
y
=
1
6
(
x
+
y
)
P
(
X
=
x
,
Y
=
y
)
=
1
36
∑
x
=
1
6
∑
y
=
1
6
(
x
+
y
)
=
7
{\displaystyle EZ=E(X+Y)=\sum _{x=1}^{6}\sum _{y=1}^{6}(x+y)P(X=x,\;Y=y)={\tfrac {1}{36}}\sum _{x=1}^{6}\sum _{y=1}^{6}(x+y)=7}
und
E
M
=
E
max
(
X
,
Y
)
=
∑
x
=
1
6
∑
y
=
1
6
max
(
x
,
y
)
P
(
X
=
x
,
Y
=
y
)
=
1
36
∑
x
=
1
6
∑
y
=
1
6
max
(
x
,
y
)
=
{\displaystyle EM=E\max(X,Y)=\sum _{x=1}^{6}\sum _{y=1}^{6}\max(x,y)P(X=x,\;Y=y)={\tfrac {1}{36}}\sum _{x=1}^{6}\sum _{y=1}^{6}\max(x,y)=}
=
1
36
∑
m
=
1
6
m
(
2
m
−
1
)
=
161
36
.
{\displaystyle ={\tfrac {1}{36}}\sum _{m=1}^{6}m(2m-1)={\tfrac {161}{36}}.}
Für die letztere Summe bedenken wir, dass es
2
m
−
1
{\displaystyle 2m-1}
Paare
(
x
,
y
)
{\displaystyle (x,y)}
gibt, für die
max
(
x
,
y
)
=
m
{\displaystyle \max(x,y)=m}
.
Merke auf, dass
E
(
X
+
Y
)
=
E
X
+
E
Y
{\displaystyle E(X+Y)=EX+EY}
. In einem weiteren Paragrafen werden wir sehen, dass diese Beziehung allgemein gültig ist.
Wir vergleichen dieses Ergebnis mit einer Berechnung von
E
Z
{\displaystyle EZ}
und
E
M
{\displaystyle EM}
mittels der Verteilungen von
Z
{\displaystyle Z}
und
M
{\displaystyle M}
:
E
Z
=
∑
z
=
2
12
z
P
(
Z
=
z
)
=
2
×
1
36
+
2
×
3
36
+
4
×
3
36
+
…
+
12
×
1
36
=
7
{\displaystyle EZ=\sum _{z=2}^{12}z\;P(Z=z)=2\times {\tfrac {1}{36}}+2\times {\tfrac {3}{36}}+4\times {\tfrac {3}{36}}+\ldots +12\times {\tfrac {1}{36}}=7}
und
E
M
=
∑
m
=
1
6
m
P
(
M
=
m
)
=
1
×
1
36
+
2
×
3
36
+
…
+
6
×
11
36
=
161
36
.
{\displaystyle EM=\sum _{m=1}^{6}m\;P(M=m)=1\times {\tfrac {1}{36}}+2\times {\tfrac {3}{36}}+\ldots +6\times {\tfrac {11}{36}}={\tfrac {161}{36}}.}