Professional Documents
Culture Documents
Oktober 2013
Inhaltsverzeichnis
1 Zuf
allige Ereignisse
1.1
1.2
Verkn
upfung von Ereignissen
. . . . . . . . . . . . . . .
1.3
Rechenregeln f
ur Ereignisse . . . . . . . . . . . . . . . .
1.4
2 Wahrscheinlichkeit
Der Wahrscheinlichkeitsbegriff . . . . . . . . . . . . . . . . . . . . . .
2.1
2.2
LaplaceWahrscheinlichkeiten . . . . . . . . . . . . . . .
2.3
2.4
10
10
2.5
Rechenregeln f
ur Wahrscheinlichkeiten . . . . . . . . . .
10
2.6
12
2.7
12
15
Kombinatorische Grundlagen . . . . . . . . . . . . . . . . . . . . . .
15
3.1
15
3.2
Binomialkoeffizienten . . . . . . . . . . . . . . . . . . . .
16
Oktober 2013
ii
INHALTSVERZEICHNIS
3.3
17
18
3.4
18
3.5
20
. . . . . . . . . . . . . .
23
23
4.1
23
4.2
24
4.3
. . . . .
24
26
4.4
Der Multiplikationssatz . . . . . . . . . . . . . . . . . . .
28
4.5
BernoulliVersuchsreihe . . . . . . . . . . . . . . . . . .
28
4.6
29
5 Zufallsvariable
Verteilung von Zufallsvariablen . . . . . . . . . . . . . . . . . . . . .
31
31
5.1
Definition . . . . . . . . . . . . . . . . . . . . . . . . . .
31
5.2
Verteilungsfunktion . . . . . . . . . . . . . . . . . . . . .
32
5.3
33
5.4
Quantilfunktion . . . . . . . . . . . . . . . . . . . . . . .
34
5.5
Trager . . . . . . . . . . . . . . . . . . . . . . . . . . . .
34
6 Spezielle Verteilungen
Spezielle diskrete Verteilungen . . . . . . . . . . . . . . . . . . . . . .
37
37
6.1
Hypergeometrische Verteilung . . . . . . . . . . . . . . .
37
6.2
Binomialverteilung . . . . . . . . . . . . . . . . . . . . .
37
6.3
Satz . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
38
6.4
Geometrische Verteilung . . . . . . . . . . . . . . . . . .
39
iii
INHALTSVERZEICHNIS
6.5
Poisson-Verteilung . . . . . . . . . . . . . . . . . . . . .
39
6.6
Satz . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
40
6.7
Diskrete Gleichverteilung . . . . . . . . . . . . . . . . . .
40
Stetige Verteilungen . . . . . . . . . . . . . . . . . . . . . . . . . . .
41
6.8
Uniforme Verteilung . . . . . . . . . . . . . . . . . . . .
41
6.9
Exponentialverteilung
. . . . . . . . . . . . . . . . . . .
41
6.10
Normalverteilung . . . . . . . . . . . . . . . . . . . . . .
42
6.11
Doppelte Exponentialverteilung . . . . . . . . . . . . . .
42
42
6.12
Symmetrie . . . . . . . . . . . . . . . . . . . . . . . . . .
42
6.13
Modus . . . . . . . . . . . . . . . . . . . . . . . . . . . .
43
6.14
Unimodalitat . . . . . . . . . . . . . . . . . . . . . . . .
43
6.15
Ausfallrate . . . . . . . . . . . . . . . . . . . . . . . . . .
44
6.16
45
47
47
7.1
47
7.2
Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . .
48
7.3
Wahrscheinlichkeitstransformation . . . . . . . . . . . . .
48
49
7.4
49
51
51
8.1
51
8.2
Satz . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
52
8.3
53
8.4
53
iv
INHALTSVERZEICHNIS
8.5
54
8.6
Satz (Formeln f
ur zentrale und nichtzentrale Momente) .
54
55
8.7
55
8.8
55
8.9
Ubersicht
u
ber die wichtigsten univariaten Verteilungen
und ihre Parameter. . . . . . . . . . . . . . . . . . . . .
57
61
8.10
63
63
9.1
Gemeinsame Verteilungsfunktion . . . . . . . . . . . . .
63
9.2
64
9.3
Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . .
64
9.4
. . . . . . . . . . . . . .
65
9.5
Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . .
66
9.6
66
9.7
n-variate Verteilungen, n 2 . . . . . . . . . . . . . . .
66
68
9.8
68
9.9
68
9.10
Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . .
68
9.11
69
9.12
Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . .
70
9.13
70
INHALTSVERZEICHNIS
10 Momente bei mehreren Zufallsvariablen
Erwartungswerte und Kovarianzen . . . . . . . . . . . . . . . . . . .
v
71
71
10.1
Multivariater Erwartungswert . . . . . . . . . . . . . . .
71
10.2
Satz . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
71
10.3
72
10.4
73
10.5
74
74
10.6
Bedingte Erwartungswerte . . . . . . . . . . . . . . . . .
74
10.7
75
10.8
Bedingte Varianz . . . . . . . . . . . . . . . . . . . . . .
76
10.9
77
79
79
Die Multinomialverteilung . . . . . . . . . . . . . . . . .
79
Multivariate Normalverteilung . . . . . . . . . . . . . . . . . . . . . .
80
11.2
80
11.3
81
Bivariate Exponentialverteilung . . . . . . . . . . . . . . . . . . . . .
82
11.4
12 Grenzwerts
atze
Schwaches Gesetz der groen Zahl . . . . . . . . . . . . . . . . . . . .
12.1
82
85
85
85
86
12.2
86
12.3
Satz . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
87
12.4
88
vi
INHALTSVERZEICHNIS
12.5
88
12.6
89
12.7
89
Zentraler Grenzwertsatz . . . . . . . . . . . . . . . . . . . . . . . . .
90
12.8
Zentraler Grenzwertsatz . . . . . . . . . . . . . . . . . .
90
12.9
91
91
13 Stochastische Prozesse
93
93
13.1
Stochastischer Prozess . . . . . . . . . . . . . . . . . . .
93
13.2
94
13.3
Random Walk . . . . . . . . . . . . . . . . . . . . . . . .
94
13.4
95
13.5
95
Poisson-Prozess . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
96
13.6
96
13.7
Anwendung: Bedienungssystem . . . . . . . . . . . . . .
97
13.8
Zusammengesetzter Poisson-Prozess . . . . . . . . . . . .
98
14 Wiener-Prozesse
99
99
14.1
99
14.2
Allgemeiner Wiener-Prozess . . . . . . . . . . . . . . . .
102
14.3
103
Stochastische Differentialgleichungen . . . . . . . . . . . . . . . . . .
104
14.4
Ito-Differentialgleichung . . . . . . . . . . . . . . . . . .
105
14.5
106
14.6
Ito Lemma . . . . . . . . . . . . . . . . . . . . . . . . . .
108
14.7
Brownsche Br
ucke
. . . . . . . . . . . . . . . . . . . . .
110
14.8
Gau-Prozesse . . . . . . . . . . . . . . . . . . . . . . . .
112
vii
INHALTSVERZEICHNIS
15 Markoff-Ketten
Definition und Anwendungsbeispiele
113
. . . . . . . . . . . . . . . . . .
113
15.1
Beispiel: Kraftfahrzeughaftpflichtversicherung . . . . . .
113
15.2
Markoff-Kette . . . . . . . . . . . . . . . . . . . . . . . .
114
15.3
Ubergangsmatrix,
Anfangsverteilung . . . . . . . . . . .
115
15.4
116
15.5
Unendlicher Zustandsraum . . . . . . . . . . . . . . . . .
117
15.6
Anwendung: Lagerhaltung . . . . . . . . . . . . . . . . .
118
15.7
118
119
15.8
119
15.9
120
121
15.11 Ergodensatze . . . . . . . . . . . . . . . . . . . . . . . .
122
122
. . . . . . . . .
16 Station
are Prozesse
Stationaritat
125
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
125
16.1
Einf
uhrende Beispiele . . . . . . . . . . . . . . . . . . . .
125
16.2
Stationaritat . . . . . . . . . . . . . . . . . . . . . . . . .
128
130
16.3
Autoregressive Prozesse . . . . . . . . . . . . . . . . . .
130
16.4
Gleitende Durchschnitte . . . . . . . . . . . . . . . . . .
130
16.5
ARMA-Prozesse . . . . . . . . . . . . . . . . . . . . . . .
131
Lineare Filter . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
132
16.6
Lineare Filter . . . . . . . . . . . . . . . . . . . . . . . .
132
viii
INHALTSVERZEICHNIS
A Erg
anzende Beispiele
135
A.1
Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . .
135
A.2
Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . .
136
A.3
Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . .
136
A.4
Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . .
137
A.5
Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . .
139
A.6
Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . .
140
A.7
Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . .
140
A.8
Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . .
141
A.9
Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . .
143
A.10
Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . .
144
A.11
Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . .
145
A.12
Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . .
146
A.13
Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . .
148
A.14
Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . .
148
A.15
Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . .
149
A.16
Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . .
150
A.17
Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . .
151
A.18
Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . .
153
A.19
Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . .
153
B Literaturverzeichnis
155
159
VORBEMERKUNG
ix
Vorbemerkung
Grundlage des statistischen Schlieens ist die Wahrscheinlichkeitsrechnung. Wer
also statistische Methoden verstehen und eventuell selber anwenden will, muss
zunachst lernen, mit Wahrscheinlichkeiten und Groen, die nur nach Wahrscheinlichkeit bekannt sind, namlich Zufallsvariablen, zu rechnen.
Einen theoretischen Ansatz, in dem bestimmte Groen als Zufallsvariablen aufgefasst werden, nennt man ein stochastisches Modell. Stochastische Modelle finden
in allen Bereichen der Wirtschaftswissenschaften Verwendung, nicht nur in der
Das Skript enthalt alle Definitionen und Satze, dazu knapp skizzierte Beispiele und Bemerkungen. Es wird durch ausgewahlte, vollstandig geloste Aufgaben
erganzt. Lehrb
ucher, die sich zur Erganzung der Vorlesung und zum Selbststudium eignen, sind im Literaturverzeichnis aufgef
uhrt.
In der Vorlesung und im Skript werden die Vertrautheit mit mathematischer Notation und gewisse mathematische Grundkenntnisse vorausgesetzt. In den ersten
vier Kapiteln ist dies lediglich die Mengenschreibweise und das Rechnen mit Mengen und mit Summen von Zahlen. Ab Kapitel 5 wird dann auch mit Grenzwerten
gerechnet und die Differential- und Integralrechnung verwandt. Zum Nachschlagen mathematischer Sachverhalte sei auf eines der zahlreichen Lehrb
ucher der
Mathematik f
ur Okonomen verwiesen, etwa Mosler, Dyckerhoff, Scheicher (2011).
Auf der Wahrscheinlichkeitsrechnung baut meine Vorlesung Schlieende Statis
tik (Statistik f
ur Fortgeschrittene II) auf. Zu ihr existiert ein eigenes Skript.
Dieses Skript enthalt gewiss noch Fehler und Ungenauigkeiten. F
ur Verbesserungshinweise der Leser bin ich (und sind k
unftige Studenten) sehr dankbar.
Karl Mosler
VORBEMERKUNG
Kapitel 1
Zuf
allige Ereignisse
Die Wahrscheinlichkeitsrechnung hat zum Ziel, zufallsbehaftete Vorgange zu
quantifizieren. Ein Zufallsvorgang ist ein Vorgang, dessen Ergebnis ex ante (im
voraus) nicht feststeht. Wenn der Vorgang geplant ist, nennt man ihn auch ein
Zufallsexperiment. Wir beginnen mit einigen Beispielen.
1.1
Zufallsvorg
ange und ihre mo
glichen Ergebnisse
(2) Qualitatspr
ufung eines aus einem Container mit unsortierten Apfeln
gezogenen Apfels.
Ergebnis = Handelsklasse {Ia, I, II, keines davon}.
(3) Lebensdauerpr
ufung eines technischen Gerates (z.B. Computer-Ventilator).
Ergebnis = Dauer der korrekten Funktion IR+ = {x | x 0}.
(4) Dollarkurs heute in einem Monat.
Ergebnis = Fixing an der Frankfurter Devisenborse IR+
oder [1.4, 2.3] oder ...
(5) Ertrag einer bestimmten Investition.
Ergebnis = Gewinn nach Steuern IR.
(6) Morgige Brotverkaufszahlen einer Backereifiliale.
Ergebnis = (Zahl Schwarzbrote, Zahl Graubrote) {(m, n) | m IN0 , n
IN0 } = IN0 IN0 .
(7) M
unzwurf.
Ergebnis { Zahl, Wappen }.
Mosler: Stochastische Modelle
c Karl Mosler K
oln 2013
Oktober 2013
KAPITEL 1. ZUFALLIGE
EREIGNISSE
2
(8) Roulette.
Ergebnis {0, 1, . . . , 36}.
(9) Zweifacher W
urfelwurf.
Ergebnis = (1.Augenzahl, 2.Augenzahl) {(1 , 2 ) | 1, 2 IN6 },
wobei IN6 = {1, 2, 3, 4, 5, 6}.
(10) W
urfelwurf bis erstmals eine Sechs erscheint.
Ergebnis = Folge von Augenzahlen
{(1 , 2 , . . .) | i IN6 , i IN} oder
{(1 , 2 , . . . , k1, 6) | i IN5 , i = 1, . . . , k 1,
{(1 , 2 , . . .) | i IN5 }.
k IN}
(Ubung:
Diskutieren Sie geeignete ceteris-paribus-Annahmen!)
1.2
Verknu
pfung von Ereignissen
Pair
P = {2, 4, . . . , 36}.
Sprechweise: Das Ereignis I tritt ein, wenn der Zufallsvorgang ein Ergebnis
I hat.
Es gilt: Z ist Komplementarereignis von I P ,
Z = \ (I P ) = I P = I P
I und P sind disjunkt, I P = .
I, P , Z ist eine vollstandige Zerlegung (Partition) von .
KAPITEL 1. ZUFALLIGE
EREIGNISSE
A = { R | > 0}.
Ak = {(m, n) | m, n IN0 ,
m + n = k},
Mindestens k St
uck verkauft:
Bk = {(m, n) | m, n IN0 ,
m + n k}.
Es gilt:
A0 = {(0, 0)},
A1 = {(0, 1), (1, 0)},
A2 = {(0, 2), (1, 1), (2, 0)}, und so weiter.
Rechenregeln fu
r Ereignisse
(1) Es gilt:
A B = B A,
A B = B A,
(A B) C = A (B C),
(A B) C = A (B C),
A (B C) = (A B) (A C),
A (B C) = (A B) (A C),
A B = A B,
A B = A B.
(2)
A,
A \ B = A B,
A = (A B) (A B) = (A B) (A \ B),
A = A, A = ,
A B A B = A, A B = B.
KAPITEL 1. ZUFALLIGE
EREIGNISSE
(3) Die Vereinigung von Mengen hangt nicht von der Reihenfolge ab, in der die
Operation durchgef
uhrt wird; ebenso der Durchschnitt. F
ur eine Familie von
Mengen (Bi )iI , die mit einer beliebigen Indexmenge indiziert ist, definiert
man die Vereinigung beziehungsweise den Durchschnitt durch
T
Bi : = { | Bi f
ur alle i I},
iI
S
Bi : = { | Bi f
ur mindestens ein i I}.
iI
iI
Bi
iI
Bi =
iI
iI
(A Bi ) ,
Bi ,
iI
Bi =
iI
1.4
Bi .
iI
Haufig betrachtet man nicht alle Teilmengen der Ergebnismenge als Ereignisse,
sondern nur einen Teil von ihnen. Bezeichne P() die Menge aller Teilmengen von
; sie heit die Potenzmenge von . Sei A P() eine Menge von Teilmengen,
die alle interessierenden Ereignisse enthalt. Um mit Ereignissen in A rechnen zu
konnen, fordert man folgende Eigenschaften:
Das sichere Ereignis ist ein Ereignis.
Das Komplement eines Ereignisses ist ein Ereignis.
Die Vereinigung von Ereignissen ist ein Ereignis.
Der Durchschnitt von Ereignissen ist ein Ereignis.
Definition Sei eine Menge, A P().
1. A heit EreignisAlgebra auf , wenn die folgenden vier Eigenschaften zutreffen:
KAPITEL 1. ZUFALLIGE
EREIGNISSE
(i) A,
(ii) A A A A,
(iii) A, B A A B A,
(iv) A, B A A B A.
Bemerkungen
KAPITEL 1. ZUFALLIGE
EREIGNISSE
Kapitel 2
Wahrscheinlichkeit
Der Wahrscheinlichkeitsbegriff
2.1
Definition Sei eine Menge, A eine EreignisAlgebra und sei P : A [0, 1],
A 7 P (A), eine Funktion. Falls
(i) P () = 0,
(ii) A1 , A2 A,
P () = 1,
A1 A2 =
Pdisjunkt
P
(A
)
,
A
)
=
.kurz
P(
i
i=1
i=1 i
Oktober 2013
KAPITEL 2. WAHRSCHEINLICHKEIT
2.2
LaplaceWahrscheinlichkeiten
(Vergleiche W
urfel, M
unzwurf, Roulette, Ziehung der Lottozahlen.)
ur alle i = 1, . . . , n.
Sei = {1 , 2 , . . . , n } endlich, A = P(), P ({i}) = n1 f
Wegen 2.1(ii) muss gelten
P (A) =
X 1
1
= |A|,
n
n
A
wobei
|A| : = Anzahl der Elemente von A. |A| wird auch die Anzahl der (f
ur A) g
uns
tigen Falle, n die Anzahl der moglichen Falle genannt, also
|A|
Anzahl der g
unstigen Falle
P (A) =
=
.
n
Anzahl der moglichen Falle
Bemerkung Die Bedingung P ({i}) = n1 f
ur alle i = 1, . . . , n muss nicht f
ur
die Elementarereignisse aus Definition 2.1 zutreffen. So ist die Ergebnismenge
der Summe der Augenzahlen beim Werfen zweier W
urfeln = {1 , . . . , 11 } =
1
1
{2, . . . , 12}, aber es gilt P ({i}) 6= 11 = n f
ur alle i = 1, . . . , 11.
Anwendungen
1. Roulette: n = 37, P (Z) =
1
,
37
P (I) = P (P ) =
18
37
2. Faire M
unze: n = 2, P (Wappen) = P (Zahl) = 12
Pferd i gewinnt. Wenn nichts weiter bekannt ist, wird haufig die subjek
tive Wahrscheinlichkeit
P (Zustand i tritt ein, das heit Pferd i gewinnt ) = n1 gesetzt.
4. Einfache Zufallsauswahl: Aus einer Grundgesamtheit von n Merkmalstragern, zum Beispiel Kaufern eines bestimmten Produktes, wird auf
zufallige Weise ein Merkmalstrager ausgewahlt und beobachtet. Dann geht
man davon aus, dass
P (Merkmalstrager i wird ausgewahlt) =
1
.
n
DER WAHRSCHEINLICHKEITSBEGRIFF
2.3
1. Haufigkeitsinterpretation:
Falls der Zufallsvorgang im Prinzip beliebig oft und unabhangig voneinander wiederholbar ist, erwartet man, dass die relative Haufigkeit eines Ereignisses A nahe an P(A) herankommt.
2. Entscheidungstheoretische Interpretation:
Folgende Interpretation macht auch bei nichtwiederholbaren Zufallsvorgangen Sinn. Ein Individuum (der Entscheidungstrager) wettet auf das
Eintreten von A. Es erhalt die Auszahlung 100, falls A eintritt, und die
Auszahlung 0, falls A nicht eintritt. Um diese Wette einzugehen, sei das Individuum dazu bereit, maximal den Einsatz z zu zahlen. Die Auszahlungen
und der Einsatz werden in Nutzeneinheiten gemessen und seien durch die
Beziehung
z = 100 P (A) + 0 P (A),
also P (A) =
z
,
100
miteinander verkn
upft. Dies bedeutet, dass das Individuum die Wette mit
dem gewichteten Mittel der Auszahlungen bewertet; Gewichte sind die
(subjektiven) Wahrscheinlichkeiten. Umgekehrt entspricht die (subjektive)
Wahrscheinlichkeit in Prozent, die das Individuum dem Ereignis A beimisst,
gerade seinem maximalen Wetteinsatz.
Bei (1) spricht man von objektiver Wahrscheinlichkeit; sie wohnt dem Ereignis
inne wie eine physikalische Groe. Bei (2) spricht man von subjektiver Wahrscheinlichkeit.
10
2.4
KAPITEL 2. WAHRSCHEINLICHKEIT
Bemerkungen zur Geschichte der Wahrscheinlichkeitsrechnung
Zufallsexperiment
W
urfelwahrscheinlichkeiten
Theorie der Gl
ucksspiele:
Gesetz der groen Zahlen:
Zentraler Grenzwertsatz:
Methode der kleinsten Quadrate:
WienerProzesse:
Axiomatische Begr
undung:
Rechenregeln fu
r Wahrscheinlichkeiten
Die folgenden Regeln ergeben sich unmittelbar aus der obigen Definition 2.1 der
mathematischen Wahrscheinlichkeit.
(1)
AB
.........
...................... ..............................
.......
.......... ..........
......
.......
.
..... .......... ...........
.....
....
...
.
.
...
...
...
....
....
..
..
.
.
...
..
...
..
.
.
...
...
...
..
.
...
.
.
....
.
.
..
......
.
......
.
.
.
.
.
.
.
...
....... ................
..........
.......
...................... ..............................
.........
P (B \ A) = P (B) P (A),
P (A) P (B)
11
= P (A) P (A B) + P (B) P (B A) + P (A B)
= P (A) + P (B) P (A B).
Anwendung von (4): Beim Roulette ist das Ereignis Rouge gleich
R = {1, 3, 5, 7, 9, 12, 14, 16, 18, 19, 21, 23, 25, 27, 30, 32, 34, 36}, I bedeutet
wie bisher Impair. Die Wahrscheinlichkeit f
ur Rouge oder Impair be
18
,
37
P (I R) =
10
,
37
P (I R) = P (I) + P (R) P (I R) =
18
37
18
37
10
37
26
.
37
(5)
P (A B C) = P (A) + P (B) + P (C)
P (A B) P (A C) P (B C)
+ P (A B C)
i=1
i=1
Beispiel zu (6):
(a) In Venedig auf dem Markusplatz wahlen Sie einen Passanten zufallig aus
und sprechen ihn an.
B : Der Passant versteht Englisch,
12
KAPITEL 2. WAHRSCHEINLICHKEIT
Dann ist die Wahrscheinlichkeit P(B), dass der Passant Englisch versteht,
gleich der Wahrscheinlichkeit P (B A1 ), dass er Englisch versteht und Italiener ist, plus der Wahrscheinlichkeit P (B A2 ), dass er Englisch versteht
und Auslander ist.
(b) In einer Urne befinden sich n Kugeln, die entweder blau, gelb oder wei und
auerdem mit einer Zahl versehen sind. Von den blauen und gelben Kugeln
ist jede zweite mit einer ungeraden Zahl versehen, von den weien keine.
Man zieht zufallig eine Kugel.
Wie gro ist die Wahrscheinlichkeit, dass sie eine ungerade Zahl tragt?
Antwort:
A1 : Die
A2 : Die
A3 : Die
B : Die
2.6
Satz
P (A1 A2 . . . An ) =
+
X
i
P (Ai )
i,j,k:i<j<k
n1
+ (1)
i,j:i<j
P (Ai Aj)
P (Ai Aj Ak ) . . .
P (A1 A2 . . . An )
Beweis F
ur n = 2 und n = 3 erhalten wir die obigen Formeln 2.5(4) beziehungsweise 2.5(5). F
ur jedes groere n kann man die Sylvester-Formel entsprechend
ausrechnen; allgemein beweist man sie durch vollstandige Induktion nach n.
2.7
Satz
1
n
X
i=1
13
da P (A1 A2 . . . An )
min P (Ai )
i
1 P (A1 A2 . . . An )
1 P (A1 A2 . . . An )
1 (P (A1 ) + P (A2 ) + . . . P (An )),
P (A1 ) + P (A2 ) + . . . P (An ) ist.
Anwendungen
1. Zuverlassigkeit einer Maschine: Eine Maschine besteht aus mehreren
Teilen; sie funktioniert, wenn alle Teile funktionieren. Sei
Ai : Teil i funktioniert.
zur Verf
ugung steht. Zu berechnen ist die Wahrscheinlichkeit einer Vereinigung von Ereignissen. Wie lasst sich dies mit den obigen Ungleichungen
abschatzen? (Ubung!)
3. Prognose: Haufig wird nicht nur eine okonomisch relevante Groe prognostiziert, sondern mehrere zugleich, indem entsprechende Prognoseintervalle
angegeben werden. Sei
Ai : Das i-te Prognoseintervall enthalt die k
unftige Realisation der
entsprechenden Groe.
Die Bonferroni-Ungleichungen beschranken die Wahrscheinlichkeit, dass
die Prognosen simultan zutreffen.
Bemerkungen
P
1. Die untere Bonferroni-Schranke 1 i P (Ai) kann ausarten, das heit
14
KAPITEL 2. WAHRSCHEINLICHKEIT
2. Scharfere Schranken erhalt man durch die sogenannte InklusionsExklusions-Methode. In der Sylvester-Formel 2.6 ist der erste Summand der
rechten Seite groer als die linke Seite, die beiden ersten Summanden zusammen jedoch kleiner. Die ersten drei Summanden u
bersteigen wiederum
die linke Seite. Das setzt sich alternierend fort, so dass man abwechselnd
obere und untere Schranken f
ur P (A1 A2 . . . An ) erhalt. Die gleiche
ur
Uberlegung liefert auch (mit Ai statt Ai ) untere und obere Schranken f
P (A1 A2 . . . An ) = 1 P (A1 A2 . . . An ).
Kapitel 3
Kombinatorische Berechnung von
Wahrscheinlichkeiten
Kombinatorische Grundlagen
3.1
Oktober 2013
16
Losung: Man betrachte eine gegebene Anordnung der n Objekte. Vertauscht man
die k Objekte mit Eigenschaft A auf ihren Platzen, so erhalt man insgesamt k!
Anordnungen, die nicht voneinander unterschieden werden. Vertauscht man die
u
brigen n k Objekte auf ihren Platzen, sind es wiederum (n k)! nicht unterschiedene Anordnungen. Dies gilt f
ur jede gegebene Anordnung der n Objekte.
Man hat also die Zahl aller Anordnungen der n Objekte durch k!(n k)! zu
dividieren und erhalt
n!
k!(n k)!
f
ur die Zahl der Kombinationen von k aus n Objekten. Es gilt
n!
n(n 1)(n 2) ... (n k + 1)
=
k!(n k)!
1 2 3 ... k
f
ur k = 1, 2, ..., n. Z.B. f
ur n = 99 und k=3 erhalt man
999897
123
= 156849.
3.2
Binomialkoeffizienten
n
1
n
n
= n f
ur n IN,
= n0 = 1 f
ur n IN,
17
KOMBINATORISCHE GRUNDLAGEN
n
k
n
nk
f
ur n, k ZZ,
n
(4) nk + k1
= n+1
f
ur n, k ZZ.
k
(3)
Beweis (1), (2) und (3) folgen unmittelbar aus der Definition. F
ur n IN und
k {1, ..., n} gilt:
n!(n k + 1)
n
n
n!k
=
+
+
k1
k
(n k)!k!(n k + 1) (n k + 1)!(k 1)!k
n!(n k + 1) + n!k
n!(n k + 1 + k)
=
=
(n k + 1)!k!
(n k + 1)!k!
(n + 1)!
=
(n + 1 k)!k!
n+1
,
=
k
also (4). F
ur n 6 IN oder k 6 {1, 2, ..., n} sieht man die G
ultigkeit von (4)
unmittelbar.
3.3
Satz F
ur n IN und a, b IR gilt
n
X
n k nk
b a
(a + b) =
k
k=0
n
Beweis F
ur n = 1 erhalt man auf der rechten Seite 10 b0 a1 + 11 b1 a0 = a + b.
F
ur n = 2 lautet die rechte Seite 20 b0 a2 + 21 b1 a1 + 22 b2 a0 = a2 + 2ab + b2 .
Der weitere Beweis erfolgt durch vollstandige Induktion nach n. Der Induktionsanfang wurde bereits f
ur n = 1 und n = 2 gezeigt. Unter der Annahme, da die
Formel f
ur ein festes n gilt, haben wir
(a + b)n+1 = (a + b)n (a + b)
n
X
n k nk
b a (a + b)
=
k
k=0
n
n
X
n k nk+1 X n k+1 nk
b a
b a
+
=
k
k
k=0
k=0
Die zweite Summe ist mit k 0
k + 1 gleich
n+1
P
k 0 =1
n+1
P
k 0 =0
n
k 0 1
k 0 1
bk ank +1
18
(a + b)
n+1
n+1
n
X
n
n k nk+1 X
0
0
bk ank +1
b a
+
=
0
k 1
k
k 0 =0
k=0
n+1
X
n
n
bk ank+1
+
=
k
1
k
k=0
n+1
X n + 1
bk an+1k ,
=
k
k=0
n=0
1
1
1
1
2
1
2
1
3
3
1
3
1
4
6
4
1
4
1
5
10
10
5
1
5
usw.
Eine Urne enthalte N Kugeln, davon seien K Kugeln gelb, N K blau. Sei
0 K N. Die Kugeln seien von 1 bis N numeriert. Man zieht zufallig n Kugeln,
d.h. mit gleicher Auswahlwahrscheinlichkeit unter den in der Urne befindlichen
Kugeln.
Sei die Menge aller moglichen endlichen Folgen (1 , 2 , ..., n ) von so gezogenen
Kugeln. Zufallige Ziehung bedeutet, da jede solche Folge gleich wahrscheinlich
ist. Also setzt man
= (1 , . . . , n ) | 1 {1, . . . , N},
i {1, . . . , N}\{1, . . . , i1 }, ,
=
i = 2, . . . , n
kurz:
ZIEHEN MIT UND OHNE ZURUCKLEGEN
19
A = P() und P gleich der Laplace-Wahrscheinlichkeit auf . Dann ist die Zahl
der moglichen Folgen gleich
|| = N(N 1) . . . (N n + 1) =
N!
.
(N n)!
K
k
N K
nk
N!
(N n)!
n!
K
k
N K
nk
N
n
5
1
1005
31
100
3
= 0.1381.
5
0
95
3
100
3
= 0.8560.
20
3.5
Gegeben sei eine Urne wie in 3.4. Man zieht n Kugeln zufallig mit Zur
ucklegen,
d.h. man zieht eine Kugel nach der anderen, indem man jede Kugel nach ihrer
Ziehung wieder in die Urne zur
ucklegt und sie mischt. Sei die Menge aller
moglichen so gezogenen endlichen Folgen,
= { = (1 , . . . n ) | i {1, . . . N}, i = 1, . . . n}.
Jede solche Folge wird als gleich wahrscheinlich angenommen; sei also A = P()
und P die Laplace-Wahrscheinlichkeit auf .
Es folgt
|| = N N . . . N = N n ,
n
K k (N K)nk ,
|Ak | =
k
da K k (N K)nk gleich der Anzahl der Folgen ist, deren erste K Kugeln gelb und
deren u
brige Kugeln blau sind, und nk die Zahl der verschiedenen Anordnungen
von k gelben und n k blauen Kugeln in der Stichprobe ist.
Wir erhalten
k
nk
k
k
n
K (N K)nk
K
K
n K (N K)nk
n
k
1
=
=
P (Ak ) =
k Nk
k
Nn
N nk
N
N
Bemerkung Mit =
verteilung, siehe 6.2.
K
N
k
k
k
k
=0
=1
=2
=3
P (Ak )
ZoZ
ZmZ
0,8560 0,8573
0,1381 0,1354
0,0059 0,0072
0,0001 0,0001
ZIEHEN MIT UND OHNE ZURUCKLEGEN
21
Losung: F
ur n > N ist die Wahrscheinlichkeit p = 0. Sei n N. Die Zahl der
moglichen Falle (Folgen aus 1, . . . , N mit Wiederholung) betragt N n , die Zahl
der g
unstigen Falle (Folgen ohne Wiederholung) = N(N 1) . . . (N n + 1) =
N! , und die gesuchte Wahrscheinlichkeit ist
(N n)!
p=
Z.B. f
ur N = 100, n = 3 ist p =
N!
.
(N n)! N n
100 99 98
= 0, 9702.
1003
Beispiel (MatchingProblem)
Bei einer Daten
ubertragung werden Dateien an bestimmte Adressen geleitet. An
genommen, n Dateien sollen an n Adressen geleitet werden. Wahrend der Ubertragung geht die Zuordnung zwischen Dateien und Adressen verloren; bei der
Ankunft werden deshalb die Dateien in zufalliger, d.h. gleich wahrscheinlicher
Weise den Adressen zugeordnet. Wie gro ist die Wahrscheinlichkeit, dass mindestens eine Datei ihrer richtigen Adresse zugeordnet wird?
Sei Ai : Datei i wird der richtigen Adresse zugeordnet, i = 1, . . . n. Gesucht ist
1
, also
n(n 1)(n 2)
X
1
1
n
P (Ai Aj Ak ) =
= ,
3!
3 n(n 1)(n 2)
i<j<k
P (Ai Aj Ak ) =
u.s.w. f
ur Durchschnitte aus vier und mehr der Ai . Aus der Sylvester-Formel
erhalten wir demnach
1
1
1
1
P (A1 . . . An ) = 1 + + . . . + (1)n1
2! 3! 4!
n!
22
Da e
X
(1)i
i=0
i!
X
(1)i1
i=0
i!
n
X
(1)i1
i=1
ist, folgt
i!
X
(1)i1
i=1
X
(1)i1
i=1
i!
i!
=1
1
0, 63212.
e
Kapitel 4
Bedingte Wahrscheinlichkeit und
Unabh
angigkeit
Bedingte Wahrscheinlichkeit und Satz von Bayes
4.1
P (A B)
P (B)
P (B)
P (B)
= 1.
Beweis: Ubung!
Interpretation: P (A|B) gibt die Wahrscheinlichkeit daf
ur an, dass A eintritt, wenn B bereits eingetreten ist, kurz: dass A auf B folgt.
Beispiel (Qualitatskontrolle)
Um die Qualitat einer groeren Anzahl (dem Los) von produzierten Einheiten
zu pr
ufen, geht man wie folgt vor. Eine Einheit wird zufallig aus dem Los gezogen.
Sei A : Die Einheit ist defekt, B: Die Einheit ist an einem Montag produziert
Oktober 2013
24KAPITEL 4. BEDINGTE WAHRSCHEINLICHKEIT UND UNABHANGIGKEIT
4.2
P (A|Bi )P (Bi )
PM
j=1 P (A|Bj )P (Bj )
Beweis
(1)
M
X
j=1
P (A|Bj ) P (Bj )
Def.
M
X
P (A Bj )
P (Bj )
j=1
M
X
j=1
P (Bj )
P (A Bj )
P (A)
(2)
P (Bi |A) =
=
(1)
4.3
P (Bi A)
P (A)
P (A|Bi) P (Bi )
P (A)
P (A|Bi ) P (Bi)
.
PM
j=1 P (A|Bj ) P (Bj )
Der Satz von Bayes lasst sich wie folgt interpretieren: B1 , . . . , BM sind sich ausschlieende mogliche Zustande der Welt ( Hypothesen), A ist das Ergebnis eines
25
der Bedingung, dass das Versuchsergebnis A beobachtet worden ist. P (Bi|A) wird
mit dem Satz von Bayes berechnet.
Beispiele
(1) Herkunft eines defekten St
ucks.
Ein Produkt (z.B. elektronisches Bauteil) wird in drei Produktionslinien gefertigt.
Diese haben Defektraten von 3, 1 und 1.5 Prozent. Die Gesamtproduktion entfallt
zu 20, 40 und 40 Prozent auf die drei Linien. Aus der Gesamtproduktion wird
zufallig ein St
uck entnommen.
A: Das St
uck ist defekt,
Bi : Das St
uck stammt aus Linie i, i = 1, 2, 3.
Dann ist
P (A B1 )
P (A B2 )
P (A B3 )
P (A)
(2) Fehlerdiagnose. Wie (1) jedoch Bi : Fehler i liegt vor. A, A: Ein bestimmtes
Pr
ufverfahren liefert das Ergebnis A bzw. A.
(3) Stufenweise Diagnose. Wie (2), jedoch mehrfaches Pr
ufen und Anwenden der
Bayes-Formel. Die a-posteriori-Wahrscheinlichkeit einer Stufe wird zur a-prioriWahrscheinlichkeit der nachsten.
26KAPITEL 4. BEDINGTE WAHRSCHEINLICHKEIT UND UNABHANGIGKEIT
Stochastische Unabh
angigkeit von Ereignissen
Definition Zwei Ereignisse A und B heien stochastisch unabhangig, wenn
P (A B) = P (A) P (B) gilt.
Bemerkungen
1. Die Definition ist symmetrisch in A und B. Statt A und B sind stochastisch
A, B stochastisch unabhangig
Beispiel Beim Roulette sind die Ereignisse R (Rouge) und I (Impair) nicht
stochastisch unabhangig:
P (R I) =
10
,
37
18 18
37 37
Beispiel (Doppelter M
unzwurf)
Zwei faire M
unzen werden einmal geworfen. Der Ergebnisraum ist dann
= {(z, z), (z, k), (k, z), (k, k)},
wobei (z, k) bedeutet, dass die erste M
unze Zahl zeigt und die zweite Kopf. Jedes
der vier Ergebnisse ist gleich wahrscheinlich. Wir betrachten die Ereignisse, die
den Ergebnissen der ersten M
unze entsprechen,
Z1 := {(z, k), (z, z)} Zahl bei der ersten M
unze,
1 1
1
= = P ({(z, z)}) = P (Z1 Z2 ).
2 2
4
STOCHASTISCHE UNABHANGIGKEIT
VON EREIGNISSEN
27
Satz
A, B stochastisch unabhangig
A, B stochastisch unabhangig,
A, B stochastisch unabhangig,
A, B stochastisch unabhangig.
P (A1 A2 )
P (A1 A3 )
P (A2 A3 )
P (A1 A2 A3 )
=
=
=
=
P (A1 ) P (A2 ),
P (A1 ) P (A3 ),
P (A2 ) P (A3 ) und
P (A1 ) P (A2 ) P (A3 ).
28KAPITEL 4. BEDINGTE WAHRSCHEINLICHKEIT UND UNABHANGIGKEIT
1
P (A C) = P (A) P (C) = ,
9
1
P (B C) = P (B) P (C) = ;
9
also sind A, B und C paarweise stochastisch unabhangig. Wegen
P (A B C) = 0 6=
1
= P (A) P (B) P (C)
27
Der Multiplikationssatz
M
\
i=1
Ai
Satz
F
ur beliebige Ereignisse A1 , . . . AM gilt
!
M
\
P
Ai = P (A1 ) P (A2 |A1 ) P (A3 |A1 A2 ) . . . P (AM |A1 A2 . . . AM 1 ),
i=1
P (A1 A2 ) P (A1 A2 A3 )
P (A1 . . . AM )
...
.
P (A1 )
P (A1 A2 )
P (A1 . . . AM 1 )
Durch K
urzen erhalt man P (A1 . . . AM ).
4.5
BernoulliVersuchsreihe
STOCHASTISCHE UNABHANGIGKEIT
VON EREIGNISSEN
29
n k
(1 )nk .
P (A tritt genau k-mal auf) =
k
Bemerkung Das nfache Ziehen mit Zur
ucklegen ist ein Bernoulli-Experiment
(siehe 3.5) mit den Parametern n und = K
.
N
4.6
F
ur die ein bestimmtes Ereignis A (vgl. oben die Beispiele 1.1) soll ausgesagt
werden: Die Wahrscheinlichkeit von A ist (ungefahr) gleich . Hierf
ur kommen
sehr unterschiedliche Methoden in Betracht. Abhangig von der Art des Ereignisses
A, dem Ziel der Fragestellung und den verf
ugbaren Moglichkeiten bestimmt man
auf eine oder mehrere der folgenden Weisen.
1. Symmetrie
uberlegungen an den Zufallsvorgang: physikalisch wie f
ur W
urfel,
M
unze und Roulette oder auf Grund eines quantitativen Modells (wie z. B.
lineare Regression mit symmetrischen Abweichungen nach oben und unten).
2. Aus den Modell
uberlegungen f
ur den Zufallsvorgang: z.B. stochastische Unabhangigkeit bestimmter Ereignisse, Normalverteilungsannahmen.
3. Bernoulli-Experiment: Schatzung von durch die relative Haufigkeit von
A. Vgl. die Schatztheorie in der schlieenden Statistik; auch Tests u
ber .
4. Satz von Bayes: a-priori-Wahrscheinlichkeit plus Versuchsergebnis.
5. Wetten: zur Bestimmung der subjektiven Wahrscheinlichkeit.
6. Befragung von Experten.
30KAPITEL 4. BEDINGTE WAHRSCHEINLICHKEIT UND UNABHANGIGKEIT
Kapitel 5
Zufallsvariable
Verteilung von Zufallsvariablen
Um Ereignisse durch Zahlen zu beschreiben, verwendet man Zufallsvariable. Beispiele daf
ur lieferten bereits das Ziehen mit Zur
ucklegen, das Ziehen ohne Zur
ucklegen und das Devisengeschaft.
Im folgenden sei (, A, P ) ein gegebener Wahrscheinlichkeitsraum.
5.1
Definition
Oktober 2013
32
KAPITEL 5. ZUFALLSVARIABLE
Beispiel Sei X die Zahl der Erfolge in einer Bernoulli-Versuchsreihe (vgl. 4.5).
Dann gilt
P (X = x) =
5.2
n
x
x (1 )nx , falls x = 0, 1, . . . , n,
0
sonst.
Verteilungsfunktion
0.125,
0.375,
0.375,
P (X = k) =
0.125,
0,
p = 21 )
falls k
falls k
falls k
falls k
sonst.
0.000, falls
0.125, falls
0.500, falls
FX (x) = P (X x) =
0.875, falls
1.000, falls
= 0,
= 1,
= 2,
= 3,
x < 0,
0 x < 1,
1 x < 2,
2 x < 3,
3 x.
Beispiel (Devisengeschaft)
Gewinn X() = ( 0 )a b bei Kauf zum Kurs 0 , Verkauf zum Kurs ,
eingesetztem Kapital a und Fixkosten b. Der Kurs Y () = ist ebenfalls eine
Zufallsvariable. Man nehme an, dass der Kurs stetig gleichverteilt im Intervall
[, ] ist, d. h. die Wahrscheinlichkeit, dass der Kurs in ein Teilintervall von
[, ] fallt, proportional der Lange des Intervalls ist:
P (Y [, ]) =
Dann ist
FY (y) =
,
,
,
f
ur < .
falls y ,
falls y < ,
falls y.
Ubung:
Zeichne FX f
ur = 1.4, = 2.2, 0 = 1.4, a = 1000, b = 5.
33
Umgekehrt ist jede Funktion, die (i), (ii) und (iii) erf
ullt, Verteilungsfunktion
einer Zufallsvariablen.
Bemerkung F
ur alle x0 IR gilt
P (X = x0 ) = P (X x0 ) P (X < x0 )
= FX (x0 ) FX (x0 ),
= FX (x0 ) lim FX (x),
x%x0
P (X = x0 ) = 0
P (X = x0 ) > 0
5.3
FX stetig in x0 ,
FX hat in x0 einen Sprung der Hohe P (X = x0 ).
scheinlichkeitsfunktion von X.
(3) Wenn F stetig und bis auf hochstens endlich oder abzahlbar unendlich
viele Stellen differenzierbar ist, dann heit die Verteilung von X stetig. Die
Funktion f : IR IR,
0
F (x)
sofern F in x differenzierbar,
f (x) =
0
sonst,
heit Dichte von X.
34
KAPITEL 5. ZUFALLSVARIABLE
Satz F
ur eine Dichte f gilt:
(1) f (x) 0 f
ur alle x.
(2)
f (x)dx = 1.
(3) F (z) =
Rz
f (x)dx f
ur alle z.
(4)
Rb
a
falls a < b.
Umgekehrt gilt: Eine Funktion f : IR IR, die (i) und (ii) erf
ullt, ist die Dichte
einer Zufallsvariablen.
Beispiel (Devisengeschaft; Fortsetzung)
Die Dichte von Y ist
fY (y) =
5.4
1
,
0,
Quantilfunktion
0 < < 1,
Tr
ager
35
Beispiel
1. Sei X die Zahl der Erfolge in einem Bernoulli-Experiment mit n Stufen.
Dann ist T = {0, 1, 2, . . . , n} der Trager von X.
2. Sei X stetig gleichverteilt auf [, ]. Dann ist der Trager gleich [, ].
36
KAPITEL 5. ZUFALLSVARIABLE
Kapitel 6
Spezielle Verteilungen
Spezielle diskrete Verteilungen
6.1
Hypergeometrische Verteilung
Binomialverteilung
Sei 0 < < 1, n IN, und X sei eine Zufallsvariable mit der Wahrscheinlichkeitsfunktion
n k
(1 )nk , falls k = 0, 1, 2, . . . , n,
k
P (X = k) =
0,
sonst.
Dann heit X binomialverteilt mit Parametern n und ; kurz: X B(n, ).
Es gilt X B(n, ) n X B(n, 1 ).
Beispiel Ziehen mit Zur
ucklegen, =
Mosler: Stochastische Modelle
c Karl Mosler K
oln 2013
M
,
N
siehe 3.5.
Oktober 2013
38
Aufgabe: Berechnen Sie die Wahrscheinlichkeitsfunktion, die Verteilungsfunktion und die Quantilfunktion von B(4, 0.1).
Losung:
k
0
1
2
3
4
f (k)
F (x),
0.6561
0.2916
0.0486
0.0036
0.0001
k
0
1
2
3
4
k
0.6561
0.9477
0.9963
0.9999
1.0000
k x<k+1
0.6561
0.9477
0.9963
0.9999
1.0000
f (x) = 0,
/ {0, 1, 2, 3, 4},
falls x
0, falls x < 0,
F (x) =
1, falls x 4.
F 1 () = Q()
0, 0 < 0
1, 0 < 1
2, 1 < 2
3, 2 < 3
4, 3 < 4
r
r
r
-
0
1
2
3
4
Die hypergeometrische Verteilung lasst sich wie folgt durch die Binomialverteilung approximieren:
6.3
Satz
F
ur beliebiges n IN und ]0, 1[ gilt
N N N
n k
k
nk
lim
(1 )nk f
ur k = 0, 1, . . . , n.
=
N
N
k
n
Der Satz besagt, dass mit wachsendem Umfang N der Urne und bei konstantem
Anteil = M
f
ur jedes n die Wahrscheinlichkeitsfunktion der hypergeometrischen
N
39
Verteilung gegen die der Binomialverteilung konvergiert. Man kann also, wenn N
gro ist, approximativ
M
H(n, N, M) B(n, )
N
setzen. Die Geschwindigkeit der Konvergenz hangt von dem Wert n ab. Als Faustregel benutzt man, dass die Approximation hinreichend genau ist, wenn
n
0.05
N
ist. Der Anteil
n
N
heit Auswahlsatz.
Bemerkung Die Binomialverteilung kann durch die Normalverteilung approximiert werden, siehe 12.9.
6.4
Geometrische Verteilung
0
6.5
10
12
14
16
18
r -
20
Poisson-Verteilung
40
Bemerkung
Die Poissonverteilung kann durch die Normalverteilung approximiert werden, siehe 12.10.
f (x)
0.3 6 r r
r
0
f (x)
P o(2)
r
r r
10
0.2 6
r
0
6.6
10
12
P o(12)
r
14
16
18
20
22
24
r r
26
Satz
(Poisson 1837) F
ur > 0 und k {0, 1, 2, . . .} gilt
k
n
nk k
lim
1
= e .
n k
n
n
k!
Anwendung F
ur kleine = n und groe n verwendet man statt B(n, ) approximativ P o(n ). Als Faustregel f
ur eine hinreichend gute Approximation
gilt:
n 50, 0.1 und n 9.
6.7
Diskrete Gleichverteilung
41
STETIGE VERTEILUNGEN
Stetige Verteilungen
6.8
Uniforme Verteilung
Seien a, b IR,
a < b,
f (x) =
1
,
ba
Die zugehorige Verteilung heit uniforme Verteilung (auch stetige Gleichverteilung oder Rechteckverteilung ) auf dem Intervall [a, b]; kurz: X R(a, b).
Anwendung Devisengeschaft, siehe 5.3.
6.9
Exponentialverteilung
Sei > 0.
f (x) =
ex ,
0
falls x > 0,
sonst.
Exp(2)
..
...
..
..
..
..
..
..
...
...
...
..
..
..
..
..
...
...
..
...
...
...
....
....
.....
......
........
...........
.....................
..........................................................................................................
42
6.10
e 22 (x) f
ur x IR.
2 2
f ist die Dichte der Normalverteilung (auch: Gau-Verteilung) N(, 2 ).
f (x)
0.5 6
..................
N(0, 1)
N(0, 4)
N(2, 1)
....... ......
...
........
..... .....
.. ...
... .....
..
..
..
...
...
..
..
..
.
.
... ..
..
.............
...
..
... ..
..
...
... .
..
...
....
.
..
.
.
.
.
..
.. ...
...
..
.. ..
..
. ..
...
..
. ....
..
...
..
..
..
.
.
.
..
..
..
..
.
.
.
..
. ....... ....... .......... ....... ......... ..
.
.
.
.
.
.
.
.
.
.
.
... .... ....... ........
....... ....
.
.
.
.
.
.
.
.
.
... .........
.
.
....
......
.
..
.
.
.
.
.
.
.
.
.
.
.
.
... ....... ....... ..
.
.
.
.
.
.
.....
..
...
....... ..
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
................................. ....................... ..... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... .
................................. ..................
....... ....... ....... ....... ....... ....... ....... ....... .......
14 12 10 8
6.11
10
12
14
Doppelte Exponentialverteilung
1 |x|
ur x IR.
e f
2
f ist die Dichte der doppelten Exponentialverteilung DE(, ).
f (x) =
DE(0, 12 )
..................
....
......
.... .....
.. ..
... .....
...
...
.............
...
....
....
...
.. ..
..
.. ...
...
..
.
..
..
...
.
..
.
.
.
...
..
..
...
...
..
..
..
...
..
...
..
..
...
..
..
...
...
....
....
.
.
.
.
... ...
....
...
.
.
.
.
....
.
.
.......
...
.
.....
.
.
.
.
.
... .......
.....
...
.
.
.
.
.
.
.
.
......
......
....
.....
.
.
.
.
.
........
.
.
.
.
.
.
.
.
.
........
....
....
.
.
..........
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.............
................
.......
.......
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
...........................
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
...................................................
...................
...................................................
DE(2, 1)
Symmetrie
43
Dies bedeutet f
ur die Wahrscheinlichkeitsfunktion
f (c z) = f (c + z)
f
ur alle z 0.
Beispiele
1. N(, 2 ) ist symmetrisch zu c = .
2. Ebenso ist DE(, ) symmetrisch zu c = .
3. B(1, 12 ) ist symmetrisch zu c = 12 . Allgemein ist B(n, ) genau dann symmetrisch, wenn = 12 ist; es gilt dann c = n2 .
6.13
Modus
Sei f die Dichte einer stetigen Verteilung. Jede Stelle m T , an der f ein lokales
Maximum hat, heit Modus der Verteilung. Auch einen Randpunkt des Tragers,
bei dem dies nur im Limes gilt, bezeichnet man als Modus. Statt Modus sagt
man auch Modalwert.
Beispiele
1. ist einziger Modus der Normalverteilung N(, 2 ).
2. Jedes m [a, b] ist Modus der stetigen Gleichverteilung R(a, b).
3. 0 ist einziger Modus der Exponentialverteilung Exp().
F
ur eine diskrete Zufallsvariable X mit P (X = xj ) = pj definieren wir wie folgt:
Ein Wert xM heit Modus, falls
P (X = xM ) P (X = x) f
ur alle x T.
Beispiel xM = 1 ist einziger Modus der geometrischen Verteilung G().
6.14
Unimodalit
at
Eine stetige Verteilung heit unimodal, wenn es mindestens einen Wert xM gibt,
f
ur den
f (x) f (y) f (xM )
f
ur alle x, y mit x < y < xM und f
ur alle x, y mit x > y > xM gilt.
Beispiele N(, 2 ), Exp(), R(a, b) und DE(, ) sind unimodale Verteilungen.
44
Eine diskrete Verteilung von X heit unimodal, wenn es mindestens einen Wert
xM mit P (X = xM ) = pjM gibt, f
ur den
pj pk pj M
f
ur alle j, k mit j < k < jM und f
ur alle j, k mit j > k > jM gilt.
Beispiel B(n, ) ist eine unimodale Verteilung.
6.15
Ausfallrate
F
ur eine stetig verteilte Zufallsvariable X mit Dichte f und Verteilungsfunktion
F heit
f (x)
h(x) =
1 F (x)
die Ausfallrate (hazard rate) von X. 1 F (x) wird auch die Uberlebensfunktion
von X genannt. Wenn X eine Lebensdauer darstellt, ist 1 F (x) die Wahrscheinlichkeit, die Dauer x zu u
berschreiten. Wegen
1 P (x < X x + x)
1
P (x < X x + x|X > x) =
x
x
P (X > x)
1 F (x + x) F (x)
=
x
1 F (x)
1 F (x + x) F (x)
f (x)
lim
=
x0 x
1 F (x)
1 F (x)
Wahrend x f (x) die approximative Wahrscheinlichkeit ist, dass X in das Intervall ]x, x + x] fallt, ist x h(x) die die approximative bedingte Wahrscheinlichkeit, dass dies unter der Bedingung X > x geschieht. Mit anderen Worten,
x h(x) ist die Wahrscheinlichkeit, dass die Lebensdauer im kleinen Intervall
]x, x + x] endet, unter der Voraussetzung, dass sie nicht bereits fr
uher geendet
hat.
Die Verteilung einer stetigen Zufallsvariablen X lasst sich auf verschiedene Weisen
durch eine Funktion charakterisieren: zum einen durch die Verteilungsfunktion F
von X, zum anderen durch die Dichte f . Ebenso ist die Verteilung durch die
Uberlebensfunktion
von X bestimmt, aber auch durch die Ausfallrate h. Es gilt
45
ex
1(1ex )
2. Bei R(0, 1) gilt, sofern 0 < x < 1 ist, f (x) = 1, F (x) = x, h(x) =
Ausfallrate beginnt bei 1 und wachst monoton gegen .
1
;
1x
die
Anwendungen Uberlebensdauer
von Patienten, Funktionsdauer technischer
Gerate, Dauer von Arbeitslosigkeit.
6.16
P
Seien F1 , . . . , Fk Verteilungsfunktionen, p1 , . . . , pk 0, kj=1 pj = 1. Dann ist
P
F (x) := kj=1 pj Fj (x) eine Verteilungsfunktion. Sie heit Mischung der Verteilungen F1 , . . . , Fk mit Mischungswahrscheinlichkeiten p1 , . . . , pk .
Falls F1 , . . . , Fk diskrete oder stetige
P Verteilungen mit Wahrscheinlichkeitsfunktionen f1 , . . . , fk sind, ist f (x) := kj=1 pj fj (x) die Wahrscheinlichkeitsfunktion
von F .
Beispiele
1. Lotterie, bei der man ein Freilos gewinnen kann.
2. Mischung dreier Exponentialverteilungen:
Sei F1 = Exp(0.2),
F2 = Exp(2),
F3 = Exp(4),
p1 = 0.4,
p2 = 0.5,
46
0.9N(2, 1) + 0.1N(20, 1)
...
.. ..
.. ...
.. ...
.... ...
..
..
...
...
..
..
...
..
..
...
...
...
..
...
...
..
...
...
...
...
.
.
..
..
...
.
.
.
...
.......................
.
.
.
......................................................................................................................................
....................
.
.
.
.
.
.
.
........
10
14
18
22
26
1 6
...................................................
...................................................
.....................
.............................
.................
..............
...........
..........
..
........
.......
.......
......
.....
.
.
.
.
.
.
.....
.....
.....
.....
-x
Kapitel 7
Transformation von
Zufallsvariablen
Gegeben die Verteilung einer Zufallsvariablen X, wie lautet die Verteilung der
Zufallsvariablen Y = 2X 3? Allgemeiner, wie ist f
ur eine Transformationsfunktion g die transformierte Zufallsvariable Y = g(X) verteilt?
Sei X eine Zufallsvariable mit Verteilungsfunktion FX . Wir betrachten die Zufallsvariable Y = g(X), wobei g eine streng monoton wachsende, auf dem Trager TX
von X definierte, differenzierbare Funktion sei. Dann ist g 0 (x) > 0 f
ur alle x TX ,
1
und g besitzt eine strikt monoton wachsende Umkehrfunktion g : g(TX ) TX .
Der Trager von Y ist g(TX ). Die Verteilungsfunktion FY von Y lautet
FY (y) = P (Y y) = P (g(X) y)
= P X g 1 (y) = FX g 1(y)
f
ur y g(TX ). Ist X diskret verteilt mit Wahrscheinlichkeitsfunktion fX (xi ) = pi
f
ur i = 1, . . . , n, so ist Y ebenfalls diskret verteilt mit Wahrscheinlichkeitsfunktion
fY (g(xi )) = pi , i = 1, . . . , n.
Mosler: Stochastische Modelle
c Karl Mosler K
oln 2013
Oktober 2013
48
Ist X stetig verteilt mit Dichte fX so ist auch Y stetig verteilt; die Dichte betragt
d
d
FY (y) = FX g 1 (y)
fY (y) =
dy
dy
d 1
= fX g 1 (y)
g (y)
dy
1
.
= fX g 1 (y) 0 1
g (g (y))
7.2 Beispiele
1. Sei g(x) = x + und > 0, also g 0(x) = , g 1(y) =
beliebige Zufallsvariable X gilt dann
y
FY (y) = FX
, y IR,
y
.
F
ur eine
1
fY (y) = fX
Wahrscheinlichkeitstransformation
Y ist daher stetig gleichverteilt auf dem Einheitsintervall Y R(0, 1). Wegen
X = F 1 (Y ) gilt umgekehrt: Ist F eine gegebene Verteilungsfunktion, die auf
ihrem Trager differenzierbar ist und eine positive Ableitung besitzt, und ist Y
eine Zufallsvariable mit Y R(0, 1), dann hat die Zufallsvariable
X = F 1 (Y )
die Verteilungsfunktion F . Diese Transformation wird zur Erzeugung von Zufallszahlen verwendet: Hat man einen Zufallszahlengenerator, der auf [0,1]
stetig gleichverteilte Zufallszahlen erzeugt, das sind Realisationen einer R(0, 1)verteilten Variablen Y , dann sind die mit F 1 transformierten Zufallszahlen Realisationen einer Zufallsvariablen X mit der vorgegebenen Verteilungsfunktion F .
49
50
Ubung:
Zeigen Sie dies f
ur die Familie der Exponentialverteilungen Exp() und
die der Rechteckverteilungen R(a, b).
Kapitel 8
Momente einer univariaten
Verteilung
Erwartungswert und h
ohere Momente
Der Verteilung FX einer Zufallsvariablen X werden Zahlen, sogenannte Verteilungsparameter, zugeordnet, die die Lage der Verteilung auf der reellen Achse,
ihre Streuung und ihre weitere Form widerspiegeln. Sei im folgenden X eine stetige oder diskrete Zufallsvariable, und f ihre Wahrscheinlichkeitsfunktion.
8.1
1. F
ur eine Funktion h : IR IR definiert man
P
falls X diskret,
i h(xi )f (xi ),
E(h(X)) =
R
(x )2 f (x)dx.
Oktober 2013
52
8.2
Satz
R
(2) EX = [1 F (x)]dx, sofern X 0 fast sicher.
0
1 r
r
r
r r
Falls X eine diskrete Verteilung besitzt, ist E(X ) die aus Rechtecken bestehende Flache rechts von minus der links von . Also sind wegen E(X ) = 0 die
beiden Flachen gleich, und die Flache unter dem Graph der Uberlebensfunktion
ist gleich der des Rechtecks mit Basis und Hohe 1, betragt also .
Falls X stetig verteilt ist, beweist man (2) mit partieller Integration; ebenso
P
2i = 1. Die Verteilung tritt bei folgendem
te Verteilung definiert; denn
i=1
X
i=1
2i 2i = .
ERWARTUNGSWERT UND HOHERE
MOMENTE
53
2. Cauchy-Verteilung:
1 1
, x IR,
1 + x2
ist die Dichte der Cauchy-Verteilung. Obwohl sie symmetrisch zu c = 0 ist,
existiert der Erwartungswert nicht, da
Z
1 1
=
dx
x
2
1 + x
Z
Z
1 0
1 x
x
=
dx +
dx
1 + x2
0 1 + x2
f (x) =
und das zweite Integral den Wert plus unendlich annimmt, das erste jedoch
den Wert minus unendlich.
3. Wenn ein k-tes Moment (gewohnlich oder zentral) existiert und endlich ist,
dann existieren auch alle niedrigeren (gewohnlichen und zentralen) Momente. 0k existiert und ist endlich genau dann, wenn k existiert und endlich ist.
F
ur die St.Petersburger Verteilung und die Cauchy-Verteilung folgt daraus,
dass sie keine endlichen hoheren Momente, z.B. Varianzen, besitzen.
4. Wenn der Trager beschrankt ist, besitzt die Verteilung endliche Momente
beliebiger Ordnung.
5. Wenn eine Verteilung symmetrisch zu c ist und einen endlichen Erwartungswert besitzt, dann ist dieser offenbar gleich c. Die Symmetrie der Verteilung
ist jedoch nicht hinreichend f
ur die Existenz eines endlichen Erwartungswertes, wie die Cauchy-Verteilung zeigt.
.
Zum Beispiel ist die stetige Gleichverteilung R(a, b) symmetrisch zu c = a+b
2
Da der Trager beschrankt ist, T = [a, b], existiert ein endliches , also ist
= c.
8.3
Schiefe und W
olbung
3
3
2 :=
4
4
Sei Y = + X, > 0. Die Momente von Y ergeben sich in einfacher Weise aus
denen von X. Zunachst gilt f
ur den Erwartungswert
E(Y ) = E( + X) = + E(X),
54
ferner f
ur das k-te zentrale Moment
k (Y ) = E (Y E(Y ))k = E ( + X E(X))k
= k E (X E(X))k
= k k (X).
Speziell f
ur Varianz, Standardabweichung, Schiefe und Wolbung erhalten wir
V ar(Y )
(Y )
1 (Y )
2 (Y )
2 V ar(X),
(X),
1 (X),
2 (X).
=
=
=
=
Ein Verteilungsparameter ist eine Funktion, die jeder Verteilung (aus einer
gewissen Menge von Verteilungen) eine Zahl zuordnet. Die gewohnlichen und die
zentralen Momente sowie Schiefe und Wolbung sind Verteilungsparameter. Ein
Verteilungsparameter heit lageinvariant, wenn (FX ) = (FX+ ) gilt f
ur jedes
IR. heit skaleninvariant, wenn (FX ) = (FX ) gilt f
ur jedes > 0. Zum
Beispiel sind alle zentralen Moment und die Standardabweichung lageinvariant;
Schiefe und Wolbung sind auerdem skaleninvariant.
8.6
Satz (Formeln fu
r zentrale und nichtzentrale Momente)
0k
k
X
k
j=0
kj j ,
k
X
j k
0kj j .
=
(1)
j
j=0
Pn
k=0
n
k
ak bnk .
Speziell f
ur k = 2, 3, 4 liefert der Satz die Formeln:
0 1
2 2
0 0
1 2
0 2
00 2
1 + (1)
2 + (1)
2 = (1)
2
1
0
0
2
2
0
2
= 2 2 + = 2 ,
2 = E(X 2 ) (E(X))2 ,
3 = 03 302 + 23,
4 = 04 403 + 6022 34 .
SPEZIELLE VERTEILUNGEN55
BERECHNUNG VON VERTEILUNGSPARAMETERN FUR
(1 )
2
4
(1 )3 + 3
=
=
.
4
(1 )
8.8
1
2
F
ur X Exp() und k IN gilt mit partieller Integration:
0k
0k
xk ex dx
0
Z
k x
= [x e ]0 +
=
k 0
, also
=
k1
k!
= k.
kxk1 ex dx
56
Es folgt = 01 = 1 , 02 =
2
= 2
2
.
2
3 =
4 =
=
1 =
2
1
1
= 2,
1
,
6
6
2
2
03 302 + 23 = 3 3 + 3 = 3 ,
0
0
0 2
4
4 43 + 62 3
24 24 12
3
9
=
,
4 4 4 4
4
3
4
= 2, 2 = 4 = 9.
3
=
2
Die Schiefe der Exponentialverteilung ist positiv. Allgemein weist, bei unimodalen
Verteilungen, eine positive Schiefe darauf hin, dass die Dichte rechtsschief und
linkssteil ist.
Geometrische V. G()
Hypergeometrische V.
H(n, N, M )
Parameterbereich
>0
0<<1
0 M N, 0 n N
Trager
k {0, 1, . . . , n}
k {0, 1, . . . }
k {1, 2, . . . }
k {max(0, n+M N ),
. . . , min(M, n)}
e k!
(1 )k1
(Mk )(NM
nk )
(Nn )
nM
N
Wahrscheinlichkeitsfunktion
k (1 )nk
n(1 )
1
2
2
1
1
2
mod
n
k
12
n(1)
6
n
1
n(1)
[(n + 1)]
3+
[]
9+
(1
nM
N
M N n
)
N N 1
2
1
(M +1)(n+1)
N +2
SPEZIELLE VERTEILUNGEN
VERTEILUNGSPARAMETER FUR
Poisson-V. P o()
57
8.9 Ubersicht
u
ber die wichtigsten univariaten Verteilungen und ihre
Parameter.
Diskrete Verteilungen
Binomial-V. B(n, )
Verteilung
IR, > 0
IR, > 0
a, b IR, a < b
>0
Trager
IR
[0, )
[a, b]
[0, )
Dichte
2
1
1 e 2 2 (x)
2
12 (ln x)2
2
1
e
2x
1
ba
ex
Momente
k
Q
(2i 1)
2k = 2k
i=1
2k1 = 0
k2 2
2
0k = ek+
1
2k1 = 0
e+ 2
e2+ (e 1)
med
mod
1
2k = k+1
1
(a
2
1
(b
12
e 2 1(e + 2)
1
(a
2
2
ba k
2
0k =
+ b)
a)2
1
2
9
5
+ b)
Alle x [a, b]
k!
k
ln 2
0
Parameterbereich
Rechteck-V. R(a, b)
58
Exponential-V.
Exp()
Normal-V. N (, 2 )
Stetige Verteilungen I
Lognormal-V.
LN (, 2 )
Verteilung
Weibull-V. W (, a)
Cauchy-V. C(, )
Parameterbereich
b, p > 0
, a > 0
IR, > 0
IR, > 0
Trager
[0, )
[0, )
IR
IR
Dichte
bp bx p1
e x
(p)
|x|
1
e
2
1
2 +(x)2
Momente
0k =
x
axa1 (
e )
a
(k+p)
bk (p)
p
b
p
b2
2
p
3+
0k = k 1 +
1 +
1
a
k
a
a+1 2
2 (( a+2
a ) ( a ) )
6
p
a
ln 2
med
mod
p1
,
b
0,
p1
p<1
a 1 a1 , a 1
0,
a<1
2k = (2k)! 2k
2k1 = 0
Existiert nicht
Existiert nicht
2 2
Existiert nicht
Existiert nicht
Existiert nicht
59
(x) bezeichnet
die sogenannte Gammafunktion. F
ur x > 0 ist die Gammafunktion definiert durch
R
(x) = 0 tx1 et dt. F
ur n IN gilt (n) = (n 1)!.
SPEZIELLE VERTEILUNGEN
VERTEILUNGSPARAMETER FUR
Gamma-V.
Gam(b, p)
Stetige Verteilungen II
Verteilung
Parameterbereich
p, q > 0
p, q > 0
IR, > 0
, c > 0
[0, 1]
[0, )
IR
[c, )
Trager
Dichte
Momente
1
xp1 (1
B(p,q)
B(k+p,q)
B(p,q)
0k =
xp1
1
B(p,q) (1+x)p+q
x)q1
0k
p
p+q
p
,
q1
pq
(p+q)2 (p+q+1)
p(p+q1)
,
(q1)2 (q2)
2(qp)
p+q+2
q>1
q>2
p+q+1
pq
g=
y=
Pareto-V. P ar(, c)
,
3
x
0k =
c +1
x
ck
,
k
k<
c
,
1
c2
,
(1)2 (2)
>2
2(+1) 2
,
(3)
>3
>1
4.2
med
mod
gegy
,
(1+egy )2
B(k+p,qk)
, k<q
B(p,q)
Logistische V.
L(, 2 )
p1
,
p+q2
p, q 1,
p+q >2
p1
,
q+1
p>1
sonst
c 2
Beta-V. 2. Art
Beta2 (p, q)
60
Beta-V. 1. Art
Beta1 (p, q)
Verteilung
SPEZIELLE VERTEILUNGEN
VERTEILUNGSPARAMETER FUR
8.10
61
E (|X|r )
r
f
ur alle > 0, r > 0.
Beweis (f
ur X stetig):
r
E (|X| ) =
IR
|x|r f (x)dx
Z
|x| f (x)dx +
{x| |x|<}
r
0 + P (|X| )
|x|r f (x)dx
{x| |x|}
2
f
ur alle ,
2
1
.
2
Speziell ist die Wahrscheinlichkeit, dass X um hochstens die doppelte Standardabweichung von seinem Erwartungswert abweicht, mindestens gleich 34 . F
ur die
8
dreifache Standardabweichung ist diese Wahrscheinlichkeit mindestens 9 . Dies
gilt f
ur beliebig verteilte Zufallsvariablen, deren Standardabweichung endlich ist.
62
Kapitel 9
Gemeinsame Verteilungen von
Zufallsvariablen
Multivariate Verteilungen
Seien X und Y Zufallsvariablen auf dem Wahrscheinlichkeitsraum (, A, P ).
9.1
Gemeinsame Verteilungsfunktion
Man definiert
F (x, y) = P (X x, Y y)
= P ({ | X() x, Y () y}) .
Die Funktion F : IR2 [0, 1] heit gemeinsame Verteilungsfunktion von X und
Y oder auch Verteilungsfunktion des Zufallsvektors (X, Y ) in IR2 .
Die gewohnliche Verteilungsfunktion FX von X erhalt man aus der gemeinsamen
Verteilungsfunktion durch den Grenz
ubergang
FX (x) = P (X x) = lim P (X x, Y y)
y
und ebenso die Verteilungsfunktion FY von Y durch FY (y) = lim F (x, y). FX
x
Oktober 2013
Falls (X, Y ) nur endlich oder abzahlbar viele Wertepaare mit positiver Wahrscheinlichkeit annimmt, (xi , yj ) IR2 , i = 1, 2, . . . , j = 1, 2, . . . , haben X und Y
eine gemeinsame diskrete Verteilung; kurz: (X, Y ) ist diskret verteilt. Dann sind
die Randwahrscheinlichkeiten durch
P (X = xi ) =
P (X = xi , Y = yj ), i = 1, 2, . . .
und
P (Y = yj ) =
P (X = xi , Y = yj ), j = 1, 2, . . . ,
P (X = xi , Y = yj )
,
P (Y = yj )
Beispiel
= 1,
= 0,
= 1,
= 0,
Y
Y
Y
Y
= 1)
= 1)
= 0)
= 0)
=
=
=
=
2,
(1 ),
(1 ),
(1 )2 .
1,
x 1 und y 1,
x 1 und 0 y < 1,
1 ,
1 ,
0 x < 1 und y 1,
F (x, y) =
(1
)
,
0 x < 1 und 0 y < 1,
0,
x < 0 oder y < 0.
65
MULTIVARIATE VERTEILUNGEN
y
0
1
s
(1 )2
1
s
- x
0
1
1
FX (x) = lim F (x, y) =
y
falls x 1
falls 0 x < 1
falls x < 0
Zwei Zufallsvariable X und Y heien gemeinsam stetig verteilt (man sagt auch,
das Paar (X, Y ) sei stetig verteilt), wenn sich ihre gemeinsame Verteilungsfunktion F als Stammfunktion einer Funktion f schreiben lasst, d.h. wenn es eine
Funktion f : IR2 IR gibt, so dass
Z y Z x
F (x, y) =
f (u, v) du dv.
f heit
ur Mengen B in IR2 gilt P ((X, Y )
R Rgemeinsame Dichte von X und Y . F
f (x, y)dx dy und speziell f
ur Rechtecke
B) =
B
P (1 X 1 , 2 Y 2 ) =
f (x, y)dx dy
Bis auf mogliche Ausnahmepunkte (die auf hochstens abzahlbar vielen Geraden
in IR2 liegen) gilt dann
2
F (x, y) .
f (x, y) =
x y
R
R
Die Funktionen fX (x) = f (x, y)dy und fY (y) = f (x, y)dx heien
Randdichten; offenbar ist fX die Dichte von X und fY die von Y .
Durch
f (x, y)
,
falls fY (y) 6= 0,
fX|Y =y (x) =
fY (y)
Beispiel
Wir betrachten die Gleichverteilung auf dem Rechteck [0, 1] [5, 10]. Sie hat die
Dichte
1
, falls 0 < x < 1 und 5 < y < 10,
5
f (x, y) =
0 sonst.
Ihre Randdichten fX und fY sind die der stetigen Gleichverteilung auf [0, 1] bzw.
[5, 10]. F
ur die bedingte Dichte von X bzgl. Y = 6 gilt:
1, falls 0 < x < 1,
fX|Y =6 (x) =
0 sonst.
9.6
Unabh
angigkeit zweier Zufallsvariablen
n-variate Verteilungen, n 2
F
ur mehr als zwei Zufallsvariablen X1 , . . . , Xn definiert man die gemeinsame Verteilungsfunktion F : IRn [0, 1], F (x) = F (x1 , x2 , . . . , xn ) = P (X1 x1 , X2
x2 , . . . , Xn xn ). Der Zufallsvektor X = (X1 , . . . , Xn ) ist stetig, wenn es eine
Dichte f gibt mit
Z x1
Z xn
f (t1 , . . . , tn )dt1 . . . dtn ,
...
F (x1 , . . . , xn ) =
67
MULTIVARIATE VERTEILUNGEN
also
n
F (x1 , ..., xn )
f (x) = f (x1 , ..., xn ) =
x1 ...xn
bis auf Ausnahmestellen.
Stochastisch unabhangig nennt man die Zufallsvariablen X1 , ..., Xn (oder den
Zufallsvektor X), wenn
F (x1 , ..., xn ) = F1 (x1 ) ... Fn (xn ).
Hier bezeichnet Fi die Randverteilungsfunktion von Xi . Im stetigen Fall lautet
die Bedingung
f (x1 , ..., xn ) = f1 (x1 ) ... fn (xn )
mit den Randdichten fi . (Man u
berlege sich, dass aus der stochastischen Unabhangigkeit von X1 , ..., Xn die stochastische Unabhangigkeit jeder Auswahl
Xi1 , ..., Xik aus diesen Variablen folgt.)
Wenn n 3 ist, treten nicht nur univariate sondern auch multivariate Randverteilungen auf. Bedingte Dichten sind Funktionen eines Teils der Variablen,
wahrend die u
brigen Variablen durch die Bedingung festgelegt sind.
Also, z.B. mit n = 3,
fX1 |(X2 ,X3 )=(x2 ,x3 ) (x1 ) =
f (x1 , x2 , x3 )
,
fX2 X3 (x2 , x3 )
d. abgek
urzt.
Anwendung in der statistischen Inferenz In der schlieenden Statistik fasst
man wiederholte Beobachtungen eines bestimmten Merkmals als Realisationen
von identisch verteilten Zufallsvariablen auf: Die Beobachtungen x1 , x2 , . . . , xn
sind Werte der identisch verteilten Zufallsvariablen X1 , X2 , . . . , Xn . Meistens trifft
man zusatzlich die Annahme, dass die n Zufallsvariablen stochastisch unabhangig
sind. Man nennt dann X1 , X2 , . . . , Xn eine (einfache) Stichprobe. Die gemeinsame Wahrscheinlichkeitsverteilung der X1 , X2 , . . . , Xn ist das stochastische Modell
der Beobachtungen; diese Verteilung wird als nur zum Teil bekannt vorausgesetzt.
Auf Grund der realisierten Werte der Stichprobe werden nun unbekannte Parameter des Modells geschatzt bzw. Hypothesen u
ber das Modell verworfen oder
Stochastische Unabh
angigkeit bei Transformation
Wenn X und Y stochastisch unabhangig sind, sind auch beliebige Transformationen g(X) und h(Y ) stochastisch unabhangig. Allgemein gilt der folgende Satz.
Satz Seien U = g(X1 , ..., Xn ) und V = h(Y1 , ..., Ym ) Zufallsvariablen oder vektoren. Wenn die m + n Zufallsvariablen X1 , ..., Xn , Y1, ..., Ym stochastisch unabhangig sind, dann sind auch U und V stochastisch unabhangig.
Beispiel Sind X, Y und Z unabhangig, dann sind auch X+Y und Z 2 unabhangig.
9.9
Gegeben sei der Zufallsvektor (X1 , ..., Xn ) = X. Man definiert den geordneten
Zufallsvektor X() = (X(1) , ..., X(n) ), wobei X(1) den kleinsten Wert von X1 , ..., Xn
bedeutet, X(2) den zweitkleinsten, und so fort. In vielen Anwendungen - etwa
der Lebensdaueranalyse - ist es von Interesse wie das Minimum X(1) und das
Maximum X(n) verteilt sind. Falls die X1 , ..., Xn unabhangig identisch verteilt
sind, erhalten wir
P (X(n) x) =
=
=
P (X(1) > x) =
=
P (X(1) x) =
9.10
P (Xi x f
ur alle i)
P (X1 x) ... P (Xn x)
[F1 (x)]n ,
P (Xi > x f
ur alle i)
n
[1 F1 (x)] ,
1 [1 F1 (x)]n .
Beispiel
Die Verteilung des diskreten Zufallsvektors (X, Y ) werde durch folgende Tabelle
der Einzelwahrscheinlichkeiten pij = P (X = xi , Y = yj ) gegeben.
pij
X=1
2
3
Y =
0
0.1
0.2
0.3
0.6
1
0.0
0.3
0.1
0.4
69
0.1
0.5
0.4
1.0
Die Rander enthalten die Zeilen- und Spaltensummen, das sind die Randwahrscheinlichkeiten von X bzw. Y . Wir suchen die Verteilung der Zufallsvariablen
Z := X + Y. F
ur die Wahrscheinlichkeiten von Z gilt allgemein
X
P (Z = z) =
P (X = xi , Y = z xi ), z IR,
i
also hier
zi 1
2
3
4
P (Z = zi ) 0.1 0.2 0.6 0.1
F (zi ) 0.1 0.3 0.9 1.0
9.11
Falls X und Y gemeinsam diskret verteilt sind, berechnet man die Verteilung von
Z = X + Y wie im vorigen Beispiel. F
ur gemeinsame stetig verteilte X und Y
gilt der folgende Satz.
Satz Sei f die Dichte von (X, Y ). Dann sind X + Y und X Y stetig verteilt
mit den Dichten
Z
fX+Y (z) =
f (x, z x) dx,
Z
fXY (z) =
f (x, x z) dx.
Beispiel
f (x, z x)dx =
1dx, wobei
B(z)
falls 0 < z 1,
]0, z[,
]z 1, 1[, falls 1 < z < 2,
=
sonst.
falls 0 < z 1,
z,
2 z, falls 1 < z < 2,
fX+Y (z) =
0
sonst.
Kapitel 10
Momente bei mehreren
Zufallsvariablen
Erwartungswerte und Kovarianzen
10.1
Multivariater Erwartungswert
Der bivariate Fall n = 2 ist auch hier der wichtigste, so dass wir uns im folgenden zumeist auf ihn beschranken. Seien also X und Y gemeinsam verteilte
Zufallsvariablen.
10.2
Satz
(1) E(X + Y ) = EX + EY ,
(2) E(X) = E(X) f
ur jedes IR,
(3) X Y
(3) P (X Y ) = 1
EX EY,
EX EY .
Oktober 2013
72
(1) und (2) bedeuten, dass der Erwartungswert additiv und homogen ersten Grades, also linear ist. (3) und das etwas allgemeinere (3) heien, dass der Erwartungswert monoton wachsend ist.
Beweis von (1): Im diskreten Fall sei zur Abk
urzung pij := P (X = xi , Y = yj )
gesetzt. Dann ist
XX
E(X + Y ) =
(xi + yj )pij
i
XX
X
xi
xi pij +
XX
i
pij +
yj pij
yj
xi P (X = xi ) +
pij
yj P (Y = yj )
= EX + EY
cov(X, Y ) = 0, var(X + Y ) =
73
var(X + Y ) = E (X + Y E(X + Y ))2
= E (X EX + Y EY )2
= E (X EX)2 + (Y EY )2 + 2(X EX)(Y EY )
= E (X EX)2 + E (Y EY )2 + 2E (X EX)(Y EY )
= varX + varY + 2cov(X, Y )
(3) und (4) sind offensichtlich, (2) und (5) rechnet man ahnlich wie (1) aus.
(6): Sei (X, Y ) stetig verteilt und unabhangig. Dann ist f (x, y) = fX (x) fY (y),
E(X Y ) =
R R
xfX (x)dx
Definition (X, Y ) =
Y.
cov(X, Y )
Satz
(1) 1 (X, Y ) 1.
(2) (X, Y ) = 1
(3) (X, Y ) = 1
74
10.5
Definition F
ur einen Zufallsvektor X = (X1 , ..., Xn ) heit
E(X) =
Cov(X) =
Cor(X) =
varX1
cov(X1 , X2 )
cov(X2 , X1 )
varX2
..
..
.
.
cov(Xn , X1 ) cov(Xn , X2 )
1
(X1 , X2 )
(X2 , X1 )
1
..
..
.
.
(Xn , X1 ) (Xn , X2 )
. . . cov(X1 , Xn )
. . . cov(X2 , Xn )
..
..
.
.
...
varXn
. . . (X1 , Xn )
. . . (X2 , Xn )
..
..
.
.
...
1
Kovarianzmatrix von X,
Korrelationsmatrix von X.
Cov(X) und Cor(X) sind symmetrische Matrizen; auerdem sind sie nichtnegativ definit.1
Zahlenbeispiel Im vorigen Beispiel erhalt man
E(X) = (2.3, 0.4) ,
0.41 0.02
,
Cov(X) =
0.02 0.24
1
0.06376
.
Cor(X) =
0.06376
1
Bedingte Erwartungswerte
In 9.4 wurde bereits bemerkt, dass die bedingte Dichte von Y , gegeben X = x, die
Dichte einer Zufallsvariablen darstellt. Deren Erwartungswert wird als bedingter
Erwartungswert von Y , gegeben X = x, bezeichnet; im Symbol E(Y |X = x).
Entsprechendes wird f
ur gemeinsam diskret verteilte Y und X definiert:
Definition
P
y P (Y = yi |X = x),
E(Y |X = x) = R i i
yfY |X=x (y)dy,
75
yi
yi
P (X = xj )P (Y = yi|X = xj )
P (Y = yi , X = xj )
yi P (Y = yi)
= E(Y )
10.7
76
unter der Bedingung X = xi ; vgl. die Regression erster Art in der Deskriptiven
Statistik.
Satz F
ur jede Funktion h : IR IR gilt
E((Y h(X))2 ) E((Y E(Y |X))2 ) = E((Y gI (X))2 ).
Mit anderen Worten, die Regressionsfunktion erster Art liefert gegen
uber allen
anderen Funktionen von X den kleinsten erwarteten quadratischen Abstand zu
Y . Zwei wichtige Extremfalle bestehen darin, dass Y bereits selbst eine Funktion
von X ist, bzw. dass Y stochastisch unabhangig von X ist:
Folgerungen
(1) Falls Y = h(X) ist, gilt E(Y |X = x) = h(x) f
ur alle x; d.h. die Regressionsfunktion erster Art ist gleich h.
(2) Falls Y und X stochastisch unabhangig sind, ist der bedingte Erwartungswert gleich dem gewohnlichen Erwartungswert, also E(Y |X = x) = E(Y )
f
ur alle x. Aus (1) folgt dann, dass die Regressionsfunktion erster Art konstant ist und gleich dem Erwartungswert von Y .
10.8
Bedingte Varianz
Definition
P
2
heit bedingte Varianz von Y , gegeben X = x. Mit var(Y |X) bezeichnet man
die Zufallsvariable, die den Wert var(Y |X = x) annimmt, wenn X den Wert
x annimmt. Sie heit bedingte Varianz von Y unter X. Analog zum Satz vom
iterierten Erwartungswert ist
E(var(Y |X)) = E(E((Y E(Y |X))2|X)
= EX,Y ((Y E(Y |X))2 ) .
(Man beachte, dass in der ersten Zeile sich die beiden aueren, nicht bedingten
Erwartungswerte auf X beziehen, der in der Klammer stehende, nicht bedingte
Erwartungswert auf Y . In der zweiten Zeile wird der Erwartungswert bez
uglich
der gemeinsamen Verteilung von X und Y gebildet.)
77
=
=
=
=
=
Bei der Regression zweiter Art wird der mittlere Wert von Y durch eine affinlineare Funktion von X wie folgt beschrieben.
Definition Die Funktion gII : T (X) IR, gII (x) = a + bx, wobei
b=
cov(X, Y )
,
var(X)
a = E(Y ) bE(X),
78
Kapitel 11
Spezielle multivariate
Verteilungen
Multinomialverteilung
11.1
Die Multinomialverteilung
Man verallgemeinert die Binomialverteilung (siehe 6.2) auf mehr als zwei Ereignisse wie folgt. Ein Experiment, bei dem k verschiedene Ergebnisse mit Wahrscheinlichkeiten 1 , . . . , k auftreten konnen, wird n-mal unabhangig voneinander
durchgef
uhrt.
P (X1 = r1 , . . . , Xk = rk ) gebe die Wahrscheinlichkeit an, dass genau rj -mal das
Ergebnis Aj auftritt (f
ur j = 1, 2, . . . , k). X = (X1 , . . . , Xk ) ist dann ein diskreter
Zufallsvektor in IRk , f
ur den gilt
P (X1 = r1 , . . . , Xk = rk ) =
n!
r1 . . . krk ,
r1 ! . . . rk ! 1
P
Pk1
j , rj {0, 1, . . . , n} f
ur alle j, kj=1 rj =
wobei j 0 f
ur alle j, k = 1 j=1
n, n IN. X heit multinomialverteilt mit Parametern n, 1 , . . . , k1 ; kurz:
X MN(n, 1 , . . . , k1 ). Die VerteilungPwird Multinomialverteilung oder auch
Polynomialverteilung genannt. Es gilt P ( kj=1 Xj = n) = 1.
Speziell f
ur k = 2 erhalt man den Vektor X = (X1 , X2 ) mit X1 B(n, 1 ),
X2 B(n, 2 ) und X2 = n X1 fast sicher.
Anwendung Beobachtung eines klassierten Merkmals durch Zufallsziehung aus
einer Grundgesamtheit.
Aus dem Experiment ist klar, dass jede univariate Randverteilung eine Binomialverteilung ist, Xj B(n, j ) f
ur j = 1, . . . , k. Daher ist E(Xj ) = nj
Mosler: Stochastische Modelle
c Karl Mosler K
oln 2013
Oktober 2013
80
i j
(1 i )(1 j )
12
Multivariate Normalverteilung
11.2
1
p
1 2 "
2
2 #!
x X
y Y
(x X )(y Y )
1
+
,
2
exp
2(1 2 )
X
X Y
Y
2X Y
2
x, y IR, besitzen. Im Symbol (X, Y ) N(X , Y , X
, Y2 , ).
2
Dabei sind X und Y IR, X
und Y2 > 0, 1 1. Die f
unf Parameter der bivariaten Normalverteilung haben folgende Bedeutung: X = E(X),
2
Y = E(Y ), X
= var(X), Y2 = var(Y ), = (X, Y ). Es gilt deshalb
cov(X, Y ) = X Y , vgl. die Definition der Kovarianz in 10.3. Die Randverteilungen sind gewohnliche Normalverteilungen
2
X N(X , X
),
Y N(Y , Y2 ) .
F
ur gemeinsam normalverteilte Zufallsvariablen gilt, dass die Unabhangigkeit mit
der Unkorreliertheit zusammenfallt. Falls namlich = 0 ist, haben wir
"
2
2 #!
1
1
x X
y Y
f (x, y) =
exp
+
2X Y
2
X
Y
!
2
2 !
1 x X
1 y Y
1
1
exp
exp
=
2
X
2
Y
2X
2Y
= fX (x) fY (y),
aus der Unkorreliertheit folgt also bei Normalverteilung, dass X und Y stochastisch unabhangig sind. Die Umkehrung, dass aus der Unabhangigkeit = 0 folgt,
gilt f
ur beliebige Verteilungen, vgl. 10.4.
81
MULTIVARIATE NORMALVERTEILUNG
cov(X, Y )
Y
= ,
var(X)
X
a = Y bX .
Man sieht, dass gII (x) = E(Y |X = x) = gI (x) ist, also die Regressionen 1. und
2. Art u
bereinstimmen.
Eine weitere wichtige Eigenschaft ist, dass die Summe, die Differenz und allgemeiner jede Linearkombination von normalverteilten Variablen wieder normalverteilt ist. Wir formulieren das als Satz:
2
Satz Sei (X, Y ) N(X , Y , X
, Y2 , ). Dann gelten die folgenden Aussagen:
11.3
X
Y
X
Man erhalt = B 0 B =
,
X Y
Y2
2
das ist die bivariate Normalverteilung aus 11.2, X N(X , Y , X
, Y2 , ).
82
Bivariate Exponentialverteilung
11.4
(1)
Diese Verteilung heit bivariate Exponentialverteilung; sie geht auf Marshall und
Olkin (1967) zur
uck. X und Y sind offenbar nicht unabhangig. Der Korrelationskoeffizient berechnet sich zu
(X, Y ) =
3
.
1 + 2 + 3
BIVARIATE EXPONENTIALVERTEILUNG
83
gilt; die gemeinsame Verteilung besitzt daher keine Dichte; sie ist weder eine
diskrete noch eine stetige Verteilung.
Anwendung: Competing risks.
84
Kapitel 12
Grenzwerts
atze
Schwaches Gesetz der groen Zahl
Grenzwertsatze u
ber Folgen von Zufallsvariablen benotigt man, um das Verhalten
eines Wahrscheinlichkeitsmodells auf lange Sicht zu charakterisieren. Will man
Sei X1 , X2 , X3 , . . . eine Folge von unabhangigen, identisch verteilten Zufallsvariablen, die den Erwartungswert = EXi und die endliche Varianz 2 = varXi
besitzen. Dann gilt f
ur jedes > 0
!
n
1 X
n
P
Xi 1.
n
i=1
Oktober 2013
KAPITEL 12. GRENZWERTSATZE
86
= E
EX
= var
var X
1X
1
=
EXi = n = ,
n i=1
n
!
n
n
1X
1
2
1 X
varXi = 2 n 2 = ,
Xi = 2
n i=1
n i=1
n
n
1X
Xi
n i=1
also
2
var X
=
1
.
2
n2
| ) = 1.
F
ur n erhalten wir limn P (|X
| ) = P (|X
E X|
) 1
P (|X
Bemerkungen
1. Eine aquivalente Formulierung des Schwachen Gesetzes ist: F
ur alle > 0
gilt:
| > ) = 0.
lim P (|X
n
Die relativen Haufigkeiten hn konvergieren in dieser Weise gegen die zugrundeliegende Wahrscheinlichkeit . Deshalb kann man einerseits
die Wahrscheinlichkeit eines Ereignisses durch die relativen Haufigkeiten eines Bernoulli-Experiments schatzen, andererseits
den Begriff der Wahrscheinlichkeit eines Ereignisses, der ja durch die
Kolmogoroffschen Axiome nur formal definiert ist, als eine Zahl interpretieren, die bei unabhangiger Wiederholung der Zufallssituation
nahe an den relativen Haufigkeiten des Ereignisses liegt.
87
= p limn Yn , falls f
ur jedes > 0
lim P (|Yn | ) = 1.
p lim Yn heit Wahrscheinlichkeitslimes der Folge (Yn ). Man sagt auch, dass
(Yn ) stochastisch gegen konvergiert. Zum Beispiel haben wir beim Schwachen
Gesetz der groen Zahl 12.1:
!
n
1X
Xi = EX,
p lim
n i=1
n
p lim hn = p.
n
= p lim Yn + p lim Zn ,
= p lim Yn p lim Zn ,
= p lim Yn p lim Zn ,
=
p lim Yn
,
p lim Zn
Satz
Hinreichend f
ur p lim Yn = ist jede der folgenden drei Bedingungen.
(i) limn varYn = 0 und limn EYn = .
(ii) limn Yn () = f
ur alle .
(iii) P ({| limn Yn () = }) = 1.
KAPITEL 12. GRENZWERTSATZE
88
Bedingung (ii) ist die punktweise Konvergenz der Folge der Funktionen Yn : In
jedem Punkt konvergiert die Folge der Zahlen Yn () gegen den Grenzwert .
Bedingung (iii) ist demgegen
uber etwas schwacher. Hier wird lediglich verlangt,
dass die Menge der Punkte, an denen die Folge der Zahlen Yn () gegen den
Grenzwert konvergiert, die Wahrscheinlichkeit 1 besitzt. Wenn die Bedingung
(ii) erf
ullt ist, ist diese Menge gleich . Wegen P () = 1 folgt daraus nat
urlich,
dass die Bedingung (iii) erf
ullt ist. Bedingung (ii) wird als sichere Konvergenz,
Bedingung (iii) als fast sichere Konvergenz bezeichnet. Man schreibt f
ur (iii) auch:
lim Yn = fast sicher.
Beim Beweis des Schwachen Gesetzes der Groen Zahl 12.1 haben wir gesehen,
= f
=
= limn 2 = 0 und E X
ur alle n, also limn E X
dass limn var X
n
gilt. Dies entspricht der Bedingung (i).
Das Schwache Gesetz der groen Zahl gilt nicht nur f
ur das Stichprobenmittel und
den Erwartungswert, sondern auch f
ur alle hoheren (zentralen und nichtzentralen)
Momente:
12.4
Satz Sei X1 , X2 , X3 , . . . eine Folge unabhangiger, identisch verteilter Zufallsvariablen. Dann gilt f
ur k IN
(1) p limn
1
n
(2) p limn
1
n
Pn
i=1
Pn
Xik = 0k ,
i=1 (Xi
k = k ,
X)
sofern das 2k-te zentrale Moment 2k von Xi existiert und endlich ist.
Beweis Offenbar ist 0k = E(Xik ). Teil (1) des Satzes folgt aus dem Schwachen
Gesetz 12.1 angewandt auf die Folge X1k , X2k , X3k , . . .; Teil (2) erhalt man dann
mit Satz 8.3 (ii) und den Rechenregeln f
ur den Wahrscheinlichkeitslimes.
12.5
Die Gesetze der groen Zahl 12.1 und 12.4 bleiben richtig, wenn man darin die
schwache Konvergenz durch die starke, d.h. fast sichere Konvergenz ersetzt. Das
ist das Starke Gesetz der groen Zahl. Einen Beweis findet man in weiterf
uhrenden
Lehrb
uchern, etwa Chow und Teicher (1978).
Satz Sei X1 , X2 , X3 , . . . eine Folge von unabhangigen, identisch verteilten Zufallsvariablen, die den Erwartungswert = EXi und die endliche Varianz 2 = varXi
besitzen. Dann gilt
89
1X
Xi =
n n
i=1
lim
fast sicher.
Satz Sei X1 , X2 , X3 , . . . eine Folge unabhangiger, identisch verteilter Zufallsvariablen. Dann gilt f
ur k IN
(1) limn
(2) limn
1
n
Pn
i=1
Pn
1
Xik = 0k
i=1 (Xi
fast sicher,
k = k
X)
fast sicher,
sofern das k-te zentrale Moment k von Xi existiert und endlich ist.
12.6
Bislang haben wir die Konvergenz einer Folge von Zufallsvariablen gegen eine
konstante Zahl betrachtet. Als nachstes wollen wir nun die Konvergenz auch
gegen eine Zufallsvariable zulassen. Eine solche Konvergenzaussage ist Inhalt des
Zentralen Grenzwertsatzes.
Definition Sei Y1 , Y2 , Y3 , . . . eine Folge von Zufallsvariablen und Z eine weitere
Zufallsvariable. Fn bezeichne die Verteilungsfunktion von Yn , F0 die von Z. Man
sagt, dass die Folge (Yn ) nach Verteilung gegen die Zufallsvariable Z konvergiert,
wenn
lim Fn (y) = F0 (y),
n
d.h.
lim P (Yn y) = P (Z y)
f
ur alle Punkte y IR gilt, in denen F0 stetig ist.
12.7
Die obigen Definitionen lassen sich auch auf den Fall erweitern, dass der Grenzwert eine Zufallsvariable ist. Eine Folge (Y1 , Y2 , Y3 , . . .) von Zufallsvariablen konn.W.
vergiert nach Wahrscheinlichkeit gegen eine Zufallsvariable Z, Yn Z, wenn
p lim(Yn Z) = 0
n
f.s.
KAPITEL 12. GRENZWERTSATZE
90
(i)
f.s.
Yn Z
n.W.
Yn Z
(ii)
f.s.
Yn Z
Die fast sichere Konvergenz zieht also die Konvergenz nach Wahrscheinlichkeit
nach sich. Sie ist aquivalent damit, dass der maximale Abstand des Endes der
Zentraler Grenzwertsatz
12.8
Zentraler Grenzwertsatz
Satz Sei X1 , X2 , X3 , . . . eine Folge unabhangiger, identisch verteilter Zufallsvariablen mit EXi = und 0 < varXi = 2 < . Dann konvergiert
Pn
Xi n
Un = i=1
n 2
nach Verteilung gegen eine standardnormalverteilte Variable Z.
Der Zentrale Grenzwertsatz ist ein Hauptgrund f
ur die groe Bedeutung der
Normalverteilung. Er besagt, dass die normierte und zentrierte Summe Un von
unabhangig identisch verteilten Variablen eine Wahrscheinlichkeitsverteilung
besitzt, die f
ur wachsendes n beliebig nahe der N(0, 1)-Verteilung ist.
Anders ausgedr
uckt, kann man f
ur eine nicht zu kleine Stichprobenlange n die
Pn
X
der
Stichprobenwerte
durch eine Zufallsvariable ersetzen, die
Summe
i
i=1
normalverteilt mit dem Erwartungswert n und der Varianz n 2 ist, und erhalt
ungefahr die gleiche Wahrscheinlichkeitsverteilung:
n
X
i=1
Xi
approx.
N(n, n 2 ).
ZENTRALER GRENZWERTSATZ
12.9
91
Ein
Pn wichtiger Spezialfall ist der, bei dem die Xi B(1, )-verteilt sind, also Y =
asst sich durch die Normalverteilung
i=1 Xi B(n, ). Die Verteilung von Y l
wie folgt approximieren.
Satz Sei Y B(n, ), 0 k < l n, k und l ganzzahlig. Dann ist
!
!
k 0.5 n
l + 0.5 n
p
,
P (k Y l) p
n(1 )
n(1 )
Ahnliches
gilt f
ur eine Poisson-verteilte Variable Y P o(). Y lasst sich als Summe von
unabh
a
ngig identisch Poisson-verteilten Variablen Xi auffassen, namlich
Pn
Y = i=1 Xi , Xi P o( n ). Es gilt deshalb:
92
Kapitel 13
Stochastische Prozesse
Definitionen und Beispiele
Im vorigen Paragraphen wurden Folgen von unabhangigen identisch verteilten Zufallsvariablen untersucht. Oft sind Beobachtungsdaten, insbesondere Zeitreihendaten, jedoch nicht unabhangig voneinander. Um auch Abhangigkeiten zwischen
zufalligen Beobachtungen zu modellieren, verwendet man stochastische Prozesse.
13.1
Stochastischer Prozess
Oktober 2013
94
13.2
n IN,
n
X
Xi .
i=1
Beispiele f
ur Prozesse mit unabhangigen und identisch verteilten Zuwachsen sind
die folgenden:
Beispiel 1 Ein Versicherer halt ein bestimmtes Portefeuille von Policen u
ber
einen langeren Zeitraum und rechnet am Ende jeder Woche ab. Das Ergebnis der
i-ten Woche wird durch die Zufallsvariable Xi ,
g mit Wahrscheinlichkeit ,
Xi =
v mit Wahrscheinlichkeit 1 ,
beschrieben, i = 1, 2, .P
. .; die Xi sind unabhangig. Nach n Wochen betragt das
Gesamtergebnis Sn = ni=1 Xi .
Eine typische Fragestellung bei einem solchen Prozess ist die nach der Ruinwahrscheinlichkeit: Wie gro ist die Wahrscheinlichkeit, dass in der n-ten Periode
(oder bis zur n-ten Periode) ein gegebenes Anfangskapital K aufgezehrt wird,
P (Sn + K < 0) bzw. P (inf 1in Si + K < 0)?
Beispiel 2 Bei einem Unternehmer gehen Auftrage ein. Sn sei der Zeitpunkt des
n-ten Auftrages. Xn ist dann die Zeitspanne zwischen zwei Auftragseingangen.
Haufig kann die Folge X1 , X2 , . . . als unabhangig und identisch verteilt angesehen
werden. Insbesondere gilt hier Xn 0 f
ur alle n, also 0 = S0 S1 S2 . . .
13.3
Random Walk
Wenn die Zuwachse Xn unabhangig und identisch verteilt sind und auerdem
E(Xi ) = 0 und E(Xi2 ) = 2 < gilt, nennt man den Prozess (Sn ) einen
einfachen Random Walk (deutsch: Irrfahrt). Dann ist E(Sn ) = 0, var(Sn ) = n 2
und nach dem Zentralen Grenzwertsatz Sn approximativ N(0, n 2 )-verteilt.
Anwendung Sei Yn ein spekulativer Preis zur Zeit n, etwa der Kassakurs einer
Aktie am Tag n. Die Random-Walk-Hypothese in ihrer starksten Form besagt,
dass der stochastische Prozess Yn , n = 0, 1, 2, . . . ein Random Walk ist.
95
Generation interpretieren. Generation kann sich auf die Fortpflanzung von Lebewesen beziehen, aber auch auf eine Folge von technischen Erfindungen, auf die
Weitergabe von Informationen, auf Zellteilungen oder auf Virus
ubertragungen.
Zu einem Erneuerungsprozess (Sn ) und t 0 betrachten wir die Zahl der Ereignisse bis zur Zeit t,
Nt = ]{n|Sn t}.
Nt ist eine Zufallsvariable mit Werten in IN0 . Es gilt N0 = 0 fast sicher und die
Monotonie
Ns Nt , falls s > t.
Kennt man die gemeinsame Verteilung der Nt (f
ur t 0) so kennt man auch die
der Sn (f
ur n IN0 ), da die Beziehung
Sn t
Nt n
d.h. ausf
uhrlicher
{Sn t} = {|Sn () t} = {|Nt() n} = {Nt n}
besteht.
13.5
F
ur jedes t 0 sei eine Zufallsvariable Zt definiert. (Zt )t0 heit stochastischer Prozess (in stetiger Zeit). Wenn der Zustandsraum gleich IN0 ist und
limt0 (Zt+t Zt ) 1 fast sicher gilt, heit (Zt ) Zahlprozess. Ein Beispiel f
ur
einen Zahlprozess ist der zu einem Erneuerungsprozess gehorige Prozess (Nt ).
Der wichtigste Zahlprozess ist der Poisson-Prozess.
96
Poisson-Prozess
13.6
n
xn1 ex
(n 1)!
x > 0.
(Ubung:
F
ur n = 2 durch Faltung ausrechnen.)
Jedes Nt ist Poisson-verteilt mit Parameter t; der Zuwachs Ns+t Ns u
ber das
Intervall ]s, s+t] ist ebenfalls Poisson-verteilt mit Parameter t, und die Zuwachse
u
ber disjunkte Intervalle sind stochastisch unabhangig:
(i) F
ur beliebige 0 t1 < t2 < . . . < tk sind die Zuwachse Ntk Ntk1 , Ntk1
Ntk2 , . . . Nt2 Nt1 stochastisch unabhangig.
m
, m IN0 .
(ii) F
ur beliebige s 0 und t > 0 ist P (Ns+t Ns = m) = et (t)
m!
Die Eigenschaft besagt, dass der Poisson-Prozess (Nt ) ein Prozess mit unabhangigen Zuwachsen ist. Aus (ii) folgt wegen N0 = 0, dass
P (Nt = m) = et
(t)m
m!
ist. Ferner sieht man, dass die Verteilung eines Zuwachses Ns+t Ns nur von
der Zeitdifferenz t aber nicht von s abhangt; ein Prozess mit unabhangigen
97
POISSON-PROZESS
Zuwachsen, der diese Eigenschaft besitzt, heit homogen. (i) und (ii) reichen
auch zur Charakterisierung des Poisson-Prozesses aus:
Satz Ein Zahlprozess (Nt )tIR+ ist genau dann ein Poisson-Prozess mit Parameter
, wenn seine Zuwachse Ns+t Ns stochastisch unabhangig und homogen gema
P o(t) verteilt sind.
13.7
Anwendung: Bedienungssystem
[ z0.95 , + z0.95 ].
bereits in Arbeit befindlichen Auftrags. Die Dauer D ist die Summe von zwolf un1
, var(D) = 12 3012 .
abhangigen Exp(30)-verteilten Variablen, also E(D) = 12 30
Die Dichte von D ist gleich der von S12 mit = 30, also
fD (x) =
3012 11 30x
x e
, x > 0.
11!
98
13.8
Eine Versicherung erhalte laufende Schadensmeldungen, die einem PoissonProzess mit der Rate folgen. Die Hohe der einzelnen Schaden sei zufallig, und
zwar unabhangig identisch verteilt und unabhangig von dem Prozess der Schadensmeldungen. Man untersuche den Gesamtschaden bis zur Zeit t.
Bezeichne Xi die i-te Schadenshohe, i IN, F ihre Verteilung, Nt die Zahl der
Meldungen bis zur Zeit t. Der Gesamtschaden bis zur Zeit t betragt dann
Zt =
Nt
X
Xi
i=1
t 0.
Ein solcher Prozess (Zt )t0 heit zusammengesetzter Poisson-Prozess mit Parametern und F . F
ur den Erwartungswert und die Varianz von Zt gilt:
E(Zt ) = t E(X1 ),
var(Zt ) = t E(X12 ).
Der mittlere totale Schaden ist also proportional dem mittleren Einzelschaden
und der Zeit. Die Varianz nimmt linear mit der Zeit zu. Man sieht dies wie folgt:
!
n
X
E(Zt |Nt = n) = E
Xi = n E(X1 ),
i=1
var(Zt ) =
=
=
=
=
Kapitel 14
Wiener-Prozesse
Brownsche Bewegung und allgemeiner WienerProzess
14.1
Wie wir in Abschnitt 13.3 gesehen haben, ist ein Random Walk in diskreter Zeit
ein stochastischer Prozess mit unabhangigen, identisch verteilten Zuwachsen, der
im Nullpunkt startet,
St =
S0 +
|{z}
=0 f.s.
t
X
i=1
(Si Si1 ),
| {z }
Xi i.i.d.
(1)
als ein Pfad des Prozesses bezeichnet. Ihr Graph lasst sich in der Ebene zeichnen.
F
ur festes t ist die Abbildung
7 St ()
IR
Mosler: Stochastische Modelle
c Karl Mosler K
oln 2013
(2)
Oktober 2013
100
eine Zufallsvariable.
F
ur k aufeinander folgende Zeitpunkte, 0 t0 < t1 < . . . tk , lasst sich Stk offenbar
so schreiben:
Stk = St0 + (St1 St0 ) + (St2 St1 ) + . . . + (Stk Stk1 )
= St0 +
k
X
i=1
(Sti Sti1 ) .
{z
}
|
i-ter Zuwachs
Definition (Brownsche Bewegung, Standard-Wiener-Prozess) Ein stochastischer Prozess (Zt )t0 heit Brownsche Bewegung oder Standard-WienerProzess, wenn folgendes gilt:
(i) Z0 = 0 fast sicher,
(ii) Zt N(0, t), t 0,
(iii) die Zuwachse sind unabhangig.
Der Name Brownsche Bewegung geht auf den Biologen Robert Brown zur
uck,
Zt +
|{z}
N (0,t)
(Z Z )
| t+r{z t}
N(0, t + r) .
unabh
angig von Zt , normalverteilt
1.0
0.5
0.0
0.5
1.0
1.5
.
...
.....
.... ...
.....
.......... .
.............. .. ....
........... .......
.. ....
......................... .......... .... ..............
..... ...... ..... .....
.
.
................ ... . ... ....
.. ...... ...... .... ....
.......
... ...............
.. ..
.
....... .......... ..
...
...... .
.. . .......
....
.............
......
.............. ...
....
..
........ ...............
.....
..... .....
.... ............ ....
....... ... ..............
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.... ... .. ... .....
..... ....
..... . ....
..... ...... ..
... ..
... ...... .....
..... ..... ... .
......
............
.... ............. .
.. ..... .
...
.
.
.........................
....
............. ......
.
.
.
.
..
.. . .
.......................................................................................................................................................................................................................................................................................................................................................................................................................................
.
....... ........... ......... .......
.. ....
.
.
......
. ......... .. .
.......
... ..
.
.
.
.
.......... ......
............. ..... .. ....
.. ....
.......... ... .... .. ..
...... ........
.... .....
.. ...... ..... .......
...... .....
....
......... ............
.... ....... ....
.....
..... ..........
...
...... ..............
....
. .... ...
..................
..
.
..
..........
... ...
...... . ....
............ .. .......... ....
........
..... ...............
...........
............. ........
..... .
... ..
..... ......
.
................
. ............
...
...
..
........
...
..........
...
... ... .
.......
........ ..... .......
.
.
..
... . .
..
..... ............. .....
..... ..
...
.. ...
... ....... .....
.............
.. ..............
... .. .... ...
.
.
.. .. .
.. ....
...........
......
..
0.0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1.0
102
Anwendungen:
Zt sei die Abweichung des Cash-Flow einer Firma von einem bestimmten
Niveau. (Ein negativer Cash-Flow entspricht einer Kreditaufnahme.)
Zt sei die Abweichung des Goldpreises vom langjahrigen Mittelwert.
14.2
Allgemeiner Wiener-Prozess
t 0,
f
ur alle r, t 0,
also auch f
ur kleine Zuwachse r = t, St = St+t St :
St N(0, 2 t)
St
N(0, 1).
St = t mit =
t
Wir betrachten die Irrfahrt auf der Zahlengeraden mit Start in 0: In jedem kleinen
Intervall t bewegt sich ein Teilchen um einen gewissen Betrag x nach rechts
oder links, und zwar jeweils mit der Wahrscheinlichkeit 1/2. Sei Xt der Ort des
Teilchens zur Zeit t. Wenn wir die Zeit von 0 bis t in n gleichgroe Abschnitte
t = nt unterteilen, so ist
Xt = x (Y1 + Y2 + . . . Yn ) ,
wobei Y1 , Y2 , . . . i.i.d. sind mit P (Yi = 1) = P (Yi = 1) =
Wegen EYi = 0 und varYi = E(Yi2 ) = 1 gilt
EXt = 0 und varXt = (x)2 n = (x)2
1
2
f
ur alle i IN.
t
.
t
Xt N(0, 2 t) .
Beispiel: Der Goldpreis am 12.1.98 in London betragt 278.90$ pro Feinunze.
Wir nehmen an, dass der Goldpreis einen Wiener-Prozess mit = 1.5 bildet. Die
Zeiteinheit sei hierbei ein Tag. Gesucht ist die Wahrscheinlichkeit, dass der Preis
nach 30 Tagen (bzw. 60 Tagen)
a) den Wert 290 u
berschreitet,
b) den Wert 265 unterschreitet.
L
osung: Sei St der Goldpreis nach t Tagen. Dann ist
St N(, 2 t) mit = 278.9 und = 1.5.
Insbesondere lauten die Verteilungen nach 30 und 60 Tagen
S30 N(278.9, 2.25 30) bzw. S60 N(278.9, 2.25 60).
Die gesuchten Wahrscheinlichkeiten betragen
290 278.9
= (1.1963) = 0.1158 .
P (S60 < 265) =
1.5 60
14.3
Definition (Wiener-Prozess mit Drift) Seien , IR, > 0 und (Zt )t0
ein Standard-Wiener-Prozess. Der stochastische Prozess
St = + t + Zt ,
t0
heit Wiener-Prozess mit Drift. Die Driftrate ist , die Varianzrate 2 , und der
Startwert . Man schreibt k
urzer: (St )t0 W (, , ) oder S W (, , ).
F
ur einen solchen Prozess gilt
St N( + t, 2 t),
St+r St N(r, 2 r)
St = t + Zt = t + t
mit N(0, 1) ,
2
St N(t, t) .
(1)
(2)
104
Satz: F
ur fast alle Pfade eines Wiener-Prozesses (St )t0 W (, , ) mit 6= 0
gilt: Die Funktion t 7 St () ist stetig, aber f
ur kein t differenzierbar.
Die folgende Abbildung zeigt einen Pfad eines Wiener-Prozesses mit Driftrate
= 1, Varianzrate 2 = 1 und Startwert = 0.
St 6
2.0
1.5
1.0
0.5
0.0
0.5
.. ...
..... ..
......
........ ...
.....
.... .......
.............
..
.. ....
.. ..
... .......
.. ... .
... ......
.... ... .....
....... ........... . .... ..
. ..
.. ...
...... .. ..... . ..
.............. ................. ..............
.
......... ....
.....
.........
........
.......
.........
.
......
...
...
....... ..
........
..
. ..............
.
..... .. ..........
...
... . ...
................ .........
.
......................... ....... ....
......... ......... .... ...
... .................. ...........
......... ..... .............. .
.... . ....... .....
.. .... . ......
. .. .....
. .. . ..............
........ ...
....... .
............
.
........... .........
........... ..................
...... ....... .......... ......
.......................
.. ............ ...... ..
.. ........ ...
.............. .
..... ....... ..
.....
... .....
.....
....... ....
...
.
..........
.
.........
............
......... ...
... ...
.. ........ .... ...
... .......... ........ ...
... ....... .. ........
..
.......
.... ................. ...........
.......
.. ......... ...
......
.......
... .. .... ...
.......
.
.
.
.
.
.
....
.
.
.......
..
.......
..
.......
.......
...
.......
.
.
.
.
.
....
.
..
.......
..
.......
...
.......
........
...
......
.
.
.
.
.
....
.
..
........
..
.
.......
....................... ....
.......
................... ... .......... .........
.......................... ....................
.
.....
......... ............
.. ......... .....
.....
.......
.........................
.
.
.
.
.
.
.
.
.
.
.
.
........ . .... .. .
....... .... .........................
.......
..
.......
... ... ......
....... .
.
.
.
.
.
.......... ... ......
.
..
............ ....
.......
.......
..... .......
.......
.
.
.
.
.
.
.
.
.
.
.
.
.
.. ......
..
.......
.......
............. .... ... ....
.......
. .. .
.......
............. .......... ................
...
.......
.
.
.
.
.
.
.
....... ...... ..
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. ... . .
.......
... .... ..
.... ....... .........
..... .......... ...... .........
... ........ .....
...... ......... ..............
..
.
.
....... ... .... ..............
...
.......
.......... ................................ .........
....
.
.
.
.
.... ..... ....
.. ............ .. .... .
..
..
...............................................................................................................................................................................................................................................................................................................................................................................................................................................
.....
......
....
..
. ..
.. .
.....
.... .. ... ........... ...
..
....
..... .....
...
...... .......... .................. .....
....
........ ... ............ ... ........ ....
.
.
....... ...... ...... ... .. ...
............ .... ............... ..........
........ .. ... ..
....
......
... ....... ........ .. .....
.... ... ... ...
... .... ... .... ....
.....
.... .. ... ..
.......
....... ........
.
.......
.. ..
.
.
.
.
........
. .
..
...
........
....
.... ......
...
......
...
...
... ..
.
.. .....
.. .
.. ..
... ..
... ...
... ...... ...
..................
........ ......
.... .
0.0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1.0
Stochastische Differentialgleichungen
Ein Wiener-Prozess mit Drift, St W (, , ) erf
ullt die Differenzengleichung
S = t + Z
und, nach Division durch t,
STOCHASTISCHE DIFFERENTIALGLEICHUNGEN
105
S
Z
= +
.
t
t
F
ur kleine Zuwachse schreibt man symbolisch
dS = dt + dZ
bzw.
dZ
dS
= + .
dt
dt
It
o-Differentialgleichung
Allgemeiner lasst man zu, dass und noch vom Zustand des Prozesses S und
der Zeit t abhangen, d.h.
= (S, t) ,
= (S, t).
(1)
106
= +
(2)
dZ
.
dt
(3)
Um diese Losung herzuleiten, benotigen wir eine Formel, die unter dem Namen
ItoLemma bekannt ist; siehe Abschnitt 14.6.
14.5
107
STOCHASTISCHE DIFFERENTIALGLEICHUNGEN
St 6
2.5
2.0
1.5
1.0
0.5
..
........
.............
.....................
.......... .....
....... ......
.... ....
.... ....
.. ..
....
..... ...
....... ....
.. ......
....
..................... ........
...
......... .. .. ....
....
.. .... ....... .... ..... ...
...
...... ... ..... ............... ....
...
............... . . .... ...
....
.. ...
............
... ..
...
............
... ...
...
............
.... ...
...
.........
.....
......
....
...........
... ..
........
... ...
.. .........
...
...........
....
..... ...
.....
..... ...
......
.... ......
.. ..
......
...
.
.....
...
..
..... ..
.......... ..
.
............... ............................... ..
.
.
.
. ..
..................
......
.... ..... ............ ....... .....
.
.
................. .............................
.
.
.
. ...
.. ...... . .......................
.. ..........
....... .. .............
.......
...................................................................................................................................................................................................................................................................................................................................................................................................................................
.
........
.. ......
. .. .... .... .
.. .....
.........
.
... ....
...
.. ..... ....
.......... .....
.. ...... ......
.... .........
........... .......
....... ....... .......
........ ...
........ ...
...... .............. .....
...
..... ...
.
...... .. ..
. ..... .....
......
...
.
.
.
.. ..
. ... .........
..
......
...
.
.
.
.
.. ....... ....
.
.....
.....
.
..
.
.. ....... ...
.
.
.
.
.
.
.
.
.
.
.
.
.... ... ............
..... ...
......
............. .. ... ....... ...
.
.
.
...
.
....... .. .. ... ... .
.
.
.
.
.
.
.
.
.
.
.
.
.......... ............... ... ..... ... .... .....
............. ................ .....
.
. . ..... ..... .
...... ....... .......... . .......
.
.... .
.
.......... ... .... ... ....... ....
..
.
...... ........ ......... .... . .. . ......................... ........
.. ........ ..................... . ..... .
....... ........ .. ...
.... ...
0.0
0.0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1.0
Preis einer Aktie (Fortsetzung): Der Preis St einer Aktie werde durch eine
108
Ferner gilt
St+t St
S
St+t
=
+1=
+1.
St
St
S
Problem (Preis eines Derivats): Ein Forward -Kontrakt ist ein Vertrag zwischen zwei Individuen am Markt, der den Verkauf einer Aktie zu einem bestimmten Termin betrifft und auch ausge
ubt wird. Sei r der zuk
unftige Termin, St der
Preis der Aktie zur Zeit t, Ft der Preis des Forward-Kontraktes zur Zeit t und p
der risikofreie Zinssatz. Dann muss
Ft = St ep(rt)
(4)
It
o Lemma
Gegeben sei ein Ito-Prozess (St )t0 , d.h. der Prozess erf
ulle die stochastische
Differentialgleichung
dS
dZ
= (S, t) + (S, t)
,
dt
dt
und eine zweimal differenzierbare Funktion g : (s, t) 7 g(s, t). F
ur den Prozess
(Gt )t0 ,
Gt = g(St , t) ,
gilt:
g(S, t)
dG
=
dt
s
dZ
g(S, t) 1 2 g(S, t) 2
(S, t) + (S, t)
+
+
(S, t) .
dt
t
2 s2
Umgeordnet und in k
urzerer Schreibweise:
g dZ
g
g 1 2 g 2
dG
=
+
+
+
.
2
dt
s
t 2 s
s dt
(1)
109
STOCHASTISCHE DIFFERENTIALGLEICHUNGEN
Also ist (Gt )t0 ebenfalls ein Ito-Prozess. Er besitzt die Varianzrate
2
g
s
und die Driftrate
g
g 1 2 g 2
+
+
.
s
t 2 s2
Auerdem, und das ist das Wichtigste, ist der Storprozess (Zt )t0 des Derivats
identisch mit dem Storprozess (Zt )t0 der Aktie. Dies erlaubt es, eine Aktie mit
ihrem Derivat zu hedgen, d.h. durch Kombination in einem Portefeuille das
Dann ist
dG
g
g 1 2 g 2 2 g dZ
=
S +
+
S + S
.
dt
s
t 2 s2
s
dt
(2)
2g
1
= 2
2
s
s
und
g
= 0.
t
2
dZ
+
.
2
dt
2
110
2g
= 0 und
s2
g
= psep(rt) .
t
14.7
dZ
= ep(rt) S pSep(rt) + ep(rt) S
dt
dZ
= Sep(rt) p +
dt
dZ
= F p+
dt
Brownsche Bru
cke
Auch in der statistischen Inferenz haben die Brownsche Bewegung und die mit
ihr zusammenhangenden Prozesse wichtige Anwendungen. Die Brownsche Brucke
ist ein stochastischer Prozess, der zur Zeit 0 im Nullpunkt startet und zur Zeit
1 dort wieder endet. Man kann sie als bedingte Standard-Brownsche Bewegung
auffassen, unter der Bedingung, dass sie f
ur t = 1 fast sicher den Wert 0 annimmt.
Eine einfache Definition ist die folgende:
Definition (Brownsche Bru
cke) Sei (Zt )t0 eine Standard-BrownscheBewegung. Der stochastische Prozess
Bt := Zt tZ1 ,
0 t 1,
111
STOCHASTISCHE DIFFERENTIALGLEICHUNGEN
Bt 6
1.0
0.8
0.6
0.4
0.2
0.0
0.2
0.4
.... ....
..................
... .. ..
..... ... .....
.
.
...... ..... .... .........
............................ ...........
. . .
.................... ..... ......
........................ .......
...
....
... .... .
....
.... ....
....
....
...
..
..
.
...
....
..........
..... .
.....
....
.
. .......
........................
.
.
.
.
.
.
.
.
.
....
.... ...
.. ...........
.
.........
.....
...... ...
.. .... ......
...
............... ....................
.......
... .... .....
.
..... ... .... ..
........ .
..
.......
............................... ......... ...........
.. ....
........ ...............
........... .................. .... .....
.
.
.
.
.
.
.
.
.
.
.
.
.
.
......
.
.
.
.
...... .... ...
....
.. .. .. ..
....... ...
..
. .... .. ... .....
.... ..
............. ....
........
..........
...
.. .... ..
.... ... .. ...... ................ .....
...................
..... ..
... ...........
........ ........... ............ ... ....... .......... ... .... ..
... ..........
...
.... ...........
.....
..............
...... .... ...... .................... .... ...... . .... .... .... .........
.... ..... ..
....
........
... ...
......
...
..... .. .... ..
. .......... .
.
.
.. ..
.
.
.
.... .... ....... ........ ......
.
.
..
....
. ...........
.
..... ... .... ...
.
.
.
... ... .... ...... .......
...
......
.
.
.
.
.
..
. .. .
.
............................................................................................................................................................................................................................................................................................................................................................................................................................................
.....
.
.
.
...... ...
.
........
.
.
.
.
.
.
.
.
.
.
.
...
.
..
.....
.. .. .... . .. . .
...
......
....
...
............
......
....... .. ................................................................ .......... ....
......
..........
...
..........
...... ..... .. .............. ............ ... .......... ..
......
........
.. ...
... ..... ............... .....
.......................... ............ .......... ..... ........
.........
.........
...
.... .......................
.... .........
................... .... ..... ...... .............
... ......................
.
... .. ..........
..... .........
... .... .........
...... ... ..
. ....
.. .... ..
.... ....... .................
...... .. .
..... ...
.... .... . ....
.... ...... .............. . ....... ...................
... ...
... ....
.......... .. ............
... ...
....... .... . ..
.. ..
.. ........
... ..
............ ......
........
... ..
............ ....
......
. ...............
...
........
.....
........
.
0.6
0.8
-
1.0
0.0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1.0 t
Wie sich leicht nachrechnen lasst, gilt f
ur die Brownsche Br
ucke:
B0
B1
E(Bt )
var(Bt )
cov(Br , Bt )
Bt
=
=
=
=
=
0 fast sicher,
0 fast sicher,
0 , falls 0 < t < 1,
t(1 t) , falls 0 < t < 1.
r(1 t) , falls 0 < r < t < 1,
N(0, t(1 t)) , falls 0 < t < 1.
Viele Verfahren der schlieenden Statistik basieren auf der empirischen Verteilungsfunktion einer Stichprobe X1 , . . . , Xn ; vgl Statistik IV 2.3 und 8.12. Die empirische Verteilungsfunktion ist ein stochastischer Prozess (Fxn )xIR , Fxn = F n (x),
da sie auer vom Argument x und der Lange n der Stichprobe auch von der
speziellen Realisation der Stichprobe, d.h. von (= Zufall) abhangt.
112
Sei X1 , . . . , Xn eine Stichprobe aus einer U(0, 1)-Verteilung, und sei F n die empirische Verteilungsfunktion. Die wahre Verteilungsfunktion der Xi ist dann durch
F (x) = x f
ur 0 x 1 und F (x) = 0 sonst gegeben, und es gilt
Fn (x) F (x) fast sicher
sup |Fn (x) F (x)| 0 fast sicher
0x1
(1)
(2)
(3)
Gau-Prozesse
Kapitel 15
Markoff-Ketten
Definition und Anwendungsbeispiele
Viele Anwendungsprobleme lassen sich mit stochastischen Prozessen modellieren,
deren zuk
unftige Wahrscheinlichkeiten nur von ihrer gegenwartigen Realisati
Beispiel: Kraftfahrzeughaftpflichtversicherung
0.1
0.08
0.02
Oktober 2013
114
Ahnlich
lassen sich
der Erwerbsstand einer Person,
der Bearbeitungsstand einer Steuererklarung,
die Zahl der Wartenden in einem Bedienungssystem
modellieren.
15.2
Markoff-Kette
Beispiel
P Sei Sn die Zahl der Erfolge bei einem
Sn = nm=1 Bm . Dann ist E = IN0 und
,
1
P (Sn+1 = j|Sn = i) =
Die bedingte Wahrscheinlichkeit P (Sn+1 = j|Sn = i) andert sich also nicht mit
n; auerdem ist f
ur beliebige Werte 0 k0 k1 ... kn1 i j n + 1
P (Sn+1 = j|Sn = i) = P (Sn+1 = j|Sn = i, Sn1 = kn1 , ..., S1 = k1 , S0 = k0 ).
Definition Sei E = IN0 oder E = {0, 1, 2, ..., N}, (Sn )nIN0 ein stochastischer
Prozess mit Zustandsraum E. Wenn f
ur alle i und j gilt:
(i) P (Sn+1 = j|Sn = i, Sn1 = kn1 , ..., S0 = k0 ) = P (Sn+1 = j|Sn = i) f
ur
beliebige n, kn1, ..., k0 ,
(ii) P (Sn+1 = j|Sn = i) andert sich nicht mit n,
dann heit (Sn ) Markoff-Kette, genauer: homogene Markoff-Kette.
Offenbar sind (i) und (ii) erf
ullt, wenn die Folge S0 , S1 , ... unabhangig und identisch verteilt ist. Dann sind namlich die bedingten Wahrscheinlichkeiten in (i)
und (ii) gleich der unbedingten Wahrscheinlickeit P (Sn+1 = j), und diese ist f
ur
alle n die gleiche. Im einleitenden Beispiel sind die Sn nicht unabhangig.
Eine Markoff-Kette ist ein Prozess in diskreter Zeit, also eine zufallige Folge. Zu
jedem gehort als Realisation eine konkrete Folge (S0 (), S1 (), . . .) in
Ej . Sie wird Pfad des stochastischen Prozesses genannt. Aus der Definition einer
Markoff-Kette folgt eine Beziehung, die allgemeiner ist als (i):
115
ur
(i) P (Sln+1 = j|Sln = i, Sln1 = kn1 , ..., S0 = k0 ) = P (Sln+1 = j|Sln = i) f
beliebige n, kn1, ..., k0 und ln+1 > ln > ln1 > > 0 .
15.3
Ubergangsmatrix,
Anfangsverteilung
F
ur eine gegebene Markoff-Kette (Sn ) f
uhren wir die Kurzbezeichnung
P (i, j) = P (Sn+1 = j| Sn = i),
p0 (i) = P (S0 = i).
P =
..
..
..
.
.
.
.
.
.
P (N, 1) P (N, 2) P (N, N)
und den Startvektor p0 = (p0 (1), . . . p0 (N)) .
Beispiele
0.2 0.8 0
1. Im Beispiel 15.1 haben wir N = 3 und P = 0.1
0 0.9
0.02 0.08 0.9
2. Wenn (Sn )n=0,...,N die Zahl der Erfolge bei einem endlichen N-stufigen
Bernoulli-Prozess mit = 0.2 ist, erhalten wir E = {0, 1, . . . , N}, p0 =
(1, 0, . . . , 0),
0.8 0.2 0 0 0
0
0 0.8 0.2 0 0
0
..
.
.
.
.
.
.
.
.
.
.
P = .
.
.
.
.
.
0
0
0 0 0.8 0.2
0
0
0 0 0
1
Dies ist ein Zahlprozess, d.h. ein Prozess mit |Sn+1 Sn | 1 f.s. Ein Zahlproze, der wie in diesem Beispiel monoton wachst, heit auch Geburtsprozess.
1 0 0
3. F
ur E = {1, 2, 3} stellt P = 0 1 0 die Ubergangsmatrix
einer
0 0 1
116
F
ur jede Ubergangsmatrix
gilt,
Pdass ihre Komponenten P (i, j) nichtnegativ sind
und dass alle Zeilensummen j P (i, j) gleich 1 sind. Umgekehrt definiert jede
solche Matrix P zusammen mit einem Vektor p0 von Startwahrscheinlichkeiten
eine Markoff-Kette.
15.4
=
15.2(i)
=
=
P (S2 = i) =
X
l
=
=
XX
l
P (S3 = j| S2 = i) P (S4 = k| S3 = j)
P (i, j) P (j, k),
P (S1 = l) P (S2 = i| S1 = l)
XX
l
P (S3 = j| S2 = i) P (S4 = k| S3 = j, S2 = i)
Ahnlich
beweist man die folgenden allgemeinen Formeln (f
ur m 0):
(1) P (Sn+m+1 = k, Sn+m = jm , , Sn+1 = j1 | Sn = i)
117
Anwendung: Kraftfahrzeughaftpflichtversicherung
Im Beispiel 15.1 sei ein Vertrag im Versicherungsjahr 1996 in SFK 1. Wie gro ist
die Wahrscheinlichkeit, dass er sich im Versicherungsjahr 1999 in SFK 3 befindet?
Wegen (2) haben wir P 3 (1, 3) zu berechnen.
0.2 0.8 0
0 0.9
P = 0.1
0.02 0.08 0.9
Angenommen, im Jahre 1996 verteilen sich die Vertrage zu 25%, 20% und 55%
auf die SFK 1,2 und 3. Wie wird die Verteilung im Jahre 1999 sein, wenn keine
weiteren neuen Vertrage hinzukommen (geschlossenes Kollektiv)? Die Verteilung
in 1999 wird gema (4) durch den Wahrscheinlichkeitsvektor p0 P 3 beschrieben.
Hier ist p0 = (0.25, 0.20, 0.55) und p0 P 3 = (0.039242, 0.109448, 0.85131).
15.5
Unendlicher Zustandsraum
Auch wenn der Zustandsraum E unendlich ist, gelten die Formeln 15.4(1) bis (4).
Die Ubergangsmatrix
P hat dann unendlich viele Zeilen und Spalten. Zum Beispiel sei Sn , n IN, die Zahl der Erfolge in einem (unendlichstufigen) BernoulliProzess mit Parameter . Dann ist E = {0, 1, 2, ...}
0
0 0
0
1
0 0
P =
0
0
1 0
..............................
(1 )2 2(1 )
2
0
0
0
(1 )2 2(1 )
2
0
P2 =
0
0
(1 )2 2(1 ) 2
...................................................
118
und so weiter. Es gilt p0 = (1, 0, 0, ...) und p0 P m ist der Vektor mit der i-ten
Komponente
m
(1 )mi i f
ur i = 0, 1, ..., m,
m 0
i
(p0 P ) (i) =
0
f
ur i = m + 1, m + 2, ...
= P (Sm = i).
15.6
Anwendung: Lagerhaltung
0
sonst
Sn1 1,
Zn ,
falls Sn1 2,
falls Sn1 = 1.
119
q1 q2 q3 q4 . . .
1 0 0 0 ...
0 1 0 0 ...
P = 0 0 1 0 ...
0 0 0 1 ...
.. .. .. .. . .
.
. . . .
Man sieht daran z.B., dass P (S1 = 1) = p0 P = q12 + q2 ist.
Unabh
angigkeit von Vergangenheit und Zukunft
Bezeichnet man den Zeitpunkt n als Gegenwart und die Zeiten vorher und
nachher als Vergangenheit bzw. Zukunft, so besagt 15.2 (i), dass die unmit
telbare Zukunft n + 1 einer Markoff-Kette (Sn )nIN0 nur von der Gegenwart aber
nicht zusatzlich von der Vergangenheit abhangt. Dies gilt auch f
ur Erwartungen,
die sich auf die gesamte Zukunft beziehen: F
ur n IN0 betrachten wir die Zufallsvariable Zn = f (Sn , Sn+1 , Sn+2 , . . .), wobei f eine beschrankte Funktion sei, d.h.
es gebe eine Zahl k, so dass |f (sn , sn+1 , sn+2 , . . .)| k f
ur alle sn , sn+1 , sn+2 , . . ..
Dann gilt:
Satz
(i) E(Zn |Sn , . . . , S0 ) = E(Zn |Sn )
(ii) E(Zn |Sn = i) = E(Z0 |S0 = i)
Zusammen folgt daraus
120
Angenommen, im Beispiel 15.1 der Schadensfreiheitsklassen kommt eine weitere Klasse 0 hinzu, in die nur Vertrage im ersten Jahr eingestuft werden.
Die Ubergangswahrscheinlichkeiten
seien P (0, 1) = 0.1, P (0, 2) = 0.9, ansonsten
0 0.1 0.9 0
0 0.2 0.8 0
P =
0 0.1
0 0.9
0 0.02 0.08 0.9
Dann ist der Zustand 0 offenbar von keinem anderen Zustand aus erreichbar.
1
der Zustand 1 regelmaig mit der Periode 2 angenommen, das gleiche gilt f
ur den
Zustand 2.
Im Ubergangsgraphen
0.5
0.2
-
0.3
3
0.7
0.5
0.8
121
Invariante Verteilung
Satz Sei (Sn )nIN0 eine irreduzible Markoff-Kette ohne periodische Zustande, und
sei E = {1, 2, . . . , N}.
(i) Es gibt dann eine Verteilung auf E, gegen die die Verteilungen der Sn
konvergieren,
(j) = lim P n (i, j) f
ur alle i, j E.
n
(ii) (1), . . . , (N) ist die eindeutige Losung der linearen Gleichungen
(j) =
N
X
j = 1, . . . , N ,
(1)
i=1
N
X
(j) = 1 .
(2)
j=1
1 = 1,
wobei 1 den Spaltenvektor aus N Einsen bezeichnet. Mit anderen Worten, ist
122
15.11
Ergodens
atze
(ii) F
ur jede Funktion i 7 f (i) gilt
P
und
f
ur alle i.
n
N
X
1 X
f (Sm ()) =
(j)f (j)
n n + 1
m=0
j=1
lim
=1
n
N
X
1 X
E(f (Sm )|S0 = i) =
(j)f (j)
lim
n n + 1
m=0
j=1
Teil (i) des Satzes besagt, dass man die Grenzwahrscheinlichkeit von j durch die
realisierten Haufigkeiten des Erreichens von j schatzen kann. Teil (ii) verallgemeinert dieses Ergebnis auf den Erwartungswert einer beliebigen Funktion f der
Zustande; er besagt, dass man diesen Erwartungswert sowohl durch den Durchschnitt der u
ber einem Pfad realisierten Funktionswerte approximieren kann als
auch durch einen Durchschnitt von bedingten Erwartungswerten bez
uglich eines
beliebigen Anfangszustands.
15.12
Anwendung: L
ange einer Warteschlange
In einem Bedienungssystem werden Kunden in der Reihenfolge ihrer Ankunft bedient. Die Ank
unfte mogen einem Poisson-Prozess (Nt )tIR+ (vgl. 13.6) mit Rate
folgen, die Bedienungszeiten Z1 , Z2 , . . . seien unabhangig und identisch verteilt
mit Dichte fZ und auch unabhangig vom Prozess (Nt ). Um die Leistungsfahigkeit
des Bedienungssystems zu beurteilen, ist vor allem interessant, ob sich im Laufe
der Zeit eine Warteschlange entwickelt und welche Lange sie erreichen wird. Sei
(Xn )nIN0 die Zahl der zu dem Zeitpunkt noch wartenden Kunden, zu dem die
Bedienung des n-ten Kunden gerade beendet und ggf. die des nachsten Kunden
begonnen ist. Dann kann man zeigen, dass (Xn ) eine Markoff-Kette ist mit Zustandsraum E = IN0 und Startverteilung P (X0 = 0) = 1. Die Wahrscheinlichkeit,
123
dass in der Zeitspanne Zn , also wahrend der Bedienung des n-ten Kunden, gerade
k neue Kunden eintreffen, betragt dann
rk =
et
(t)k
fZ (t)dt.
k!
(Im Grenzfall, bei dem alle Bedienungszeiten konstant gleich t0 sind, erhaltenk
haben wir rk = et0 (tk!0 ) , das ist die Poisson-Wahrscheinlichkeit, dass in einer
Zeitspanne der Lange t0 genau k neue Kunden ankommen.) Bei den Ubergangswahrscheinlichkeiten P (i, j) muss man im wesentlichen zwei Falle unterscheiden,
dass namlich die Warteschlange zu beiden Zeitpunkten i und j leer ist bzw., dass
sie es nicht ist. Es gilt
r0 + r1 , falls i = j = 0,
P (i, j) = P (Xn+1 = j|Xn = i) =
rj+1i , falls j i 1 und nicht i = j = 0,
0,
sonst ,
Wir fassen diese Wahrscheinlichkeiten
r0 + r1
r0
P =
0
..
.
in der Ubergangsmatrix
P zusammen:
r2 r3 r4 . . .
r1 r2 r3 . . .
r0 r1 r2 . . .
.. .. .. . .
.
. . .
Von besonderem Interesse ist die Frage, unter welchen Umstanden die Warteschlange im Verlauf des Prozesses jemals wieder abgebaut wird, d.h. die Lange 0
erreicht. Sie wird durch den folgenden Satz beantwortet.
Satz P (Es gibt ein n 1 mit Xn = 0) = 1
E(Zn )
Die Warteschlange wird also genau dann fast sicher irgendwann abgebaut sein,
wenn die mittlere Bedienungszeit E(Zn ) nicht groer ist als die mittlere Zeit 1
bis zur Ankunft des jeweils nachsten Kunden.
Beweise zu den Satzen dieses Paragraphen und weitere Beispiele finden sich u.a.
in:
E.C
inlar, Introduction to Stochastic Processes, Englewood Cliffs, NJ, 1975.
K.L. Chung, Markov Chains with Stationary Transition Probabilities, Berlin
1967.
W. Feller, An Introduction to Probability Theory and its Applications, I und
II, New York 1967 bzw. 1971.
124
Kapitel 16
Station
are Prozesse
F
ur viele Anwendungen, insbesondere die Modellierung von okonomischen Zeitreihen, sind stochastische Prozesse (Xn )nM interessant, deren Abhangigkeitsstruk
tur sich u
ber die Zeit nicht andert. Wenn auerdem der Erwartungswert zu jeder
Zeit konstant ist, spricht man von einem stationaren Prozess. Wir betrachten hier
Prozesse in diskreter Zeit, deren Zeitindex eine Teilmenge M der ganzen Zahlen
ZZ durchlauft.
Im folgenden werden nach einer kurzen Einf
uhrung die Definitionen der wichtigsten stationaren Prozesse, autoregressive Prozesse und gleitende Durchschnitte, dargestellt und kurz erlautert. Ihre weiteren Eigenschaften und Anwendungen sind Gegenstand der Vorlesung Zeitreihenanalyse. Gute Einf
uhrungen bie
ten die Lehrb
ucher von Schlittgen und Streitberg (Zeitreihenanalyse, 8. Auflage 1999), Schlittgen (Angewandte Zeitreihenanalyse, 2001), Rinne und Specht
(Zeitreihen, 2002) sowie das von Harvey (Time Series Analysis, 1981).
Stationarit
at
16.1
Einfu
hrende Beispiele
Beispiel 1 (Sinusschwingung)
Ein einfaches Beispiel einer Zeitreihe ist die Sinusschwingung
Xn = Y sin(n),
n ZZ,
Oktober 2013
KAPITEL 16. STATIONARE
PROZESSE
126
stellen f
ur eine spezielle Realisation Y () den sogenannten Pfad der Zeitreihe
dar; dabei ist = 41 gewahlt.
Xn
Y ()
.....s
.
.....s
.
......... .............
......... .............
.....
.
.....
.
s
....
.....
....
....
...
.
.
.
....
...
...
...
...
.
.
.
...
...
...
...
...
...
...
...
.
.
...
..
....
...
....
....
....
....
....
...
.
.
.
....
..
.....
....
....
....
....
....
......
....
......................
2
s
Y ()
....
...
.....
.....
....
....
....
....
...
...
.
....
.
.
.
...
....
...
...
...
...
...
...
...
...
...
.
.
...
...
...
...
...
...
...
...
...
.
.
...
..
...
...
....
....
....
....
....
...
.
.
.
....
...
....
....
.....
.....
....
....
.....
..........................
....
.....
....
....
....
...
....
...
...
...
...
...
...
...
..
10
1
=
=w
Ziel
Ziel
Mn1
Mn1
f
ur n = 1, 2, 3, . . . ,
also
MnZiel = (1 + w)n M0Ziel .
Die Abhangigkeit der tatsachlichen Geldmenge Mn zur Zeit n von der bisherigen Geldmenge Mn und dem Geldmengenziel MnZiel modelliert man durch die
Gleichung
Mn = Mn1 + (MnZiel Mn1 ) + Un
Bevor wir nun den Begriff Stationaritat genau spezifizieren konnen, definieren
STATIONARITAT
2 : M IR,
127
2 (n) = var(Xn ) Varianzfunktion,
: M M IR,
: M M IR,
(n, m) =
cov(Xn ,Xm )
(n)(m)
(Auto-)Korrelationsfunktion.
Beispiele
1. F
ur einen White-Noise-Prozess Xn := Un (0, 2 ) mit paarweise unkorrelierten Un erhalt man
2
f
ur n = m,
1 f
ur n = m,
(n) = 0, (n, m) =
(n, m) =
0
sonst,
0
sonst.
2. Ein Spezialfall des White-Noise-Prozesses ist der Standard-Storprozess
Xn := Un i.i.d. N(0, 2 ) aus Abschnitt 13.1. Er besitzt daher dieselbe
Mittelwert-, (Auto-)Kovarianz- und (Auto-)Korrelationsfunktion wie der
allgemeine White-Noise-Prozess aus dem vorigen Beispiel 1.
3. Sei Xn ein Random Walk mit Drift, d.h. sei Xn :=
n
P
i=1
n
X
Yi ,
i=1
= E
m
X
Yi
i=1
n
m
X
X
(Yi )
(Yi )
i=1
i=1
min{n, m}
nm
4. F
ur die Sinusschwingung aus Beispiel 1 erhalt man
(n) = E(Y ) sin(n),
(n, m) = E ((Xn (n))(Xm (m)) = var(Y ) sin(n) sin(m) .
KAPITEL 16. STATIONARE
PROZESSE
128
Stationarit
at
Definition Ein Prozess (Xn )nM in diskreter Zeit heit stationar, falls
(i) (n) nicht von n abhangt (Mittelwertstationaritat) und
(ii) (n, m) nur von n m abhangig ist (Kovarianzstationaritat).
F
ur stationare Prozesse heit (k) := (n, n k) Kovarianzfunktion und
(k) := (n, n k) Korrelationsfunktion.
Insbesondere andert sich also auer dem Erwartungswert E(Xn ) auch die Varianz var(Xn ) = cov(Xn , Xn ) = (n, n) = (0) nicht mit der Zeit. Bedingung
(ii) bedeutet, dass die Abhangigkeitsstruktur, soweit sie durch die Kovarianzen
beschrieben wird, u
ber die Zeit gleich bleibt; z.B. hangt X10 von X6 ab wie X8
von X4 .
STATIONARITAT
129
Beispiele
1) White-Noise-Prozesse und Standard-Storprozesse sind stationar.
2) Ein Kosinoid-Prozess ist stationar gdw. E(Y ) = E(Z) = 0 und var(Y ) =
var(Z).
2) Ein Random Walk mit Drift ist nicht stationar, da er nicht kovarianzstationar ist. Auerdem ist er nur dann mittelwertstationar, wenn die Konstante
gleich Null ist.
Folgerungen F
ur einen kovarianzstationaren Prozess (Xn )nZZ gilt:
(i) (0) = var(Xn )
f
ur alle n,
(ii) (0) = 1,
(iii) (k) =
(k)
(0)
f
ur alle k,
1 (k) 1
(k) = (k)
f
ur alle k,
f
ur alle k.
Bemerkungen
(1) Viele Zeitreihen besitzen einen Trend, sind also nicht Realisation eines mittelwertstationaren Prozesses. Man schatzt geeignet den Trend (z. B. linear
oder exponentiell) und bereinigt so, da (n) = 0 gilt.
(2) Stationaritat ist eine nat
urliche Annahme f
ur die Zeitreihenanalyse: Kon
stanz der stochastischen Struktur (beschrieben durch die ersten beiden Momente) u
ur die Analyse einer Zeitreiber die Zeit. Allgemein benotigt man f
he jedenfalls ein Bildungs- oder Fortpflanzungsgesetz ihrer stochastischen
Struktur.
(3) Bei einem stationaren Proze sind der Erwartungswert und die Kovarianzmatrix von je endlich vielen Xn1 , .., Xnl invariant gegen
uber Verschiebungen
der Zeitachse. Gilt dies f
ur die gesamte gemeinsame Verteilung von je endlich vielen Xn1 , .., Xnl , so nennt man den Prozess Xn stark stationar.
(4) F
ur Gau-Prozesse Xn gilt: Xn ist stationar gdw. Xn stark stationar ist.
(5) Zu jedem stationaren Prozess gibt es einen stark stationaren Gau-Prozess
mit denselben und . So existiert z.B. (vgl. Beispiele) zu jedem WhiteNoise-Prozess ein Standard-Stor-Prozess.
KAPITEL 16. STATIONARE
PROZESSE
130
Wichtige station
are Prozesse
16.3
Autoregressive Prozesse
p
X
ak Snk + Un
k=1
gilt, wobei ap 6= 0 und (Un ) weies Rauschen ist, heit (Sn ) autoregressiver
Prozess der Ordnung p, kurz: (Sn ) ist ein AR(p)-Prozess.
Beispiele
Speziell f
ur p = 1 erhalten wir Sn = a1 Sn1 + Un , d.h. der Wert Sn der Zeitreihe
zur Zeit n ist ein konstantes Vielfaches des Werts zuvor plus einer Storung Un .
Bei p > 1 ist Sn eine Linearkombination von Werten der Vergangenheit plus eine
Storung, f
ur p = 2 ergibt sich die Modellgleichung Sn = a1 Sn1 + a2 Sn2 + Un .
16.4
Gleitende Durchschnitte
Eine zufallige Groe moge zu jedem Zeitpunkt durch eine Anzahl von
Schocks aus der Vergangenheit plus einer aktuellen Storung bestimmt sein,
und zwar additiv, z.B. Sn = Un + 0.3Un2 . Ein solcher stochastischer Prozess hat
die folgende allgemeine Form:
Definition Falls es Zahlen b1 , . . . , bq IR gibt, so dass f
ur alle n q
Sn = Un +
q
X
bk Unk
k=1
gilt, wobei bq 6= 0 und (Un ) weies Rauschen ist, heit (Sn ) Prozess der gleitenden Durchschnitte (Moving-Average-Prozess) der Ordnung q, kurz: (Sn ) ist ein
MA(q)-Prozess.
Hier ist Sn eine Linearkombination, also bis auf einen Faktor ein gewogener
Durchschnitt, der vergangenen q Werte eines weien Rauschens plus einem
Storterm zur Zeit n. Der Durchschnitt gleitet mit wachsendem n u
ber die
WICHTIGE STATIONARE
PROZESSE
131
Beweis
i) Sn ist mittelwertstationar, da wegen E(Un ) = 0 folgt
!
q
X
bk Unk = 0.
E(Sn ) = E Un +
k=1
k=0
qr
= E
2
bk bk+r Unk
k=0
qr
= 2
wobei k 0 = r + k
bk bk+r
k=0
f
ur r > q,
qr
P
k=0
bk bk+r f
ur r q.
Zahlenbeispiel Der MA(2)-Prozess Sn = Un + 0.3 Un2 besitzt die Mittelwertfunktion (n) = 0, die Varianzfunktion 2 (n) = 1.09 2 und die Kovarianzfunktion
ur r = 0,
1.09 2 f
2
0.3
f
ur r = 2,
(r) =
0
sonst.
ARMA-Prozesse
p
X
k=1
ak Snk + Un +
q
X
k=1
bk Unk
KAPITEL 16. STATIONARE
PROZESSE
132
gilt, wobei ap 6= 0, bq 6= 0 sind und (Un ) ein White-Noise-Prozess ist, heit (Sn )
autoregressiver Moving-Average-Prozess, kurz: ARMA(p,q)-Prozess.
Beispiel Der durch die Modellgleichung
Sn = 1.6Sn1 0.9Sn2 + Un + Un1
beschriebene Prozess ist ein ARMA(2,1)-Prozess.
Die Definition schliet die reinen autoregressiven und reinen Moving-Average
Prozesse ein, wenn man p bzw. q gleich Null setzt. Uber
die Stationaritat von
ARMA-Prozessen und AR-Prozessen gibt folgender Satz Auskunft.
Satz Ein AR(p)-Prozess oder ARMA(p,q)-Prozess (Sn ) ist genau dann stationar,
wenn jede der p Losungen der Gleichung
z p a1 z p1 . . . ap1 z ap = 0
(in komplexen Zahlen z C
I ) im Innern des Einheitskreises der komplexen Ebene
C
I liegt, d.h. f
ur jede (komplexe) Losung z gilt |z| < 1.
Beispiel F
ur den AR(2)-Prozess Sn 41 Sn2 = Un , (d.h. mit a1 = 0, a2 = 41 )
erhalt man die Gleichung
z2
1
=0
4
1
z1,2 = ,
2
also ist der Poisson-Prozess stationar. Offenbar kommt es im Satz nur auf den
autoregressiven Teil des ARMA-Prozesses an. Die Bedingung, dass keine Losung
z auf dem Einheitskreis liegt, kann anhand von Beobachtungsdaten u
uft
berpr
Lineare Filter
16.6
Lineare Filter
Abschlieend beschaftigen wir uns mit linearen Filtern. Lineare Filter beschrei
ben den Ubergang
von einem stochastischen Prozess ( Input) zu einem anderen
den Eigenschaften linearer Filter ableiten, so zum Beispiel der Satz zur Stationaritat von ARMA-Prozessen in Abschnitt 16.5.
Sei (Zn )nZZ ein Prozess ( Input) und ak IR f
ur alle k ZZ, dann nennt man
den Prozess
X
Xn :=
ak Znk
kZZ
133
LINEARE FILTER
den gefilterten Prozess ( Output) mit Filter (ak )kZZ .
Speziell
lZZ mZZ
134
Anhang A
Erg
anzende Beispiele
A.1
Beispiel
P =
2(n 1)
2
= .
n(n 1)
n
b) Es gibt nk Moglichkeiten, die besetzten St
uhle auszuwahlen. Es gibt n
k + 1 Moglichkeiten, benachbarte St
uhle auszuwahlen.
P =
nk+1
k!(n k + 1)!
=
.
n
n!
k
P =
k!(n k)!
n
.
n =
(n 1)!
k
Oktober 2013
ANHANG A. ERGANZENDE
BEISPIELE
136
A.2
Beispiel
P (A) =
|A|
.
||
= 0.7471 .
365
365 365
365
F
ur die gesuchte Wahrscheinlichkeit erhalt man daher
P (A) = 1 P (A) = 0.2529 .
A.3
Beispiel
ANHANG A. ERGANZENDE
BEISPIELE
137
L
osung zu Beispiel A.3
a) Ai : Maschine Mi intakt
4
X
i=1
4
X
i=1
(1 pi ) P (A1 . . . A4 ) min pi
i
b)
P (A1 . . . A4 ) = 1 P (A1 . . . A4 )
= 1 P (A1 . . . A4 )
Um eine obere Schranke f
ur P (A1 . . . A4 ) zu erhalten, suchen wir eine
untere Schranke f
ur P (A1 . . . A4 . Mit der Inklusions-Exklusions-Methode
erhalt man:
P (A1 . . . A4 )
4
X
i=1
n
X
P (Ai)
X
i<j
P (Ai Aj )
4
0.0005
=
(1 pi )
2
i=1
Beispiel
Eine Urne enthalt 4 Kugeln. Jede Kugel ist entweder schwarz oder wei. Der
Anteil der weien Kugeln ist unbekannt. Jede der 5 Moglichkeiten f
ur die
Anzahl der weien Kugeln soll zunachst gleichwahrscheinlich sein (a-prioriWahrscheinlichkeit).
a) Man zieht dreimal je eine Kugel mit Zur
ucklegen und erhalt die Farbfolge
weischwarzschwarz. Berechnen Sie die dadurch bedingten a-posterioriWahrscheinlichkeiten f
ur die f
unf Moglichkeiten.
ANHANG A. ERGANZENDE
BEISPIELE
138
Kugeln, i = 0, . . . , 4. F
ur die a-priori-Wahrscheinlichkeiten gilt nach Voraussetzung P (Ai ) = 0.2, i = 0, . . . , 4.
a) WSS sei das Ereignis, dass man die beobachtete Farbfolge erhalt. Dann ist
2
4i
i
.
P (W SS|Ai) =
4
4
Die gesuchten a-priori-Wahrscheinlichkeiten erhalt man dann mit der Formel von Bayes zu
P (W SS|Ai)P (Ai )
P (Ai |W SS) = Pn
k=0 P (W SS|Ak )P (Ak )
0
0.2
1
0.2
2
0.2
3
0.2
4
0.2
P (W SS|Ai)
0
0
8
64
8
320
3
64
3
320
P (W SS|Ai) P (Ai )
9
64
9
320
P (Ai )
P (Ai |W SS)
20
320
b) W sei das Ereignis, dass eine weie Kugel gezogen wird; das Ereignis S sei
entsprechend definiert. Es ist
P (W |Ai) =
i
4
und P (S|Ai) =
4i
.
4
Die a-posteriori-Wahrscheinlichkeiten erhalt man aus den a-priori-Wahrscheinlichkeiten wieder mit der Formel von Bayes:
bzw.
i
P (Ai)
P (W |Ai)P (Ai )
4
= Pn k
P (Ai |W ) = Pn
k=0 P (W |Ak )P (Ak )
k=0 4 P (Ak )
iP (Ai )
= Pn
k=0 kP (Ak )
(4 i)P (Ai )
P (Ai|S) = Pn
k=0 (4 k)P (Ak )
ANHANG A. ERGANZENDE
BEISPIELE
139
2
3
0.2 0.2
0.4 0.6
0.2 0.3
0.2 0.3
0.4 0.3
0.4 0.3
0.4 0.3
0.8 0.3
0.4 0.15
4
0.2
0.8
0.4
0.4
0
0
0
0
0
1
2
1
1
1
1
1
2
1
Beispiel
Ein W
urfel werde dreimal geworfen. Seien A, B und C die Ereignisse
A: gleiche Augenzahlen bei den ersten beiden W
urfen,
P (A C) =
P (B C) =
1
36
1
36
1
36
= P (A)P (B)
= P (A)P (C)
= P (B)P (C).
ANHANG A. ERGANZENDE
BEISPIELE
140
A.6
Beispiel
x = ap + b p =
F (x) =
Fall 2: a = 0
xb
a
0, falls x < b,
falls b x a + b,
1, falls x > a + b.
xb
,
a
F (x) =
0, falls x < b,
1, falls x b.
0, falls x < 1,
x 1, falls 1 x < 4,
G(x) =
1, falls x 4.
c) x = ep mit 0 < p < 1 p = ln x mit
0,
H(x) =
ln x,
1,
A.7
0<p<1
falls x < 1,
falls 1 x < e,
falls x x.
Beispiel
Die Lebensdauer T eines elektronischen Bauteils sei exponentialverteilt mit Parameter . Berechnen Sie die (bedingte) Wahrscheinlichkeit daf
ur, dass dieses
Bauteil nach dem Zeitpunkt t0 weitere t Zeiteinheiten intakt bleibt, wenn es zum
Zeitpunkt t0 noch funktionsfahig ist.
Interpretieren Sie das Ergebnis.
ANHANG A. ERGANZENDE
BEISPIELE
141
Lo
sung zu Beispiel A.7 T Exp(). Gesucht ist P (T > t0 + t|T > t0 ). Es ist
FT (x) = 1 ex und somit P (T > t) = 1 FT (t) = et . Man erhalt also:
P (T > t0 + t|T > t0 ) =
P (T > t0 + t, T > t0 )
P (T > t0 )
P (T > t0 + t)
P (T > t0 )
e(t0 +t)
et0
et0 et
et0
= et
Dies bedeutet, dass die Restlebensdauer nach der Zeit t0 (sofern das Bauteil zu
t0 noch intakt ist) auch wieder Exp()-verteilt ist.
M.a.W.: Stellt man fest, dass ein Bauteil, dessen Lebensdauer Exp()-verteilt ist,
zu einem bestimmten Zeitpunkt noch intakt ist, so verhalt es sich im weiteren
so, als ob es gerade erst in Betrieb genommen ware, d.h. das Bauteil zeigt keine
Alterungserscheinungen.
Diese Eigenschaft ist charakteristisch f
ur die Exponentialverteilung und wird als
Gedachtnislosigkeit der Exponentialverteilung bezeichnet.
A.8
Beispiel
ANHANG A. ERGANZENDE
BEISPIELE
142
L
osung zu Beispiel A.8
a) Zunachst ist
ex = 1 y
x = ln(1 y)
1
x = ln(1 y)
Transformiert man die durch die Funktion rnd erhaltenen Pseudozufallszahlen mit der Funktion F 1 (U) = 1 ln(1 U), so erhalt man Exp()verteilte Pseudozufallszahlen.
Anmerkung zu Beispiel A.8: Die Zufallsvariable F 1 (U) hat auch ohne die
in a) gemachten Voraussetzungen die Verteilungsfunktion F .
Zunachst ist
FX (x) = P (F 1 (U) x) = P (min{y : F (y) U} x) .
Daher ist
ANHANG A. ERGANZENDE
BEISPIELE
A.9
143
Beispiel
Eine Zufallsvariable X heit logarithmisch normalverteilt (oder auch lognormalverteilt) mit Parametern und 2 , wenn die Zufallsvariable Y = ln X
normalverteilt ist mit Parametern und 2 . Man schreibt dann auch k
urzer
2
X LN(, ). Die Lognormalverteilung wird haufig zur Beschreibung von Lebensdauern benutzt.
a) Berechnen Sie Verteilungsfunktion und Dichte einer LN(, 2 )-verteilten
Zufallsvariablen X.
b) Berechnen Sie den Median einer LN(, 2 )-verteilten Zufallsvariablen X.
c) Die Lebensdauer eines technischen Gerates sei LN(5, 4)-verteilt. Berechnen Sie die Wahrscheinlichkeit, dass das Gerat innerhalb der ersten 100
Zeiteinheiten ausfallt.
L
osung zu Beispiel A.9
a) Wegen Y = ln X N(, 2 ) erhalt man
x>0
FX (x) = P (X x) = P (ln X ln x)
ln x
ln X
= P
ln x
=
.
ln x
, falls x > 0,
sonst.
F
ur x > 0 ist
ln x
d
fLN (, 2 ) (x) =
dx
ln x
1
=
x
2
1 ln x
1
1
= e 2 ( )
x
2
Die Dichte einer LN(, 2 )-verteilten Zufallsvariablen ist also
2
1 e 21 ( ln x
) , falls x > 0,
fLN (, 2 ) (x) =
2x
0
sonst.
ANHANG A. ERGANZENDE
BEISPIELE
144
b)
1
P (X m) =
2
ln m
1
ln m = 0 m = e
2
ln 100 5
F (100) =
2
= (0.1974) = 1 (0.1974) = 1 0.5782 = 0.4218
A.10
Beispiel
F
ur a, > 0 sei X stetig verteilt mit Dichte
(
x a
a a1 (
) , falls x > 0,
a
x
e
f (x) =
0,
sonst.
Dann heit X Weibull-verteilt mit Parametern und a; kurz X W (, a).
a) Berechnen Sie die Ausfallrate einer Weibull-Verteilung. F
ur welche Werte
von a und ist die Ausfallrate monoton wachsend, f
ur welche monoton
fallend?
b) Bestimmen Sie alle Modi einer W (, a)-Verteilung.
c) Untersuchen Sie, ob es sich bei den beiden Verteilungsfamilien
{ W (, 5) | > 0} bzw. { W (2, a) | a > 0} jeweils um eine Lagefamilie oder
eine Skalenfamilie handelt.
L
osung zu Beispiel A.10 F
ur x 0 ist
Z x
i
h
t a
x a
t a x
F (x) =
aa ta1 e( ) dt = e( )
= 1 e( )
0
a)
x a
f (x)
a x a1
aa xa1 e( )
a a1
h(x) =
=
=
a
x
=
.
x a
1 F (x)
e( )
Wegen a, > 0 ist h(x) genau dann monoton wachsend, wenn dies x 7 xa1
ist. Also ist h monoton wachsend, wenn a 1 ist und monoton fallend, wenn
a 1 ist.
Anmerkung: F
ur a = 1 erhalt man eine Exponentialverteilung mit konstanter Ausfallrate.
ANHANG A. ERGANZENDE
BEISPIELE
145
x a
(a 1)xa2 = aa x2n2
a1 a
= xa .
a
F
ur a > 1 ist also
0
f (x) = 0 x =
r
a
a1
und wegen f 0 und limx0 f (x) = limx f (x) = 0 liegt dort auch ein
Maximum. F
ur a 1 ist f streng monoton fallend. Somit gilt
( q
a a1
, falls a > 1,
a
mod(W (, a)) =
0
sonst.
A.11
Beispiel
F
ur , c > 0 heit die Zufallsvariable X Pareto-verteilt mit Parametern > 0
und c > 0 (X P ar(, c)), wenn sie stetig verteilt ist mit der Dichte
(
c x(+1) , falls x c,
f (x) =
0,
sonst.
a) Berechnen Sie allgemein das r-te Moment 0r einer P ar(, c)-verteilten Zufallsvariablen.
b) Berechnen Sie die Schiefe einer P ar(4, c)-verteilten Zufallsvariablen.
L
osung zu Beispiel A.11
a)
0r
=
=
=
Zc
xr f (x)dx
xr c x(+1) dx
c x(r+1) dx
ANHANG A. ERGANZENDE
BEISPIELE
146
c
=
( r)cr
r
=
c .
r
Also:
0r =
r
c ,
r
( r)cr x(r+1) dx
|
{z
}
falls r < .
2 = 02 12
4 2
c
=
42
= 2c2
=
16 2
c
9
4
41
2
c2
2 2
c
9
3 = 03 302 01 + 21 0 3
4 2
4
4 3
c 3
c
c+2
=
43
42
41
4
64
3
= c 432 +2
3
27
4
41
3
c3
20 3
c
27
Also ist die Schiefe
=
1 =
A.12
Beispiel
20 3
c
3
27
=
q 3 =
3
2 2
c
9
20 3
c
27
2 2 3
c
27
20
= = 5 2 7.0711 .
2 2
ANHANG A. ERGANZENDE
BEISPIELE
147
b) F
ur a, c > 0 sei die Ausfallrate h gegeben durch
a
, falls t c,
t
h(t) =
0 sonst.
L
osung zu Beispiel A.12
a) Es ist
f (t)
.
1 F (t)
Integration der Ausfallrate ergibt somit
Z x
Z x
f (t)
h(t) dt =
dt
0
0 1 F (t)
h(t) =
x
= ln (1 F (t))
0
= ln (1 F (x)) .
wie behauptet.
Z
F (x) = 1 exp
x
0
h(t) dt
h(t) dt ,
h(t) dt
=
x>c
=
=
=
=
Z
1 exp
a
dt
c t
x
1 exp a ln(t)
Z
1 exp
Berechnet man die Dichte der soeben bestimmten Verteilung, erkennt man, dass
es sich hierbei um eine P ar(a, c)-Verteilung handelt.
ANHANG A. ERGANZENDE
BEISPIELE
148
A.13
Beispiel
z
X
k=0
z
X
k=0
P (X = k, Y = z k)
P (X = k) P (Y = z k) (Stoch. Unabhangigk.)
z
X
k
k=0
k!
zk
e
(z k)!
z
X
1
z!
= e
k zk
z!
k!(z
k)!
k=0
z
1 (+) X z k zk
e
=
z!
k
(+)
k=0
1 (+)
e
( + )z
=
z!
( + )z (+)
=
e
z!
(bin. Formel)
Beispiel
Die Verteilung der Summe k stochastisch unabhangiger, Exp()-verteilter Zufallsvariablen bezeichnet man als Erlangverteilung mit Parameter und Stufenparameter k oder kurz als Erl(k, )-Verteilung. Zeigen Sie durch vollstandige
Induktion nach k, dass die Dichte einer Erl(k, )-verteilten Zufallsvariable durch
k1
(x) ex , falls x > 0,
(k 1)!
fk,(x) =
0
sonst,
gegeben ist.
L
osung zu Beispiel A.14 F
ur k = 1 ist
f1, (x) =
(x)0 x
x
e
= e
| {z }
0!
ANHANG A. ERGANZENDE
BEISPIELE
149
Nun zum Induktionsschritt: Nach Induktionsvoraussetzung ist die Summe k stochastisch unabhangiger, Exp()-verteilter Zufallsvariablen Erl(k, )-verteilt. Zu
zeigen ist also, dass die Faltung einer Erl(k, )-Verteilung mit einer Exp()Verteilung eine Erl(k + 1, )-Verteilung ergibt.
Z
fk,(x)f1, (z x) dx =
=
=
=
=
=
(x)k1 x
e
e(xz) dx
(k
1)!
0
Z z
k+1
xk1 e(x+zx) dx
(k 1)! 0
Z z
k+1
xk1 ez dx
(k 1)! 0
z
k+1 z xk
e
(k 1)!
k 0
k+1 z z k
e
(k 1)!
k
k
(z) z
e
| k!{z
}
A.15
Beispiel
a) Beweisen Sie: F
ur beliebige Zufallsvariablen X, Y , Z gilt:
cov(X +Y, Z) = cov(X, Z) + cov(Y, Z)
b) Ein W
urfel werde (n + m)-mal geworfen (n, m IN). Die Zufallsvariable
X beschreibe die Anzahl des Auftretens von Sechsen bei den ersten n
W
urfen, die Zufallsvariable Z beschreibe die Anzahl des Auftretens von
Sechsen bei allen n + m W
urfen. Berechnen Sie den Korrelationskoeffizi
enten (X, Z).
Lo
sung zu Beispiel A.15
a) Es ist
cov(X, Y ) = E[(X E(X))(Y E(Y ))] = E(XY ) E(X)E(Y ) .
ANHANG A. ERGANZENDE
BEISPIELE
150
Also ist
cov(X + Y, Z) =
=
=
=
cov(Y,Z)
= cov(X, Z) + cov(Y, Z)
b) Es ist X die Anzahl des Auftretens von Sechsen bei den ersten n W
urfen.
Sei nun Y die Anzahl des Auftretens von Sechsen bei den restlichen m
W
urfen. Dann ist Z = X + Y , und X und Y sind stochastisch unabhangig,
insbesondere also auch unkorreliert. Mit Teil a) erhalt man
cov(X, Z) = cov(X, X + Y ) = cov(X, X) + cov(X, Y ) = var(X)
| {z } | {z }
0
var(X)
Da X B(n, 61 ), ist
5
.
36
5
.
36
5
36
5
36
(n + m)
5
36
n
.
n+m
Beispiel
Die Korpergroen (X, Y ) von Ehegatten, wobei X die Korpergroe des Mannes
ist, seien bivariat normalverteilt mit
X = 175, X = 15, Y = 170, Y = 15, = 0.7.
Berechnen Sie die Wahrscheinlichkeit, dass bei einem zufallig ausgewahlten Ehepaar die Frau groer als der Mann ist.
ANHANG A. ERGANZENDE
BEISPIELE
151
Lo
sung zu Beispiel A.16 Gesucht ist P (Y > X) = P (X Y < 0). Nach dem
Satz in 11.2 gilt
2
X Y = 1X +(1)Y N(1X 1Y , 12 X
+(1)2 Y2 +21(1)X Y ) .
Daher ist
P (X Y < 0) =
=
=
=
A.17
05
135
1 (0.430)
1 0.6664
0.3336 .
Beispiel
L
osung zu Beispiel A.17
a) Es ist
cov(X, Y )
(x E(X)) + E(Y ) .
var(X)
Zur Bestimmung der benotigten Momente, berechnen wir zunachst allgemein
Z 1Z x
r s
E (X Y ) =
xr y s 8xy dy dx
0
0
Z 1Z x
= 8
xr+1 y s+1 dy dx
0
0
Z 1
1 s+2
x dx
= 8
xr+1
s+2
0
Z 1
8
=
xr+s+3 dx
s+2 0
8
=
(r + s + 4)(s + 2)
gII (x) =
ANHANG A. ERGANZENDE
BEISPIELE
152
F
ur spezielle Werte von r und s erhalt man:
r = 1, s = 0
E(X) =
r = 2, s = 0
E(X 2 ) =
r = 0, s = 1
E(Y ) =
r = 1, s = 1
E(XY ) =
4
,
5
2
,
3
8
,
15
4
.
9
2
und var(X) =
3
2
4
2
=
.
5
75
b) Zunachst ist
gII (Y ) =
cov(X, Y )
(Y E(Y )) + E(X)
var(Y )
Somit ist
var (gII (Y )) + E (X gII (Y ))2
cov(X, Y )
= var
(Y E(Y )) + E(X)
var(Y )
(
2 )
cov(X, Y )
(Y E(Y )) + E(X)
+E
X
var(Y )
cov 2 (X, Y )
var(Y )
var 2 (Y )
(
2 )
cov(X, Y )
+E
(X E(X))
(Y E(Y ))
var(Y )
n
cov 2 (X, Y )
+ E (X E(X))2
=
var(Y )
cov(X, Y )
(X E(X)) (Y E(Y ))
2
var(Y )
cov 2 (X, Y )
2
+
(Y E(Y ))
var 2 (Y )
cov(X, Y )
cov 2 (X, Y )
+ var(X) 2
cov(X, Y )
=
var(Y )
var(Y )
cov 2 (X, Y )
var(Y )
+
var 2 (Y )
= var(X) ,
=
ANHANG A. ERGANZENDE
BEISPIELE
153
wie behauptet.
A.18
Beispiel
p lim X = 01 =
n
und somit
A.19
1
p lim Nn = .
n n
Beispiel
ANHANG A. ERGANZENDE
BEISPIELE
154
1
n!
[p(t)]k [(1 p)(t)]nk et
k!(n k)!
n!
n=k
X
(t)n t
n k
e
p (1 p)nk
=
n!
k
n=k
n=k
[p(t)]k (p)t
e
=
k!
{z
=1
Anhang B
Literaturverzeichnis
(a) Ausgewahlte Lehrb
ucher:
Bosch, K.: Elementare Einfuhrung in die Wahrscheinlichkeitsrechnung, 9.
Auflage, Reinbek 2006
Bosch, K.: Elementare Einfuhrung in die angewandte Statistik, 8. Auflage, Braunschweig/Wiesbaden 2005.
De Groot, M.H. Probability and Statistics, 4. Auflage, Reading, Mass.,
2006.
Gallager, R.G.: Discrete Stochastic Processes, 3. Auflage, Boston 1996.
Hartung, J.: Statistik. Lehr- und Handbuch der angewandten Statistik,
14. Auflage, M
unchen 2005.
Heller, W.-D. et al.: Stochastische Sytsteme, Berlin 1978.
Henze, N.: Stochastik fur Einsteiger, 7. Auflage, Braunschweig 2008.
Hu
bner, G.: Stochastik, 4. Auflage, Braunschweig / Wiesbaden 2003.
Larsen, R.J., Marx, L.M.: An Introduction to Mathematical Statistics
and its Applications, 4. Auflage, Englewood Cliffs (NJ) 2006.
Lehn, J., Wegmann, H.: Einfuhrung in die Statistik, 5. Auflage, Stuttgart 2006.
Mood, A.M., Graybill, F.A., Boes, D.C.: Introduction to the Theory
of Statistics, 3. Auflage, Auckland 1996.
Schlittgen, R.: Statistische Inferenz, M
unchen 1996.
Wasserman, L.; All of Statistics, New York 2004.
Webel, K., Wied, D.: Stochastische Prozesse, Wiesbaden 2012.
Mosler: Stochastische Modelle
c Karl Mosler K
oln 2013
Oktober 2013
156
ANHANG B. LITERATURVERZEICHNIS
(b) Weiterf
uhrende Lehrb
ucher:
Bu
ning, H., Trenkler, G.: Nichtparametrische statistische Methoden, 2.
Auflage, Berlin 1994.
Cox, D.R., Hinkley, D.V.: Theoretical Statistics, 2. Auflage, London
1997.
Cox, J.C., Ross, S.A., Rubinstein, M.: Option pricing: A simplified
approach, J. Financial Economics 7(1979), 229-263.
Chow, Y.S., Teicher, H.: Probability Theory, 4. Auflage, New York,
2007.
Chung, K.L.: Markov Chains with Stationary Transition Probabilities, 2.
Auflage, Berlin 1967.
Chung, K.L.: A Course in Probability Theory, 3. Auflage, New York 2000.
C
inlar, E.: Introduction to Stochastic Processes, Englewood Cliffs (NJ),
1975.
Etheridge, A.: A Course in Financial Calculus, Cambridge 2002.
Everitt, B.S.: Introduction to Optimization Methods and Their Application in Statistics, London 1987.
Feller, W.: An Introduction to Probability Theory and its Applications, I
und II, New York 1967 bzw. 1971.
Fisz, M.: Wahrscheinlichkeitsrechnung und Mathematische Statistik, 11.
Auflage, Berlin 1989.
F
ollmer, H., Schied, A.: Stochastic Finance: An Introduction in Discrete Time, 2. Auflage, Berlin 2004.
F
orster, E., R
onz, B.: Methoden der Korrelations- und Regressionsanalyse, Berlin 1979.
Gallager, R.G.: Discrete Stochastic Processes, 3. Auflage, Boston 1996.
Garthwaite, P.H., Jolliffe, I.T., Jones, B.: Statistical Inference, 2.
Auflage, London 2002.
Hartung, J., Elpelt, B.: Multivariate Statistik, 7. Auflage, M
unchen
2007.
Harvey, A.C.: Time Series Models, 2. Auflage, Oxford 1996.
Hesse, C.: Angewandte Wahrscheinlichkeitstheorie, Braunschweig, 2005.
Hu
Stuttgart 2005.
bler, O.: Okonometrie,
Hull, J.C.: Options, Futures, and other Derivatives, 7. Auflage, London
2008.
157
ANHANG B. LITERATURVERZEICHNIS
Johnson, R.A, Wichern, D.W.: Applied Multivariate Statistical Analysis, 5. Auflage, Englewood Cliffs (NJ), 2002.
Klein, J.P., Moeschberger, M.L.: Survival Analysis: Techniques for
Censored and Truncated Data, 3. Auflage, New York 2005.
Lehmann, E.L.: Theory of Point Estimation, 2. Auflage, New York 1998.
Lehmann, E.L.: Testing Statistical Hypotheses, 3. Auflage, New York
2005.
Lu
tkepohl, H.: New Introduction to Multiple Time Series, 2. Auflage,
Berlin 2006.
Malliaris, A.G., Brock, W.A.: Stochastic Methods in Economics and
Finance, 7. Auflage Amsterdam 1999.
Pfanzagl, J.: Elementare Wahrscheinlichkeitsrechnung, 2. Auflage, Berlin
1991.
Pokropp, F.: Stichproben: Theorie und Verfahren, 2. Auflage, M
unchen
1996.
Rohatgi, V.K.: An Introduction to Probability Theory and Mathematical
Statistics, 2.Auflage, New York 2001.
Ross, S.M.: Stochastic Processes, 2nd edition, New York 1996.
Schlittgen, R., Streitberg, B.H.J.: Zeitreihenanalyse, 8.
M
unchen 2001.
Auflage,
Toutenburg, H.: Moderne nichtparametrische Verfahren der Risikoanalyse, 3.Auflage, Heidelberg 1992.
(c) Handb
ucher und Lexika:
Bosch, K.: Statistik-Taschenbuch, 3. Auflage, M
unchen 1998.
Hartung, J., Elpelt, B.: Multivariate Statistik, 7. Auflage, M
unchen
2007.
Hartung, J., Elpelt, B., Kl
osener, K.-H.: Statistik,
M
unchen 2007.
14.
Auflage,
158
ANHANG B. LITERATURVERZEICHNIS
Gentleman, J.F., Whitmore, G.A. (Hrsg.): Case Studies in Data
Analysis, New York 1994.
Riedwyl, H.: Lineare Regression und Verwandtes, Basel 1997.
fur Okonomen,
Berlin Heidelberg 2009.
Anhang C
Einige mathematische Symbole
IN = {1, 2, 3, . . . , }
IN0 = {0, 1, 2, 3, . . .}
INk = {1, 2, . . . , k}
ZZ = {. . . , 2, 1, 0, 1, 2, . . .}
IR
IR0
C
I
F (x+) = lim F (x) = lim F (x)
x&x0
xx0
x<x0
xx0
x>x0
die nat
urlichen Zahlen
die nat
urlichen Zahlen mit der Null
die ersten k nat
urlichen Zahlen
die ganzen Zahlen
die reellen Zahlen, d.i. die Zahlengerade
die positiven reellen Zahlen einschlielich der
Null
die komplexen Zahlen, d.i. die komplexe Ebene
rechtsseitiger Limes der Funktion F an der
Stelle x
linksseitiger Limes der Funktion F an der Stelle x
Oktober 2013