Inhalte
» Vorbemerkung
» Diskrete Zufallsvariablen und ihre Wahrscheinlichkeitsfunktionen
» Stetige Zufallsvariablen
» Anmerkungen
» Beispiele

Vorbemerkung

Wir haben bereits sehr einfache, diskrete Zufallsvariablen behandelt. Mit ein wenig mehr Formalismus können wir aufbauend auf den vorherigen Fragestellungen noch kompliziertere Modelle betrachten.

Diskrete Zufallsvariablen und ihre Wahrscheinlichkeitsfunktionen

Diskrete Zufallsvariablen sind die vielleicht einfacheren der zwei. Sie ordnen den Werten einer endlichen Menge \(\Omega\), zum Beispiel \(\{0, 1, 2, 3\}\), oder einer abzählbar unendlichen Menge, zum Beispiel \(\mathbb{N}\) mit Hilfe einer Wahrscheinlichkeitsfunktion \(f\) eine Wahrscheinlichkeit zu. Ein Beispiel für \(\{0, 1, 2, 3\}\) wäre die Anzahl an Wappen bei einem dreimaligem Münzwurf. Auf der anderen Seite kann die "Wartezeit" in Tagen, bis ein gekauftes Gerät defekt wird, alle natürlichen Zahlen \(\mathbb{N}\) annehmen.

Oftmals konstruieren wir Wahrscheinlichkeitsfunktionen händisch und schreiben die Wahrscheinlichkeiten explizit auf wie in unseren vorigen Beispielen. Das wird natürlich sehr aufwendig bei \(\{0, 1, 2, \dots , 30\}\) oder ist bei den natürlichen Zahlen gar nicht möglich. Wahrscheinlichkeitsfunktionen können jedoch oftmals explizit angegeben werden. Wir wollen hier nun die Grundlage für kompliziertere Wahrscheinlichkeitsfunktionen legen, insbesondere was die Notation angeht. Betrachten wir den zweimaligen Münzwurf und unsere Zufallsvariable \(X\) beobachtet die Anzahl an Wappen \(W\). Dann können wir darauf eine Wahrscheinlichkeitsfunktion, oder Wahrscheinlichkeitsverteilung genannt, \(f\) oder \(P\) auf \(\Omega=\{ 0,1,2\}\) definieren. Je nach Kontext, Buch oder Vorlieben beschreiben die folgenden Formeln alle die Wahrscheinlichkeit, genau zwei mal Wappen zu haben:
\begin{align*}
P(X=2)=P({2})=f(2)=\frac{1}{4}.
\end{align*}
Dabei ist \(P(X=2)\) das sprechendste, "die Wahrscheinlichkeit \(P\), dass meine Zufallsvariable \(X\) den Wert \(x=2\) annimmt". Hingegen ist \(f(2)\) schon die Schreibweise aus der Funktionentheorie, diese hat aber wie wir im folgenden sehen eine große Daseinsberechtigung.

Wir können diese Wahrscheinlichkeitsverteilung auch zeichnen. Dazu fertigen wir ein Histogramm an dessen Klassen die Breite 1 haben und unseren Ereignisraum \(\Omega\) repräsentieren. Als Höhe wählen wir nun \(P\), dadurch repräsentiert auch die Fläche der Balken (Höhe mal Breite\(=1\)) die Wahrscheinlichkeit.

zv1

Das Histogramm ist eine beliebte Veranschaulichung in der Schule, "in Wirklichkeit" betrachtet man oft die abschnittsweise definierte Wahrscheinlichkeitsfunktion \(f\) mit

 

zv2

 

Stetige Zufallsvariablen

Es gibt nicht nur diskrete Zufallsvariablen, es können in Prozessen selbstverständlich auch andere Werte als natürliche Zahlen auftreten. Beliebte Beispiele sind die Lebensdauer (Brenndauer) einer Glühbirne, die Größe eines zufällig ausgewählten Menschen oder die (Warte-)Zeit (nicht in Tagen), bis ein bestimmtes Atom zerfällt. Die Wertebereiche unserer Zufallsvariable sind Elemente der reellen Zahlen \(\mathbb{R}\), es liegt dann eine stetige Zufallsvariable vor.

Eine stetige Zufallsvariable ordnet nun diesen unendlich vielen Werten Wahrscheinlichkeiten zu, dies geschieht über einer stetigen Wahrscheinlichkeitsfunktion \(f\) oft auch Dichtefunktion \(f\) genannt.

Ein großer Unterschied zur diskreten Zufallsvarible ist der folgende: Da unser Wertebereich \(\Omega\) aus unendlich vielen Elementen besteht, denn es ist ja eine überabzählbare Teilmenge von \(\mathbb{R}\), ist die Wahrscheinlichkeit, dass ein bestimmter Wert eintritt gleich 0. Diese auf den ersten Blick merkwürdig wirkende Eigenschaft ergibt in kürze auch mathematisch Sinn. Wie definieren wir aber unsere Zufallsvariable und unsere Verteilungsfunktion, wenn \(P(X=x)=0\) für alle \(x\in\mathbb{R}\) gilt? Bei einer stetigen Zufallsvariable untersuchen wir ausgehend von der Dichtefunktion \(f\) Wahrscheinlichkeiten mit Hilfe von ihrer kumulierten Verteilungsfunktion \(F\) (der Stammfunktion). Diese Verteilungsfunktion misst, ähnlich zum diskreten Fall oben, die Fläche unter dem Graphen, der der Wahrscheinlichkeit entspricht. Im folgenden sind drei Graphen wichtiger, stetiger Dichtefunktionen.

 

stetig1

stetig2

Der blaue Bereich berechnet die Fläche, die Wahrscheinlichkeit, unter dem Graphen für \(P(X\leq 3 )\) (im allgemeinen \(P(X\leq x)\)). Je nach Kontext nutzen wir andere Wahrscheinlichkeitsverteilungen um die Wirklichkeit bestmöglich zu beschreiben. Wir definieren also, sei \(X\) eine stetige Zufallsvariable auf \(\Omega\). Die kumulative Verteilungsfunktion \(F\) ist dann definiert als
\begin{align*}
P(X\leq x):=F(x)=\int_{-\infty}^x f(x)dx.
\end{align*}

Anmerkungen

Noch einmal grob gesagt, die diskrete Zufallsvariable besitzt meist eine explizite Verteilungsfunktion um \(P(X=x)\) zu berechnen, die stetige Zufallsvariable besitzt hingegen eine explizite, kumulierte Verteilungsfunktion, welche \(P(X\leq x)\) berechnet.

Oft definiert man auch kumulierte Verteilungsfunktionen für den diskreten Fall. Aufgrund der vorhandenen, expliziten Formeln über die diskreten Wahrscheinlichkeitsfunktionen und der damit verbundenen, sehr händischen, Möglichkeit, \(P(X\leq 3)=P(X=0)+\dots P(X=3)\), \(P(2\leq X \leq 5)=P(X=2)+\dots +P(X=5)\) und viele mehr explizit auszuschreiben und dem Nachteil, dass es anders als im stetigen Fall, meist keine explizite Formel für die Verteilungsfunktion gibt, werden diese nur eingeführt um das Konzept näher zu bringen, aber haben rechnerisch oftmals weder Mehrwert noch Notwendigkeit.

Wir definieren also hiermit eine kumulative Verteilungsfunktion. Sei \(X\) eine diskrete Zufallsvariable auf \(\Omega\). Die kumulative Verteilungsfunktion \(F\) zur diskreten Wahrscheinlichkeitsverteilung \(f\) (oder \(P\)) ist dann definiert als
\begin{align*}
P(X\leq x):=F(x)= & \sum _{x_i\leq x} P(X=x_i)= \\
& =P(X=0)+\dots + P(X=x) \\
\end{align*}

Betrachten wir noch einmal die unterschiedlichen Schreibweisen. Bei einer diskreten Zufallsvariable \(X\) haben wir meist eine explizite Wahrscheinlichkeitsverteilung welche uns \(P(X=x)\) berechnet. Diese wird auch oft angelehnt an den stetigen Fall, Dichtefunktion \(f\) genannt mit \(f(x)=P(X=x)\). Beliebt ist auch \(P(X=k)\) und \(f(k)\), angelehnt an \(k\) Treffer. Damit können wir uns eine kumulative Verteilungsfunktion \(P(X\leq x)=F(x)\) "bauen" indem wir die einzelnen Terme aufsummieren \(P(X=0)+\dots + P(X=x) = f(0)+\dots +f(x)\). In einer stetigen Zufallsvariable \(X\) gilt \(P(X=x)=0\) für alle \(x\), wir beginnen hier mit einer stetigen Dichtefunktion \(f\), "welche auf die Wirklichkeit passt", und berechnen für die Wahrscheinlichkeit die Fläche unter \(f\) mit Hilfe der kumulativen Verteilungsfunktion \(F\) (in der Analysis Stammfunktion genannt). Im folgenden eine stetige und eine diskrete Wahrscheinlichkeitsfunktion, die beide in unterschiedlichen Kontexten \(P(X\leq 2)\) berechnen

 

stetigdiskret1

 

stetigdiskret2

 

Von einer expliziten Zufallsvariable können wir uns Wahrscheinlichkeitsverteilungen oftmals herleiten, von einer stetigen Zufallsvariable kennt man oftmals den Erwartungswert \(E(X)\) und die Standardabweichung \(\sigma\). Dazu mehr hier.

Beispiele

Stetige Zufallsvariablen: Beispiele zu stetigen Zufallsvariablen findet ihr hier.

Diskrete Zufallsvariablen, die Augensumme: Geben Sie eine Wahrscheinlichkeitsverteilung für die Augensumme beim doppelten Würfelwurf an und berechnen Sie, eine Augensumme weniger als 5 zu würfeln.

Lösung

Für die Kombination der zwei Würfel gibt es 36 mögliche Tupel wie folgt angeordnet:

 

\((1;1)\) \((1;2)\) \((1;3)\) \((1;4)\) \((1;5)\) \((1;6)\)
\((2;1)\) \((2;2)\) \((2;3)\) \(\dots\) \(\dots\) \(\dots\)
\((3;1)\) \((3;2)\) \(\dots\) \(\dots\) \(\dots\) \(\dots\)
\((4;1)\) \(\dots\) \(\dots\) \(\dots\) \(\dots\) \(\dots\)
\((5;1)\) \(\dots\) \(\dots\) \(\dots\) \(\dots\) \(\dots\)
\((6;1)\) \(\dots\) \(\dots\) \(\dots\) \(\dots\) \(\dots\)

 

Dabei fallen uns zwei Sachen auf. Laut Laplace ist jede Kombination gleich wahrscheinlich und besitzt die Wahrscheinlichkeit \(\frac{1}{36}\). Des weiteren erkennen wir ein Muster, in der Diagonalen herrscht immer die selbe Augensumme. Induktiv schließen wir also für unsere Zufallsvariable \(X\), die Augensumme,

 

\(X=x\) \(X=0\) \(X=1\) \(X=2\) \(X=3\) \(X=4\) \(X=5\) \(X=6\)
\(P(X=x)\) \(0\) \(0\) \(\frac{1}{36}\) \(\frac{2}{36}\) \(\frac{3}{36}\) \(\frac{4}{36}\) \(\frac{5}{36}\)
  \(X=7\) \(X=8\) \(X=9\) \(X=10\) \(X=11\) \(X=12\) \(X=13\)
  \(\frac{6}{36}\) \(\frac{5}{36}\) \(\frac{4}{36}\) \(\frac{3}{36}\) \(\frac{2}{36}\) \(\frac{1}{36}\) \(0\)

 

Damit haben wir unsere Verteilung und für \(P(X<5)\) gilt
\begin{align*}
P(X<5) & = P(X\leq 4)\\
& = F(4) \\
& = P(X=2)+P(X=3)+P(X=4)\\
& = \frac{1}{36}+\frac{2}{36}+\frac{3}{36}=\frac{1}{6}.
\end{align*}

 

Anmerkung: In obiger Tabelle haben wir auch \(X=0,1,13\) angeschrieben. Dies ist eine Möglichkeit, jede endliche diskrete Zufallsvariable auf \(\mathbb{N}\) fortzusetzen, manchmal kann das hilfreich sein.