In diesem Bereich wollen wir nur kurz Möglichkeiten der Matrizrechnung erläutern indem wir einige interessante Themen anschneiden.

Inhalt:
Ȇberbestimmte Gleichungssysteme
»Beispiel: Regressionsgerade
»Beispiel: Dynamisches System

Überbestimmte Gleichungssysteme

Gleichungssyssteme \(Ax=b\) waren eine wichtige Anwendung der Matrizen. Das Rangkriterium konnte Aussage darüber treffen, wann ein Gleichungssystem keine Lösung hat, nämlich wenn \(\mathrm{rang } \ A< \mathrm{rang } \ (A|b)\) gilt.

so etwas geschieht sehr leicht bei überbestimmten Gleichungssystemen, wenn wir also mehr gleichungen als unbekannte haben ein beispiel wäre \(Ax=b\) mit

\begin{align*}
A=\begin{pmatrix}
1 & 1\\
1 & -1\\
2 & 0\\
1 & 2\\
\end{pmatrix}, b=\begin{pmatrix}
2\\
-1\\
3\\
4\\
\end{pmatrix}.
\end{align*}


Sehr schnell können wir berechnen, dass \(\mathrm{rang } \ A=2<3=\mathrm{rang } \ (A|b)\) gilt.

Haben wir ein überbestimmtes Gleichungssystem \(Ax=b\) welches keine Lösung besitzt, so erhalten wir die "bestmögliche" Lösung \(x_r\) indem wir das \((m\times m)\)-Gleichungssystem
\begin{align*}
A^tAx=A^tb
\end{align*} lösen. Bestmöglich bedeutet hier, dass der Fehler des Gleichungssystems für unsere Approximationslösung \(x_r\)
\begin{align*}
|| Ax_r-b||
\end{align*}
minimal ist. In der Statistik ist dieses Verfahren als Methode der kleinsten Quadrate bekannt.

Beispiel: Regressionsgerade

Berechne die lineare Regressionsgerade \(f(x)=kx+d\) durch die drei Punkte \((1;1)\), \((2;3)\), \((3;4)\).

Lösung: Wir sehen, dass die drei Punkte offensichtlich nicht auf einer Geraden liegen. Wir suchen \(k\) und \(d\) unserer Gerade \(f\), setzen wir ein, erhalten wir
\begin{align*}
&1k+d=1\\
&2k+d=3\\
&3k+d=4
\end{align*}
und das wird zu
\begin{align*}
Ax=b\\
\begin{pmatrix}
1 & 1\\
2 & 1\\
3 & 1\\
\end{pmatrix}
\cdot \binom{k}{d}=
\begin{pmatrix}
1 \\
3 \\
4 \\
\end{pmatrix}.
\end{align*}

Bitte beachten, wir bleiben bei der Schreibweise \(Ax=b\), wobei \(x\) wie immer der Vektor der zwei unbekannten ist, also \(x=(k,d)\). Verwechseln wir dieses \(x\) nicht mit dem \(x\) aus \(f(x)=kx+d\). Die rechte Seite \(b\) entspricht den drei \(y\)-Koordinaten.

Nun multiplizieren wir mit \(A^t\)
\begin{align*}
\left(
\begin{array}{ccc}
1 & 2 & 3 \\
1 & 1 & 1 \\
\end{array}
\right)\cdot \begin{pmatrix}
1 & 1\\
2 & 1\\
3 & 1\\
\end{pmatrix} x =\left(
\begin{array}{ccc}
1 & 2 & 3 \\
1 & 1 & 1 \\
\end{array}
\right)\cdot \begin{pmatrix}
1 \\
3 \\
4 \\
\end{pmatrix}\\
\left(
\begin{array}{cc}
14 & 6 \\
6 & 3 \\
\end{array}
\right)x=\binom{19}{8}.
\end{align*}



Dieses Gleichungssystem hat die Lösung
\begin{align*}
x_r=(k_r,d_r)=(\frac{3}{2},-\frac{1}{3}).
\end{align*}
Wie können wir uns nun einen minimalen Fehler vorstellen? Die drei Punkte eingesetzt in \(y=kx+d\), wiederum übersetzt in Matrixschreibweise, liest sich
\begin{align*}
b=Ax_r.
\end{align*}
ergibt, dass der Fehler minimal ist im Sinne davon, dass
\begin{align*}
|| b-Ax_r||
\end{align*}

minimal ist. Übersetzt in die Funktionenschreibweise bedeutet das, dass die Summe der drei Fehler
\begin{align*}
|y_i-kx_i-d|, i\in \{1,2,3\}
\end{align*}
minimal ist. Es handelt sich demnach tatsächlich um die lineare Regressionsgerade:

ebenen 1

 

Die Summe der drei eingezeichneten Fehler ist minimal.

Beispiel: Dynamisches System

Ein Partikel sei auf einer Kreisscheibe, die wir der Einfachheit halber in drei Teile teilen, zufällig in einem der drei Sektoren.

anwendungen_matrizen_2

Nun bewegt sich in jedem Zeitschritt der Partikel mit einer Wahrscheinlichkeit von \(p_l=\frac{1}{2}\) nach links und mit \(p_r=\frac{1}{2}\) nach rechts (jedes Molekül verlässt also den Sektor, indem es war). Wo wird unser Partikel nach langer Zeit sein in Abhängigkeit des Startwerts? Es beschreibe \(x_0=(1;0;0)\) den Vektor, der angibt, dass der Partikel zu Beginn im ersten Feld ist. Offensichtlich muss einen Zeitschritt später, zum Zeitpunkt \(t=1\), \(x_1=(0;\frac{1}{2};\frac{1}{2})\) gelten. Dies erreichen wir durch das Produkt von \(x_0\) mit der folgenden Matrix
\begin{align*}
A=\left(\begin{array}{ccc}
0 & \frac{1}{2} & \frac{1}{2} \\
\frac{1}{2} & 0 & \frac{1}{2} \\
\frac{1}{2} & \frac{1}{2} & 0 \\
\end{array}\right).
\end{align*}

Tatsächlich gilt \(Ax_0=x=1\) wie man gerne nachrechnen kann. Zudem gilt aber auch
\begin{align*}
A^2x_0=Ax_1=x_2=\begin{pmatrix}
\frac{1}{2} \\ \frac{1}{4} \\\frac{1}{4}
\end{pmatrix}
\end{align*}

was genau unser gewünschtes \(x_2\) ist, wenn wir, ausgehend von \(x_1\) überlegen, wie dieser Vektor aussehen muss. Dadurch schließen wir nun, ohne Beweis, dass \(x_n=A^nx_0\) gelten muss. Was macht nun \(A^n\) für große \(n\)? Ein Computeralgebraprogramm wie Wolfram Alpha kann uns hier helfen, indem ihr

"MatrixPower[{{0, 0.5, 0.5}, {0.5, 0, 0.5}, {0.5, 0.5, 0}}, 100]"

ausrechnen lasst. Das Resultat ist
\begin{align*}
A^{100}=\left(
\begin{array}{ccc}
0.333333 & 0.333333 & 0.333333 \\
0.333333 & 0.333333 & 0.333333 \\
0.333333 & 0.333333 & 0.333333 \\
\end{array}
\right)
\end{align*}

und daher gilt, \(A^{100}\cdot x_0=(0.333333;0.333333;0.333333)\). Die Wahrscheinlichkeit für die Position des Teilchens ist demnach gleichverteilt.

Wir wollen hier nur kurz anmerken, als Motivation, dass der Vektor \(v=(1;1;1)\), ein Vielfaches von \(A^{100}\cdot x_0\), ein Eigenvektor ist, nämlich der Eigenvektor zum größten Eigenwert \(\lambda =1\).