Inhalt:
»Vorbemerkung
»Die Dimension
»Die transponierte Matrix
»Quadratische Matrizen
»Der Rang
»Symmetrische und Schiefsymmetrische Matrizen

Vorbemerkung

Umgangssprachlich denkt man beim ersten Blick auf eine Matrix an ein Zahlenraster oder eine Tabelle, je nach Anwendung stimmt das auch ein wenig. Wir haben Zeilen und Spalten mit eingetragenen Zahlen. So resultieren die folgenden Matrizen

\begin{align*}
\begin{pmatrix}
0 & 1 & 2 \\
3 & 4 & 5
\end{pmatrix},\quad
\begin{pmatrix}
0 & 1 & -1 \\
-1 & 0 & 1 \\
1 & -1 & 0
\end{pmatrix},\quad
\begin{pmatrix}
0 & 288 & 178 \\
288 & 0 & 249 \\
178 & 249 & 0
\end{pmatrix}
\end{align*}


zum Teil aus ganz naheliegenden Anwendungen. Wir versuchen im folgenden dieses "Aussehen" zu formalisieren um Mathematik damit zu betreiben. Die grundlegende Definition einer Matrix und die Rechenarten findet ihr dabei hier (LINK).

Die Dimension

Die Dimension einer Matrix \((n\times m)\) ist die definierende Eigenschaft. Wir werden sehen, dass die Dimension entscheidet, ob man Matrizen addieren oder multiplizieren (oder keines von beidem) kann. Es gilt zwar meist \(n\cdot m\) aber ob unsere Matrix die Dimension \((n\times m)\) oder \((m\times n)\) hat, ist ein großer Unterschied. Wir haben gesehen, dass für die Addition von Matrizen die Dimension jener übereinstimmen müssen. "Oftmals" multiplizieren wir jedoch Matrizen, hier galten andere Ansprüche für die Wohldefiniertheit. Alles hängt von der Dimension ab!

Die transponierte Matrix

Eine transponierte Matrix \(A^t\) ist umgangssprachlich die zur Matrix \(A\) gekippte Matrix. Zeilen und Spalten werden vertauscht, es gilt also \(a_{i,j}=a^t_{j,i}\) in der transponierten Matrix \(A^t\). Die Matrix wird aber nicht einfach um 90 Grad (gegen den Uhrzeigersinn) gedreht, blicken wir zuerst auf einige Beispiele.
\begin{align*}
A=\begin{pmatrix}
0 & 1 & 2 \\
3 & 4 & 5
\end{pmatrix},\quad A^t=
\begin{pmatrix}
0 & 3 \\
1 & 4 \\
2 & 5
\end{pmatrix},\quad
B=\begin{pmatrix}
1 & 2 \\
3 & 4
\end{pmatrix},\quad B^t=
\begin{pmatrix}
1 & 3 \\
2 & 4
\end{pmatrix}
\end{align*}
oder eben
\begin{align*}
A=
\begin{pmatrix}
a_{1,1} & a_{1,2} & \dots & a_{1,m} \\
a_{2,1} & a_{2,2} & \dots & a_{2,m} \\
\vdots & \ddots & \ddots & \vdots \\
a_{n,1} & a_{n,2} & \dots & a_{n,m}
\end{pmatrix},\quad A^t=
\begin{pmatrix}
a_{1,1} & a_{2,1} & \dots & a_{n,1} \\
a_{1,2} & a_{2,2} & \dots & a_{n,2} \\
\vdots & \ddots & \ddots & \vdots \\
a_{1,m} & a_{2,m} & \dots & a_{n,m}
\end{pmatrix}
\end{align*}


Für eine \((n\times m)\)-Matrix \(A\) gilt also, dass \(A^t\) die Dimension \((m\times n)\) besitzt, genauer gilt, dass \(A^t=(a_{ji}\) gilt. Wir werden sehen, dass die transponierte Matrix uns oftmals in Anwendungen hilft.

Quadratische Matrizen

Quadratische Matrizen haben die simple Eigenschaft, dass sie genauso viele Zeilen wie Spalten besitzen. Für jede Anzahl existiert also ein Vektorraum \(\mathbb{R}^{(n\times n)}\). Beispiele sind
\begin{align*}
\left(
\begin{array}{ccc}
-5 & -4 & 7 \\
3 & -7 & 2 \\
-7 & 1 & -1 \\
\end{array}
\right), \left(
\begin{array}{ccc}
5 & -9 & -8 \\
3 & -8 & -3 \\
2 & -2 & 9 \\
\end{array}
\right)
\end{align*}
aus dem \(\mathbb{R}^{(3\times 3)}\) oder
\begin{align*}
\left(
\begin{array}{cc}
7 & 3 \\
-9 & 9 \\
\end{array}
\right), \left(
\begin{array}{cc}
-2 & -1 \\
1 & 0 \\
\end{array}
\right)
\end{align*}
aus dem \(\mathbb{R}^{(2\times 2)}\). Das besondere ist nun, für jeden einzelnen dieser Vektorräume \(\mathbb{R}^{(n\times n)}\) lässt sich eine abgeschlossene Multiplikation definieren, denn das Produkt zweier Matrizen mit Dimension \((n\times n)\) hat wieder Dimension \((n\times n)\)! In Formeln, für \(A,B\in\mathbb{R}^{(n\times n)}\) gilt
\begin{align*}
A\cdot B=\mathbb{R}^{(n\times n)}.
\end{align*}
Wir werden sehen, dass diese Multiplikation in vielen Bereichen sehr wichtig ist, und die quadratischen Matrizen daher eine Sonderrolle bei den Matrizen einnehmen. Die Definition dieser Multiplikation macht aber aus \(\mathbb{R}^{(n\times n)}\) noch keinen Körper! Es fehlt zum Beispiel im Allgemeinen das Inverse Element der Multiplikation, so lässt sich keine multiplikativ inverse Matrix für
\begin{align*}
\begin{pmatrix}
0 & 1\\
0 & 0
\end{pmatrix}
\end{align*}
finden. Nichtsdestotrotz sind die quadratischen Matrizen aufgrund der möglichen Multiplikation sehr wichtig. In der Vorlesung zur linearen Algebra lernt man, dass man am sogenannten Rang bestimmen kann, ob ein multiplikatives Inverses existiert.

Der Rang

Fasst man die Zeilen (oder Spalten) einer Matrix als Vektoren auf, kann man den Rang definieren. Der Rang bezeichnet die Anzahl der linear unabhängigen Spaltenvektoren. Schauen wir uns ein Beispiel an, die Einheitsmatrix
\begin{align*}
\begin{pmatrix}
1 & 0 & 0\\
0 & 1 & 0\\
0 & 0 & 1\\
\end{pmatrix}
\end{align*}
besteht aus den drei Spaltenvektoren
\begin{align*}
\begin{pmatrix}
1 & 0 & 0\\
\end{pmatrix}, \begin{pmatrix}
0 & 1 & 0\\
\end{pmatrix},
\begin{pmatrix}
0 & 0 & 1\\
\end{pmatrix}.
\end{align*}
Diese stellen die Einheitsbasis im \(\mathbb{R}^3\) dar, sind also offensichtlich linear unabhängig. Die Matrix hat also Rang 3. Eine \((n\times m)\)-Matrix kann trivialerweise höchstens Rang \(m\) besitzen, da sie nur \(m\) Spalten, und damit \(m\) Spaltenvektoren besitzt. Es kann aber auch weniger sein, so besitzen die Matrizen
\begin{align*}
A=\begin{pmatrix}
1 & 0 & 3\\
0 & 1 & 1
\end{pmatrix}, B=\begin{pmatrix}
0 & 1\\
0 & 0
\end{pmatrix}
\end{align*}
nur die Ränge 2 und 1. Wieso? Ohne zu Rechnen: Die Spaltenvektoren aus \(A\) sind Elemente des \(\mathbb{R}^2\), hier kann es maximal zwei linear unabhängige Vektoren geben, die ersten zwei Spalten sind das auch offensichtlich. Die dritte Spalte \(\binom 3 1\) ist linear abhängig. Im zweiten Beispiel haben wir den 0-Vektor als Spalte, dieser ist von jedem Vektor linear abhängig.

Man zeigt auch in der lienaren Algebra, dass es egal ist, ob man Zeilen- oder Spaltenrang definiert, sie stimmen überein. Ebenso zeigt man den wichtigen Satz, hat eine quadratische Matrix vollen Rang, dann ist sie invertierbar, hat also eine multiplikative Inverse! Deshalb war, wie erwähnt, \(B\) zuvor nicht invertierbar, hat also kein multiplikatives Inverses.

 

Symmetrische und schiefsymmetrischen Matrizen

Symmetrische Matrizen, genauer gesagt, spiegelsymmetrische Matrizen bezüglich der Hauptachse, fallen einem sofort auf,

\begin{align*}
\begin{pmatrix}
0 & 288 & 178 \\
288 & 0 & 249 \\
178 & 249 & 0
\end{pmatrix},
\begin{pmatrix}
1 & 0 & 0 \\
0 & 1 & 0 \\
0 & 0 & 1
\end{pmatrix}, \begin{pmatrix}
1 & 2\\
2 &1
\end{pmatrix}.
\end{align*}

Als Formel gilt \(a_{ij}=a_{ji}\). Man kann das auch als \(A=A^t\) schreiben. Symmetrische Matrizen treten in den Anwendungen besonders häufig auf. Sie haben zudem besonders schöne Eigenschaften und sind daher von großer Bedeutung. Nicht ganz so "wichtig" sind schiefsymmetrische Matrizen wie wir eine zu Beginn gesehen haben,
\begin{align*}
\begin{pmatrix}
0 & 1 & -1 \\
-1 & 0 & 1 \\
1 & -1 & 0
\end{pmatrix}.
\end{align*}
Eine Matrix wird schiefsymmetrisch genannt, wenn \(a_{ij}=-a_{ji}\) beziehungsweise \(A^t=-A\) gilt. Man trifft zum Beispiel in der Spieltheorie auf sie.