Matrizenmultiplikation – Serlo „Mathe für Nicht-Freaks“
In diesem Artikel überlegen wir uns, wie man eine Multiplikation für Matrizen definieren kann. Wir werden sehen, dass die Matrizenmultiplikation der Komposition linearer Abbildungen entspricht. Außerdem beweisen wir einige Eigenschaften der Matrixmultiplikation.
Im Artikel zu Abbildungsmatrizen haben wir gelernt, wie wir mithilfe von Matrizen lineare Abbildungen zwischen endlichdimensionalen Vektorräumen und beschreiben können. Dafür wählen wir zuerst eine Basis von und von und bilden dann die Abbildungsmatrix . Diese beschreibt auf der Ebene von Koordinaten, was die lineare Abbildung mit einem Vektor macht: Es gilt
wobei die Koordinatenabbildung bzgl. ist, die einen Vektor auf den Koordinatenvektor bzgl. abbildet. Analog ist die Koordinatenabbildung bzgl. .
Lineare Abbildungen und können wir durch Hintereinanderausführung miteinander verknüpfen und erhalten eine lineare Abbildung . Können wir eine passende Verknüpfung auf Matrizen definieren? Mit passend ist gemeint, dass die Verknüpfung der entsprechenden Abbildungsmatrizen die verknüpfte lineare Abbildung beschreiben soll.
Betrachten wir zum Beispiel zwei Matrizen und mit den entsprechenden linearen Abbildungen
und
gegeben durch Matrix-Vektor-Multiplikation. Dann ist die Abbildungsmatrix von (bzgl. der Standardbasen in und ) und ist die Abbildungsmatrix von (bzgl. der Standardbasen in und ). Die Verknüpfung von und sollte die Abbildungsmatrix von sein.
Um jedoch die Abbildungen und hintereinander ausführen zu können, muss der Zielraum von gleich der Definitionsmenge von sein. Das heißt, es soll , also sein. Also muss die Anzahl der Spalten von gleich der Anzahl der Zeilen von sein, damit wir die Matrizen zu einer neuen Matrix verknüpfen können.
Wir wollen uns überlegen, wie die Verknüpfung von und aussehen sollte, indem wir die Abbildungsmatrix von bestimmen. Dafür müssen wir die Bilder der Standardbasisvektoren unter der Abbildung berechnen. Sie bilden dann die Spalten der Abbildungsmatrix von .
Wir bezeichnen die Einträge von mit und die von mit , das heißt und . Außerdem bezeichnen wir die gesuchte Abbildungsmatrix von mit .
Für und ist der Eintrag per Definition der darstellenden Matrix von gegeben durch den -ten Eintrag des Vektors . Diesen können wir mithilfe der Definition von und unter Verwendung der Definition der Matrix-Vektor-Multiplikation leicht berechnen:
Damit sind alle Einträge der Matrix definiert und es gilt
Wir nennen das Produkt der beiden Matrizen und und schreiben für die Matrixmultiplikation.
Mathematisch können wir die Matrizenmultiplikation auch als Verknüpfung (ähnlich wie die Multiplikation von reellen Zahlen) auffassen.
Definition (Matrixmultiplikation)
Die Matrixmultiplikation ist eine Verknüpfung
.
Sie bildet zwei Matrizen und auf die Matrix ab, wobei
für und .
Allerdings gibt es einen wichtigen Unterschied zur Multiplikation von reellen Zahlen: Bei Matrizen müssen wir beachten, dass die Dimensionen der Matrizen, die wir multiplizieren wollen, zusammenpassen.
Hinweis
Die beiden Matrizen müssen nicht gleich groß sein, es muss nur die Spaltenanzahl der linken Matrix gleich der Zeilenanzahl der rechten Matrix sein. Das Ergebnis hat dann die Zeilenanzahl linken Matrix und die Spaltenanzahl der rechten Matrix . Das bedeutet, zwei Matrizen können nur dann miteinander multipliziert werden, wenn ist.
Warnung
Die beiden Matrizen mit können nicht miteinander multipliziert werden.
Merkregel: Zeile mal Spalte
Nach der Definition ist jeder Eintrag im Produkt die komponentenweise Multiplikation der Elemente der -ten Zeile von mit der -ten Spalte von und die Summation all dieser Produkte.
Dieses Vorgehen kann man sich merken als Zeile mal Spalte, wie es in der Abbildung rechts gezeigt ist. Beim Rechnen kann das Falksche Schema helfen, um mit Zeilen und Spalten nicht durcheinander zu kommen.
Wir suchen das Matrixprodukt . Diese Matrix hat die Form
Wir müssen die einzelnen Einträge berechnen. Das machen wir hier einmal ausführlich für den Eintrag . Die Berechnung der anderen Einträge funktioniert ähnlich.
Laut Formel gilt
Diese Berechnung kann man sich auch als "Multiplikation" der 2. Zeile von mit der 3.Spalte von merken. Um das zu veranschaulichen markieren wir die Einträge aus der Summe in den Matrizen. Wir haben die Summe
In den Matrizen sind das folgende Einträge:
So kann man auch die anderen Einträge von bestimmen und erhält
In diesem Fall können wir sowohl als auch berechnen. Sei . Dann ist eine -Matrix . Wir berechnen den Eintrag:
Also ist .
Sei . Dann ist eine -Matrix. Wir können die Einträge von durch "Zeile mal Spalte" berechnen. Zum Beispiel ist der erste Eintrag von die erste Zeile von mal die erste Spalte von , d.h. . Machen wir das mit jedem Eintrag, erhalten wir
In diesem Beispiel wollen wir uns klarmachen, dass die Matrixmulitplikation tatsächlich die Verknüpfung der einzelnen Abbildungen ist. Was ist damit gemeint? Wenn wir zwei Matrizen und haben, die wir miteinander verknüpfen können, und einen Vektor , dann sollte sein. Um uns das verständlicher zu machen, betrachten wir folgendes Beispiel:
Seien und die folgenden Matrizen mit Einträgen in :
Sei außerdem . Wir prüfen nach, dass . Dafür berechnen wir zunächst das Matrixprodukt :
Der folgende Satz zeigt, dass die Matrixmultiplikation tatsächlich die Verknüpfung linearer Abbildungen widerspiegelt.
Satz (Abbildungsmatrizen und Komposition linearer Abbildungen)
Seien und lineare Abbildungen zwischen endlichdimensionalen Vektorräumen. Seien ferner eine Basis von , eine Basis von und eine Basis von . Dann gilt
Beweis (Abbildungsmatrizen und Komposition linearer Abbildungen)
Sei und sei . Seien außerdem bzw. die darstellenden Matrizen von bzw. .
Nach Definition der darstellenden Matrix wissen wir, dass die die eindeutigen Skalare sind, sodass
für alle gilt. Um zu beweisen, müssen wir
nachrechnen. In der Tat sehen wir:
Wegen der Eindeutigkeit der Koordinaten in der Linearkombination der folgt .
Warnung
Für die Kürzungsregel ist es wichtig, dass bei den darstellenden Matrizen von und in beiden Fällen dieselbe geordnete Basis von gewählt wird. Bildet man für eine andere Basis von , dann gilt die Kürzungsregel nicht mehr: Die Gleichung
ist im Allgemeinen falsch. Weil darstellende Matrizen von der Reihenfolge der Basisvektoren abhängen, gilt das auch dann, wenn nur eine Umordnung von ist.
Zunächst überprüfen wir, dass die Typen der Matrizen, die wir jeweils multiplizieren möchten, zusammenpassen. Für die Produkte und ist dies direkt sichtbar. Nun ist und , also sind die Produkte auf beiden Seiten des Assoziativgesetzes definiert, beide Ergebnisse liegen in .
Nun betrachten wir die einzelnen Komponenten der Matrizen, um die Gleichheit festzustellen. Es sei .
Wir bezeichnen die Einträge der Einheitsmatrix mit , d.h. . Es gilt
Satz (Die Einheitsmatrix ist ein links- und rechtsneutrales Element der Matrixmultiplikation)
Sei . Dann gilt
Beweis (Die Einheitsmatrix ist ein links- und rechtsneutrales Element der Matrixmultiplikation)
Beweisschritt:
Wir beweisen diese Gleichheit durch direkte Multiplikation. Es gilt für alle und für alle :
Wir haben bei der letzten Gleichheit verwendet, dass wenn und .
Da jeder Eintrag von mit dem Eintrag von an der gleichen Stelle übereinstimmt, sind die beiden Matrizen gleich.
Beweisschritt:
Wir gehen wie im ersten Beweisschritt vor. Für alle und für alle gilt:
Also ist auch diese Gleichheit bewiesen.
Somit sind die Einheitsmatrizen der entsprechenden Größe links- bzw. rechtsneutrale Elemente bezüglich der Matrizenmultiplikation.
In den -Matrizen können wir die fehlschlagende Kommutativität an folgendem Beispiel sehen: Einerseits ist
und andererseits ist
Also spielt die Reihenfolge bei der Matrizenmultiplikation eine Rolle.
Warnung
Im Allgemeinen gilt , das Matrixprodukt ist also nicht kommutativ.
Das Kommutativgesetz gilt nur in wenigen Spezialfällen (z.B. Produkte von Diagonalmatrizen).
Da die Anzahl der Zeilen und Spalten der Matrizen zusammenpassen muss, kann es sogar sein, dass eines der beiden Produkte nicht einmal definiert ist! Zum Beispiel ist für das Produkt definiert, aber das Produkt ist nicht definiert.
Multiplizieren wir zwei -Matrizen, so ist das Ergebnis wieder eine -Matrix. Wir kennen nun also zwei innere Verknüpfungen auf der Menge : die Addition von Matrizen
sowie die Matrixmultiplikation
Aus dem Artikel zur Vektorraumstruktur für Matrizen wissen wir bereits, dass eine abelsche Gruppe ist. Aus Eigenschaften der Matrixmultiplikation folgt, dass sogar ein Ring mit Eins ist: Die Multiplikation ist assoziativ, es gibt ein neutrales Element und es gelten die Distributivgesetze.
Der Ring der Matrizen ist jedoch im Allgemeinen nicht kommutativ, wie wir oben gesehen haben. Beachte auch, dass wir eine solche Ringstruktur nur für quadratische Matrizen haben, da andernfalls die Multiplikation zweier Elemente nicht definiert ist.