Matrizenmultiplikation – Serlo „Mathe für Nicht-Freaks“

EinführungBearbeiten

Wir haben Matrizen eingeführt, um lineare Abbildungen   zwischen Vektorräumen   und   zu beschreiben. Dabei haben wir uns schon überlegt, wie wir durch die Matrix-Vektor-Multiplikation das Bild   eines Vektors   aus der Abbildungsmatrix berechnen können.

Wie man von z.B. Ableitungen schon weiß, ist es oft hilfreich, eine Abbildung oder Funktion als Verkettung einfacherer Abbildungen zu bilden. Da es sich bei der Verkettung zweier linearer Abbildungen wieder um eine lineare Abbildung handelt, lässt sich auch diese als Multiplikation mit einer Matrix darstellen. Diese Matrix wollen wir jetzt anhand der Matrizen der beiden verketteten Abbildungen herausfinden. In anderen Worten wollen wir die Komposition linearer Abbildungen auf Matrizenebene verstehen.

Komposition im  Bearbeiten

Zunächst wollen wir uns diese Frage in einem einfachen Setting stellen: Sei   ein Körper. Seien   und   lineare Abbildungen und   bzw.   die Darstellenden Matrizen von   bzw.   bezüglich der Standardbasen von   und  . Aus dem Einführungsartikel zu Matrizen wissen wir, dass wir in diesem Fall   und   als   und   schreiben können. Uns interessiert die Darstellungsmatrix von   bezüglich den Standardbasen von   und  .

Der allgemeine Fall ist eine kleine Index-Schlacht. Daher kann es helfen sich diese Abhängigkeit erst einmal in niedrigen Dimensionen zu überlegen. Es gibt eine Aufgabe, die dir dabei helfen kann. Um den allgemeinen Fall zu berechnen, schreiben wir   und   zunächst als Summen, indem wir die Definition der Matrix-Vektor-Multiplikation einsetzen, und setzen dann   in   ein, um den Term für   zu finden:

 

Dies setzen wir nun ein:

 

Hierbei sind   und   die Komponenten der Matrizen   und  . Nun können wir mit Hilfe der Abbildungsmatrix   von   bezüglich der Standardbasis auch   als Summe ausdrücken

 

Aus dem Vergleich der beiden Terme für   kann man jetzt erkennen, dass

 

Damit haben wir einen Zusammenhang zwischen den Abbildungsmatrizen von   und   gefunden.

Komposition in allgemeinen VektorräumenBearbeiten

Nachdem wir Komposition im   durch Matrizen ausgedrückt haben, wollen wir dies auf allgemeine Vektorräume übertragen. Dazu wollen wir uns zunächst ein sinnvolles, allgemeines Setting überlegen. Seien   und   endlichdimensionale Vektorräume mit Basen   und   sowie   eine lineare Abbildung. Im Artikel Abbildungsmatrizen haben wir gesehen, dass wir zu   eine Darstellung von   zur Basis  , als die Matrix-Vektor-Multiplikation   erhalten. Da   zu   die Basisdarstellung bezüglich   liefert, können wir uns vorstellen, dass   Vektoren aus  , die bezüglich   dargestellt sind, durch Matrix-Vektor-Multiplikation in Vektoren aus   überführt werden, die zur Basis   dargestellt sind. Moralisch gesehen gehören also die Basen, die zum darstellen der linearen Abbildung verwendet wurden, zu den Ein- und Ausgabedaten der Abbildungsmatrix.

To-Do:

Diese (eher kategorientheoretische) Argumentation "die Basisdarstellung ist Teil der Daten einer Abbildungsmatrix" noch etwas Erstsemestlerfreundlich verfeinern.

Für unser gesuchtes Setting bedeutet dies nun folgendes: Sei   einen dritten endlichdimensionalen Vektorraum mit Basis   und   eine lineare Abbildung. Wenn wir   bezüglich einer Basis   von   und   darstellen, das heißt   betrachten, erwartet die Abbildungsmatrix einen bezüglich   dargestellten Vektor, um ihn in einen Vektor zu überführen, der bezüglich   dargestellt ist. Da die Abbildungsmatrix   Vektoren liefert, die bezüglich   dargestellt sind, sollten wir   annehmen, um etwas über die Darstellungsmatrix   aussagen zu können.

Hinweis

Man kann auch im Fall   etwas über den Zusammenhang von  ,   und   aussagen. Dafür muss man sich ansehen, wie man Vektoren, die bezüglich   dargestellt sind, in Vektoren, die bezüglich   dargestellt sind, überführt. Dies passiert im Artikel Basiswechselmatrizen.

Wir befinden uns also in folgendem Setting: Seien   ein Körper und   und   endlichdimensionale  -Vektorräume mit gewählten Basen   von  ,   von   und   von  . Ferner seien   und   lineare Abbildungen mit Abbildungen mit Darstellungsmatrizen   und  . Uns interessiert, wie wir die Darstellungsmatrix von   in Abhängigkeit von   und   schreiben können.

To-Do:

Ausrechnen, was passiert.

  • Die Darstellungsmatrix von   bezüglich den Basen   und   ist die eindeutige Matrix   mit   für alle  .
  • Auflösen der linken Seite gibt:
 
  • Die letzte Zeile ist genau der Fall im  . Daher können wir die Ergebnisse des Letzten Abschnitts anwenden:
  • Wir haben gesehen, wie wir eine Matrix   durch die Matrizen   und   ausdrücken können, damit   für alle   gilt.
  • Also ist   und die Beziehung von  ,   und   ist die gleiche, wie im  .

Somit haben wir einen Weg gefunden, für beliebige endlichdimensionale Vektorräume von   und   die Elemente der Abbildungsmatrix von   aus den Abbildungsmatrizen von   und   zu berechnen. Diese Operation wird als Matrixmultiplikation oder Matrizenprodukt bezeichnet.

Definition und MerkregelBearbeiten

Mathematisch können wir die Matrizenmultiplikation auch als Verknüpfung (ähnlich wie die Multiplikation von reellen Zahlen) auffassen.

Definition (Matrixmultiplikation)

Die Matrixmultiplikation ist eine Verknüpfung  . Sie bildet zwei Matrizen   auf die Matrix   mit   ab.

Allerdings gibt es einen wichtigen Unterschied zur Multiplikation von reellen Zahlen: Bei Matrizen müssen wir beachten, dass die Dimensionen der Matrizen, die wir multiplizieren wollen, zusammenpassen.

Hinweis

Die beiden Matrizen müssen nicht gleich groß sein, es muss nur die Spaltenanzahl der linken Matrix   gleich der Zeilenanzahl der rechten Matrix   sein. Das Ergebnis hat dann die Zeilenanzahl linken Matrix   und die Spaltenanzahl der rechten Matrix  . Das bedeutet, zwei Matrizen   können nur dann miteinander multipliziert werden, wenn   ist.

Warnung

Die beiden Matrizen   mit   können nicht miteinander multipliziert werden.

 
Zur Berechnung des Matrizenprodukts wird das Schema Zeile mal Spalte angewandt.

Merkregel: Zeile mal Spalte

Nach der Definition ist jeder Eintrag im Produkt   die komponentenweise Multiplikation der Elemente der  -ten Zeile von   mit der  -ten Spalte von   und die Summation all dieser Produkte. Dieses Vorgehen kann man sich merken als Zeile mal Spalte, wie es in der Abbildung rechts gezeigt ist. Beim Rechnen kann das Falksche Schema helfen, um mit Zeilen und Spalten nicht durcheinander zu kommen.

Konkretes BeispielBearbeiten

Seien   und   zwei lineare Abbildungen. Damit ist   eine verkettete lineare Abbildung. Wir nehmen als Basen jeweils die kanonischen Standardbasen   des   bzw.   des  . Für die Abbildung   gilt:

 
 
 

und damit gilt für die Abbildungsmatrix

 

Für die Abbildung   gilt:

 
 

und damit gilt für die Abbildungsmatrix

 

Wir wollen nun die Abbildungsmatrix der Abbildung   bestimmen. Für diese Abbildung gilt:

 
 
 

und damit gilt für die Abbildungsmatrix

 

Die Matrix der Hintereinanderausführung der beiden Abbildungen   und   ist aber gerade das Produkt der beiden Abbildungsmatrizen   und  :

 

Dabei kann das Produkt nach der Regel "Zeile mal Spalte berechnet werden.

To-Do:

evtl. genauere Erläuterungen, wie man das Matrixprodukt hier berechnet, z.B. eintragsweise aufschlüsseln

Eigenschaften der MatrizenmultiplikationBearbeiten

To-Do:

In diesem Gesamten Abschnitt überleitende Texte einfügen.

Kürzungsregel für DarstellungsmatrizenBearbeiten

Satz (Kürzungsregel für Darstellungsmatrizen)

Seien   und   endlich dimensionale  -Vektorräume mit gewählten Basen   von  ,   von   und   von  . Ferner seien   und   lineare Abbildungen. Dann gilt

 

Beweis (Kürzungsregel für Darstellungsmatrizen)

TODO

Assoziativität der MatrizenmultiplikationBearbeiten

Satz (Assoziativität der Matrixmultiplikation)

Für   gilt

 

Beweis (Assoziativität der Matrixmultiplikation)

Zunächst überprüfen wir, dass die Typen der Matrizen, die wir jeweils multiplizieren möchten, zusammenpassen. Für die Produkte   und   ist dies direkt sichtbar. Nun ist   und  , also sind die Produkte auf beiden Seiten des Assoziativgesetzes definiert, beide Ergebnisse liegen in  .

Nun betrachten wir die einzelnen Komponenten der Matrizen, um die Gleichheit festzustellen. Es sei  .

 

Assoziativität der SkalarmultiplikationBearbeiten

To-Do:

Die letzte Gleichung sit etwas unklar, weil bei uns das Skalarprodukt immer von links kommt, und damit der letzte Term überhauot nicht definiert ist.

Satz (Assoziativität der Skalarmultiplikation)

Seien   und  , dann gilt:

 

Beweis (Assoziativität der Skalarmultiplikation)

 
To-Do:

Anordnung der Formel verbessern

Distributivität der MatrizenmultiplikationBearbeiten

Hier müssen wir besonders darauf achten, dass die Matrizen, die wir multiplizieren wollen, jeweils vom Typ zusammenpassen.

Satz (Erstes Distributivgesetz)

Für   gilt

 

Beweis (Erstes Distributivgesetz)

 

Satz (Zweites Distributivgesetz)

Für   gilt

 

Beweis (Zweites Distributivgesetz)

 

Einheiten der MatrizenmultiplikationBearbeiten

  • Erklären und Herleiten, dass die Einheitsmatrix eine Einheit bzgl. der Matrizenmultiplikation ist.

Satz (Die Einheitsmatrix ist eine Einheit der Matrixmultiplikation)

Sei  . Dann gilt

 

Beweis (Die Einheitsmatrix ist eine Einheit der Matrixmultiplikation)

TODO

Keine KommutativitätBearbeiten

Beispiel (Nicht-Kommutativität der  -Matrizen)

In den  -Matrizen können wir die fehlschlagende Kommutativität an folgendem Beispiel sehen: Einerseits ist

 

und andererseits ist

 

Also spielt die Reihenfolge bei der Matrizenmultiplikation eine Rolle.

Warnung

Im Allgemeinen gilt  , das Matrixprodukt ist also nicht kommutativ.

Das Kommutativgesetz gilt nur in wenigen Spezialfällen (z.B. Produkte von Diagnoalmatrizen).

Da die Anzahl der Zeilen und Spalten der Matrizen zusammenpassen muss, kann es sogar sein, dass eines der beiden Produkte nicht einmal definiert ist! Zum Beispiel ist für   das Produkt   definiert, aber das Produkt   ist nicht definiert.

WeiterführendesBearbeiten

  • Wir erhalten einen (i.d.R.) nicht-kommutativen Ring!