Seien und ein -dimensionaler und ein -dimensionaler -Vektorraum. Wir haben schon gesehen, dass wir nach Wahl geordneter Basen lineare Abbildungen von nach als Matrizen darstellen können. Seien also eine geordnete Basis von und eine geordnete Basis von .
Der Raum der linearen Abbildungen von nach ist ebenfalls ein -Vektorraum. Die darstellende Matrix einer linearen Abbildung bzgl. der Basen und ist eine -Matrix . Wir werden versuchen, die Vektorraumstruktur von auf den Raum der -Matrizen über zu übertragen.
Wir stellen also die Frage: Können wir eine Addition und skalare Multiplikation auf finden, sodass und für alle linearen Abbildungen und alle gilt?
Gibt es auf vielleicht sogar eine Vektorraumstruktur, sodass für alle endlich dimensionalen Vektorräume und und alle geordneten Basen von und von die Abbildung linear ist?
Denk am besten einmal selber über diese Frage nach. Es gibt eine Aufgabe zur Matrizenaddition und eine zur Skalarmultiplikation, die dir dabei helfen können.
Ein erster Schritt ist zur Beantwortung dieser Frage ist der folgende Satz:
Beweis (Bijektive Abbildungen induzieren Vektorraumstrukturen)
Beweisschritt: Existenz
Für und definieren wir , .
ist unter diesen Operationen abgeschlossen, da uns nach Voraussetzung immer nach zurückbringt.
Dass mit diesen Operationen einen Vektorraum bildet folgt unmittelbar aus der Vektorraumstruktur von . Man kann einfach als Umbenennung der Elemente von betrachten.
Beispielsweise folgt Kommutativität der Addition auf aus der Kommutativität der Addition auf wie folgt: .
Assoziativität der Addition auf folgt ebenfalls aus der Assoziativität der Addition auf :
Die Beweise für die anderen Vektorraumaxiome funktionieren analog. Damit haben wir eine Vektorraumstruktur auf gefunden. Zeigen wir jetzt, dass bezüglich linear ist. Da bijektiv ist, reicht es zu zeigen, dass die Umkehrfunktion von linear ist (siehe Isomorphismus ). Es ist und .
Damit ist linear und somit ist auch linear.
Beweisschritt: Eindeutigkeit
Eindeutigkeit: Angenommen wir haben eine Vektorraumstruktur , sodass linear ist. Dann ist als Umkehrfunktion einer bijektiven, linearen Funktion ebenfalls linear. Es gilt deshalb
,
.
Das heißt jede Vektorraumstruktur auf , bezüglich der linear ist, muss bereits mit unserer zuvor definierten Vektorraumstruktur übereinstimmen.
Wir wollen die Vektorraumstruktur von jetzt konkret bestimmen.
Sei dazu eine Basis von und eine Basis von .
Wir definieren die von induzierte Addition auf dem Raum der Matrizen wie im letzten Satz:
.
Seien nun beliebig und die zu und zugehörigen linearen Abbildungen mit .
Dann gilt
Diese rechnen wir jetzt aus: In der -ten Spalte muss gelten.
Laut Definition von ist aber auch
Da die Darstellung von bzgl. eindeutig ist, folgt .
Das heißt bei der von auf induzierten Addition handelt es sich um komponentenweise Addition.
Untersuchen wir jetzt die von induzierte skalare Multiplikation .
Sei wieder . Betrachte . Es gilt
Des Weiteren haben wir
Wegen folgt
Aus der Eindeutigkeit der Darstellung folgt somit . Wir sehen, die von durch auf induzierte Skalarmultiplikation ist die komponentenweise Skalarmultiplikation.
Wir sehen hier auch, dass die induzierte Vektorraumstruktur unabhängig von unserer Wahl von und ist.
Wir haben gerade gesehen: Um auf den Matrizen eine sinnvolle Vektorraumstruktur zu definieren, müssen wir die Operationen komponentenweise ausführen. Wir definieren also Addition und skalare Multiplikation wie folgt:
Definition (Addition von Matrizen)
Sei ein Körper und seien und Matrizen vom gleichen Typ über . Dann ist
Wenn man diese Definition in großen Matrizen ausschreibt, sieht das wie folgt aus.
In Matrizen groß ausgeschrieben, sieht das wie folgt aus:
Beispiel (Addition von Matrizen)
Wir befinden uns in .
Beispiel (Multiplikation mit einem Körperelement)
Als Beispiel nehmen wir die Matrix und als Körperelement die reelle Zahl , dann gilt:
Beweis (Matrizen bilden einen Vektorraum)
Beweisschritt: Komponentenweise Addition und skalare Mulitplikation bilden eine Vektorraumstruktur auf
Beweisschritt: ist das neutrale Element der Addition
Beweisschritt: Jede Matrix hat additive Inverse
Wenn wir Matrizen ohne den Kontext als Abbildungsmatrizen betrachten, sehen wir Folgendes:
Matrizen sind nichts anderes als eine ungewöhnliche Art, Elemente des zu schreiben, da Matrizen Einträge haben.
Genau wie im ist bei Matrizen die Vektorraumstruktur komponentenweise definiert.
Wir bekommen also alternativ den folgenden bedeutend kürzeren Beweis:
Dimension von
Bearbeiten
Durch die obige Identifikation von mit erhalten wir eine kanonische Basis von : Sei für die Matrix mit
Beispiel
In sind die Basiselemente gegeben durch:
ist also ein -dimensionaler -Vektorraum. Wir haben die Vektorraumstruktur auf so konstruiert, dass für - bzw. -dimensionale Vektorräume und mit Basen bzw. die Zuordnung
ein linearer Isomorphismus ist. Wir bekommen also a posteriori wieder heraus, dass ein -dimensionaler -Vektorraum ist. Das haben wir schon im Artikel Vektorraum linearer Abbildungen gesehen.