Management Science: Matrizen

In diesem Abschnitt sollen Matrizen kurz erläutert werden, damit wir eine Basis für unsere linearen Verfahren haben.

Definition

Bearbeiten

Eine Matrix ist eine Zusammenstellung von Objekten in einer Tabelle, die aus m Zeilen und n Spalten besteht. Ein Objekt in der Matrix nennt man Element, Komponente oder Eintrag. Die Tabelle wird mit einer Klammer links und rechts abgeschlossen. Eine Matrix mit m Zeilen und n Spalten nennt man eine (m×n)-Matrix. Allgemein betrachtet sieht eine Matrix A mit dem Element aij (i = 1, ..., m; j = 1, ... ,n) so aus:


 


Man bezeichnet eine (m×n)-Matrix A auch mit Am×n oder (aij)m×n.

Die Elemente   werden Hauptdiagonalelemente genannt. Sie liegen auf der Hauptdiagonalen der Matrix.

Spezielle Matrizen

Bearbeiten

Vektoren

Bearbeiten

Eine (m×1)-Matrix ist ein Spaltenvektor, eine (1×n)-Matrix ein Zeilenvektor. Vektoren werden i.a. kleinbuchstabig bezeichnet und häufig, vor allem im physikalischen Kontext, mit einem Pfeil hervorgehoben. Meistens geht man bei einem Vektor von einem Spaltenvektor aus und betrachtet den Zeilenvektor als transponierten Spaltenvektor.

Ein Skalar ist eine Matrix mit nur einem Element:

 .

Ein Skalar kann wie eine reelle Zahl behandelt werden.


Transponierte Matrix AT zur Matrix A

Bearbeiten

Die Transponierte der Matrix

 

ist die Matrix

 .

Die ite Zeile von   wird die ite Spalte von  .


Beispiel:

 

Quadratische Matrix A

Bearbeiten

A hat n Zeilen und n Spalten.


Beispiel:

 


Diagonalmatrix A

Bearbeiten

Diese Matrix ist von der Ordnung n×n und besitzt nur auf der Hauptdiagonalen Elemente ungleich Null.

 


Beispiel:

 


Ein Spezialfall der Diagonalmatrix ist die Einheitsmatrix , die auf der Hauptdiagonalen nur Nullen hat.


Beispiel:

 


Matrix mit Trapezgestalt

Bearbeiten

Alle Elemente unterhalb der Hauptdiagonalen sind 0 und die untersten Zeilen können auch Nullzeilen sein.


Beispiele:

      


Dreiecksmatrix

Bearbeiten

Obere Dreiecksmatrix An×n: Alle Elemente unterhalb der Hauptdiagonalen sind 0. A ist ein Spezialfall der Trapezmatrix.

Beispiel:

 


Untere Dreiecksmatrix: Alle Elemente oberhalb der Hauptdiagonalen sind 0.

Beispiel:

 


Ein Spezialfall der Dreiecksmatrix ist die Diagonalmatrix


Symmetrische Matrix An×n

Bearbeiten

Die ite Zeile ist gleich der jten Spalte. Es gilt

 

bzw.

 

Die Elemente der Matrix spiegeln sich bezüglich der Hauptdiagonalen.


Beispiel:

 


Nullmatrix Om×n

Bearbeiten

Die Nullmatrix enthält nur Nullen. Sie entspricht der Null mit Matrizenkalkül:

 


Beispiel:

 


Inverse Matrix A_1

Bearbeiten

Als A-1n×n bezeichnet man als die zur Matrix A inverse Matrix, wobei   invertierbar sein muss. Es gilt dann

 

Im Matrizenkalkül bezeichnet also   das zu   inverse Element.


Beispiel:

Die Inverse zu  

ist

 


Die Probe ergibt  

Rechenregeln für Matrizen

Bearbeiten

Größenrelationen

Bearbeiten

Gegeben sind die Matrizen Am×n und Bm×n mit den Elementen aij und bij (i = 1, ... , m; j = 1, ... , n). Es ist

 

und

 

Entsprechendes gilt auch für <, >, ≥. Vergleiche sind nur für Matrizen gleicher Ordnung definiert.


Addition und Subtraktion

Bearbeiten

Gegeben sind Am×n, Bm×n und Cm×n. Es soll C = A + B sein bzw.

 .

Es werden also zwei Matrizen addiert, indem ihre entsprechenden Elemente addiert werden. Es können nur Matrizen gleicher Ordnung addiert werden.


Beispiel:

Addition:

 


Subtraktion:

 


Multiplikation

Bearbeiten

Multiplikation mit einem Skalar

Bearbeiten

Wird eine Matrix mit einem Skalar a multipliziert, werden alle Elemente aij mit a multipliziert:  


Beispiel:

 


Multiplikation zweier Matrizen

Bearbeiten

Gegeben sind Am×r, Br×n. Das Element cij des Produktes C = A B ergibt sich, indem man die ite Zeile von A mit der jten Spalte von B elementweise multipliziert und die Produkte aufaddiert:

 .

Es muss also die Spaltenzahl von A gleich der Zeilenzahl von B sein.


Beispiele:

 

 

 

 


Es gilt speziell bei einem Zeilenvektor   und einem Spaltenvektor   der Ordnung n:

 

Man nennt diese Art des Produkts Skalarprodukt, weil das Produkt der Vektoren ein Skalar ergibt.


Beispiele:

Es ist  ,

aber

 .

Umformung von Matrizengleichungen

Bearbeiten

Additive Erweiterung

Bearbeiten

Man kann eine Matrizengleichung additiv von links oder rechts erweitern, wobei die Ordung der Matrizen übereinstimmen muss.

Beispiel

Gegeben sind   und  . Es ist

                


Multiplikative Erweiterung

Bearbeiten

Man kann eine Matrizengleichung multiplikativ erweitern, wobei die Ordung der Matrizen den Multiplikationsgesetzen entsprechend sein muss.

Von links:

Beispiel

Gegeben sind   und  . Es ist

       


Ausklammern:

 

Es ist auch

 


Von rechts:

Beispiel

Gegeben sind   und  . Es ist

       


Ausklammern:

 


Umformungen wie   sind im allgemeinen nicht zulässig und auch oft gar nicht definiert.


Spezielle Rechenregeln

Gegeben sind   und invertierbar,   und invertierbar,   und  .

 
 
 
 
 

Skalare werden wie Zahlen behandelt. Insbesondere können die Seiten der Gleichung wahlweise von links und von rechts mit einem Skalar multipliziert werden.

Beispiel:

 


Beispiele für Umformungen


Gegeben ist die Gleichung     ist invertierbar. Gesucht ist  :

               


Gegeben ist    wobei   invertierbar ist. Gesucht ist  :


                           


Gegeben ist    mit  . Gesucht ist  :

Es ist  

Mit   erhalten wir

 

Es ist also  . Man nennt die Matrix   idempotent.

Rang einer Matrix

Bearbeiten

Man kann sich eine Matrix als aus Spaltenvektoren zusammengesetzt vorstellen. Es ist dann die Matrix  

 

mit einem Vektor  .


Linearkombinationen von Vektoren

Bearbeiten

Gegeben sind n Spaltenvektoren   (j = 1, ..., n) der Ordnung m. Kann man beispielsweise   darstellen als

 

( ) wobei mindestens ein Vektor ungleich dem Nullvektor sein soll,   (j = 1, ..., n-1), nennt man   eine Linearkombination der  .


Beispiel

 

Der linke Vektor ist eine Linearkombination aus den beiden rechten Vektoren.


Allgemein nennt man die Vektoren   (j = 1, ..., n) der Ordnung m linear abhängig, wenn sich der Nullvektor als Linearkombination der xj darstellen lässt:

 

wobei mindestens ein x-Vektor ungleich dem Nullvektor sein soll.


Äquivalent dazu ist die Aussage:

Die n Vektoren   nennt man linear unabhängig, wenn

 

nur dann gilt, wenn alle   sind.

Beispiel:

Die Vektoren   und   sind linear unabhängig. Wir wollen also untersuchen, ob   ist. Dazu zerlegen wir die Gleichung in Einzelgleichungen:


 


Die erste Gleichung ergibt  . In die zweite eingesetzt erhalten wir  . Das ist nur wahr, wenn   ist. Dann muss aber auch   sein. Also sind die beiden Vektoren unabhängig.


Der Rang einer Matrix gibt an, wie viel linear unabhängige Vektoren eine Matrix hat. Man könnte sagen, der Rang informiert uns über den Informationsgehalt einer Matrix.

Der Rang einer (m×n)-Matrix kann maximal   betragen. So hat eine quadratische Matrix der Ordung n maximal den Rang n, sie kann also aus n linear unabhängigen Vektoren bestehen.

Den Rang einer Matrix kann man beispielsweise ermitteln, indem man mit Hilfe der Zeilentransformationen die Matrix auf Trapezgestalt bringt. Dann ist der Rang der Matrix die Zahl der Zeilen minus Zahl der Nullzeilen.


Beispiele:

  hat den Rang 3.   hat den Rang 3.


  hat den Rang 2.   hat den Rang 2.


  hat den Rang 1.


Sind genau n Vektoren der Ordnung n linear unabhängig, nennt man sie eine Basis. D.h. mit einer Linearkombination dieser n Vektoren kann man alle anderen Vektoren der gleichen Ordnung erzeugen. Eine spezielle Basis sind die n Einheitsvektoren, das sind die Vektoren  , die zusammengefasst die Einheitsmatrix   ergeben.


Beispiele:

Die Vektoren der Ordnung 3,  ,   und  


bilden eine Basis, denn sie sind linear unabhängig, es lässt sich also jeder Vektor   der Ordnung 3 aus diesen drei Vektoren erzeugen:

 

Wir erhalten

  ,
  und
 .

So ist dann etwa der Vektor   mit den Koeffizienten

  ,
  und
 

eine Linearkombination aus

 


Die Berechnung der Koeffizienten ist bei Verwendung der Einheitsvektoren als Basis besonders einfach:

 


Hier ist also

 


Wie berechnen sich nun die Koeffizienten, wenn die Basis gegen eine andere eingetauscht wird?

Wir fassen nun die Basisvektoren  , zur nxn-Matrix   und die Koeffizienten zum Vektor   zusammen und können den Vektor   schreiben als

 .


Rechnen Sie zur Übung nach, ob das äquivalent zu unserer obigen Darstellung von   ist.

Es ist also

  bzw.
 .

Wenn wir die Gleichung von links mit   multiplizieren, ergibt sich für  

 

Invertierbarkeit

Bearbeiten

Die obige Gleichung funktioniert natürlich nur, wenn vor allem  , aber auch letztlich, wenn   invertierbar sind. Wann sind sie invertierbar?

Eine Matrix   ist invertierbar, wenn sie vollen Rang hat, d.h. wenn ihr Rang n ist.

Äquivalent dazu ist:

  • Die Vektoren der Matrix A bilden eine Basis.
  • Die Determinante ist ungleich Null. (Die Determinante wird hier nicht behandelt)
  • Die Matrix kann durch elementare Zeilenoperationen in eine Dreiecksmatrix oder Diagonalmatrix transformiert werden.

Man nennt eine invertierbare Matrix auch regulär oder nichtsingulär.

Mit einer invertierbaren Matrix kann man also ein Gleichungssystem der Art

 

lösen und wir erhalten mit

 

genau eine Lösung. Praktisch verfährt man so, dass man A und b zu einer Matrix   zusammenfasst und diese Matrix transformiert, bis A Dreiecksgestalt hat. Will man die Lösungen sofort ablesen, transformiert man die Matrix weiter, bis statt die Einheitsmatrix entsteht. Jetzt steht rechts die Lösung  .

 


Beispiel:

Es ist das lineare Gleichungssystem

 

gegeben. Mit der Koeffizientenmatrix   erhalten wir die erweiterte Matrix  , die dann   ergibt.

Kein voller Rang

Bearbeiten

Eine (mxn)-Matrix   ( ) kann keinen vollen Rang haben. Hat beispielsweise   den Rang r, kann man durch Zeilentransformationen den oberen linken Teil von   in eine Einheitsmatrix mit dem Rang r erzeugen. Es ergibt sich dann die so genannte kanonische Form   als


 


oder, wenn man die Blöcke als Matrizen bezeichnet


 

Selbstverständlich gilt die Beziehung auch für singuläre quadratische Matrizen.

Wir wollen anhand eines Beispiel erkunden, was wir dieser kanonischen Form entnehmen können.

Es ist die Koeffizientenmatrix  


gegeben. Wir wollen zunächst den Rang von A ermitteln. Wir erhalten durch elementare Zeilentransformationen


 


und sehen, dass A den Rang 3 hat. Nun werden wir diese Matrix in die kanonische Form bringen. D.h. wir transformieren A weiter, bis wir oben links eine 3x3-Matrix erhalten:


 

Die erste Zeile dient nur zur Bezeichnung der Spalten und ist nicht Inhalt der Matrix. Betrachten wir nun ein lineares Gleichungssystem, das die obige Matrix A enthält:

 

.

Wenn wir nun mit Hilfe elementarer Zeilentransformationen dieses System so umformen, dass A in die kanonische Form überführt wird, erhalten wir

 

.

Wir wollen nun, analog zur invertierbaren Matrix A, mit Hilfe von   die Lösungen direkt ablesen:

 
 
 


Als Lösungsvektor ergäbe das eine Basislösung


 


Man sieht, dass die Variablen  ,   und   frei variierbar sind. Je nachdem, welche Werte sie annehmen, errechnen sich die Werte von   bis  . Eine spezielle Basislösung ergibt sich, wenn man die Variablen  ,   und   Null setzt. Dann erhalten wir den Lösungsvektor


 .

Wir könnten nun andere Vektoren von   zu Basisvektoren erklären und dann durch wieder die kanonische Form ermitteln. Wir ersetzen beispielsweise den Basisvektor von x3 durch einen neuen Basisvektor von x5. Dazu sortieren wir zunächst die Vektoren um, was kein Problem ist, wenn man nicht vergisst, was sie bedeuten.

 

Wir formen nun A* so um, dass links oben wieder die Einheitsmatrix steht. Das lässt sich hier leicht bewerkstelligen, wenn man die dritte Zeile von der zweiten subtrahiert und das Ergebnis als neue zweite Zeile einträgt:

 

Wenn wir zugleich den Vektor b transformieren, erhalten wir das neue LGS

 

Dass der Vektor b hier unverändert ist, ist nur Zufall.

Wir wollen nun wieder mit Hilfe von   die Lösungen direkt ablesen:

 
 
 


Als Lösungsvektor ergäbe das eine Basislösung


 

Eine spezielle Basislösung ergibt sich, wenn man die Variablen  ,   und   Null setzt. Dann erhalten wir den Lösungsvektor


 .


Eine kleine Übung:

Zeigen Sie, dass sich die letzte Lösung auch direkt ergibt, wenn man im LGS

 

die Koeffizientenmatrix A zur kanonischen Form umformt.