Symmetrien, Überblick

Bearbeiten

Symmetrien sind Gruppen von Transformationen. Gruppen im mathematischen Sinn.
Vokabular: eine Gruppe G ist eine Menge mit einer 'Multiplikation'  . Sie ist assoziativ, G hat ein Eins-Element und jedes Element hat ein Inverses. Eine Abbildung   von Gruppe G in Gruppe H mit   heißt ein Homomorphismus. Ein bijektiver Homomorphismus heißt Isomorphismus. Ein Automorphismus von G ist ein Isomorphismus der Gruppe G auf sich selbst.

Die Quantenmechanik verbindet die Gruppen der Symmetrie-Transformationen der klassischen Physik mit Transformationen der mikroskopischen Zustände im Hilbert-Raum. Es gibt Homomorphismen in der einen oder der anderen Richtung.

Zuerst werden kurz und oberflächlich drei Sorten von Transformationen vorgestellt, solche die mit Raum und Zeit zu tun haben, solche die mit anderen Koordinaten spielen, solche die nur als Eichung aufzufassen sind. Danach kommt mehr Stoff zur unitären Darstellung von Gruppen im Hilbert-Raum.

Die augenfälligste Sorte der Symmetrien beziehen sich auf Raum und Zeit. Sie kommen mit dem Paradebeispiel der Drehungen im Raum immer wieder vor in diesem Kurs. Es sind Transformationen im Definitionsbereich der Wellenfunktionen, die eventuell Transformationen im Wertebereich bewirken, wenn die Funktion kein einfacher Skalar ist. Die wichtigsten sind:

  • Raum- und Zeit-Verschiebung
  • Raum-Drehungen
  • Galilei-Boosts zu konstanter Geschwindigkeit (nichtrelativistisch)
  • Lorentz-Boosts (relativistische Mischung von Raum und Zeit)
  • Raumspiegelung  
  • Zeitumkehr  

Nach den Regeln der Quantenmechanik werden solche Transformationen abgebildet auf (unitäre lineare) Operatoren im Hilbertraum, so dass die Gruppen-Multiplikation sauber mitspielt. Wellenfunktionen werden unter Erhaltung der Norm gedreht. Operatoren von Observablen werden ebenfalls mitgeschleppt und verhalten sich je nach Kategorie, Skalar, Vektor, Tensor... Zustandsräume sind das Spielfeld von unitären Darstellungen der Gruppen.

Die Spiegelungen sind diskrete Transformationen. Wenn Zustände Eigenvektoren zu diesen sind, dann verhalten die Eigenwerte sich multiplikativ bei der Kombination von Transformationen. Es geht meistens um endliche Gruppen.

In den anderen Fällen gehören die Transformationen zu kontinuierlichen oder Lie-Gruppen. Solche Gruppen sind N-dimensionale Mannigfaltigkeiten und können lokal, also speziell ums Eins-Element herum, durch N reelle Parameter beschrieben werden. Die Tangentenvektoren an den Gruppenraum können als die Richtungs-Ableitungen längs von Ein-Parameter-Untergruppen am Ursprung definiert werden. Sie heißen die Erzeuger, oder Generatoren, oder auch Infinitesimalen Elemente, der Gruppe. Das Wichtige an diesen Erzeugern ist ihre Struktur als Lie-Algebra. Für eine Basis von N Erzeugern   gibt es einen Satz von reellen Strukturkonstanten, so dass gilt:

 .

Der Ausdruck ist sauber definiert, denn die Erzeuger sind lineare Differential- Operatoren für skalare Testfunktionen auf der Gruppen-Mannigfaltigkeit. Der Kommutator ist antisymmetrisch und hat statt der Distributivregel die Jacobi-Identität:  .

Ihrem Auftrag getreu, hat die Mathematik einen vollständigen Katalog aller endlich-dimensionalen abstrakten Lie-Algebren erstellt. Also der Vektorräume versehen mit antisymmetrischem und Jacobi-regelkonformem Lie-Produkt. Es geht da um einfache Algebren, von denen sich keine nichttriviale Unter-Algebra abspalten lässt. Nur ein Musterexemplar für jede Isomorphie-Klasse soll erfasst werden. Es gibt nach seit Urzeiten getaner Forschung mehrere Reihen und einige Ausnahme-Strukturen. Darüber hinaus wurden alle Matrix-Darstellungen der Algebren und der erzeugten Gruppen und speziell alle unitären, reellen, pseudo-reellen, usw. Darstellungen dokumentiert. Auch dabei dreht es sich um die irreduziblen Darstellungen, in denen sich kein invarianter Teilraum mehr abspalten lässt. Die beliebte Drehgruppe SO(3) ist nur ein Exemplar in den Serien von Lie-Gruppen SU(n), SO(n), Sp(n)... Alle haben Prototypen als Matrixgruppen.

Eine Darstellung ist mathematisch definiert als Gruppen-Homomorphismus, dessen Wertebereich eine lineare Gruppe ist. Den unitären Matrixdarstellungen von Lie-Gruppen entsprechen natürlich Matrix-Darstellungen der Lie-Algebra. Ein Gruppenelement U ist danach die Matrix-Exponentialfunktion   eines Lie-Algebra-Elements X; t ist reell. Unitäres U hat ein schief-hermitesches X zur Folge:  . In der Quantentheorie sind die Generatoren aber meist hermitesche Operatoren, die zu Observablen gehören. Daher definiert die Physik durchgehend ihre Lie-Algebren mit einem parasitären 'i' in den Kommutator- Regeln!

 .

Die Darstellung vom Typ   der infinitesimalen Transformationen ist hermitesch und qualifiziert sie als Observable.

In einer Darstellung sind alle Polynome der Lie-Algebra-Elemente definiert (am Anfang postuliert die abstrakte Algebra nichts als den Kommutator). Es gibt dann Operator-Kombinationen, die als Diskriminanten für eine unzerlegbare Komponente einer Darstellung dienen. Sie heißen Casimir-Operatoren. Für die Darstellungen der SO(3) ist der Casimir-Operator  . Seine Eigenwerte sortieren die Multipletts aus, die die Gruppe irreduzibel darstellen.

Bei der Schrödinger-Gleichung war es bereits notwendig, die Multiplikation mit konstanter Phase und die komplexe Konjugation zu untersuchen. Man hat die Natur abgeklopft auf eine allgemeinere zweite Sorte von Symmetrien. Gruppen, die keinen direkten Bezug zur Raumzeit haben und allein auf die Koordinaten im Wertebereich der Zustände einwirken, nennt man die inneren Symmetrien. Der Urtyp davon war der Isotopenspin oder Isospin. Das Proton und das Neutron unterscheiden sich nur wenig, hautpstächlich in der Ladung und ein wenig in der Masse. Die Idee war, dass sie angenähert zu einem Multiplett einer Gruppendarstellung gehören, dass also ein Hamilton-Operator nullter Ordnung mit einer Lie-Algebra kommutiert. Der Bruch der Symmetrie durch die elektromagnetische Kraft kann dann störungstechnisch als Hamilton-Operator höherer Ordnung angebaut werden. Eine Symmetrie bringt Rechenvorteile und Auswahlregeln und so weiter mit sich, falls sie existiert. Daher wurde eine Isospin-Gruppe SU(2) postuliert; das Dublett Proton/Neutron geört zur Darstellung I=(1/2) mit Quantenzahlen  . Später kam eine weitere Quantenzahl S, die Seltsamkeit oder Strangeness, hinzu. Die Gruppe wurde zu einer SU(3) erweitert und etliche Mesonen sowie Hyperonen konnten als Multipletts deren Darstellungen zugeordnet werden. Die kleinstmögliche fundamentale Darstellung wirde mit drei unsichtbaren Quarks bevölkert, aus denen die anderen Teilchen sich zusammenbauen. Die Entdeckung der Quarks war angewandte Gruppentheorie.

Schließlich kam eine dritte Sorte von Symmetrien zum Zuge, die streng genommen keine physikalischen Transformationen sind, die Eich-Invarianzen. Das Wort Eichsymmetrie wird ihnen manchmal verweigert. Denn es sind passive Transformationen -- Wechsel von Koordinaten, aber keine Relationen zwischen verschiedenen physikalischen Objekten. Alles Messbare ist streng eichinvariant. Eine Eich-Gruppe namens Farb-SU(3) dreht an den Feldoperatoren der starken Wechselwirkung, mit der die Gluonen die Quarks binden -- so wie die Photonen mit ihrer Eich-Gruppe U(1) die Elektronen, Positronen und Quarks elektromagnetisch verknüpfen. Die elektro-schwache Wechselwirkung bekommt eine kompliziertere Struktur mit einer Eich-Invarianz  , die durch ein Higgs-Feld spontan gebrochen werden muss, damit schwere W- und Z-Bosonen und massenbehaftete Fermionen existieren.

Die spontane Brechung einer Symmetrie ist ein sattsam bekanntes, auch klassisches Phänomen. Wie etwa die spontane Magnetisierung von Ferromagneten. Die Brechung bedeutet formal, dass das physikalische Modell invariant unter einer Transformationsgruppe G ist, dass aber die Systeme, die Lösungen der Modellgleichungen, nur in einer Untergruppe U von G symmetrisch sind. Etwa, weil das Minimum der Energie nicht am Symmetriepunkt zu Hause ist.

Lineare und antilineare Transformationen

Bearbeiten

Zuerst wollen wir zeigen, dass Symmetrie-Transformationen im Hilbertraum allgemein entweder unitär-linear oder unitär-antilinear dargestellt werden können. Mit einer Basis des Raums H sei ein vollständiges Orthonormalsystems gemeint.

Lineare Operatoren A sind eindeutig durch ihre quadratische Form   bestimmt. Denn man kann die Matrixelemente   aus

  linear kombinieren.

Wenn lineare Operatoren A,B bis auf eine Phase gleich sind,  , dann gilt für alle Matrixelemente  

Die Umkehrung gilt auch, Beweis: Seien i,j Indizes eines abzählbaren Orthonormalsystems,   die Matrixelemente.

Voraussetzung  
 
 
 
 

Das Verhältnis ist unabhängig von j. Symmetrische Berechnung bringt:

 

Daher ist der Bruch eine Konstante vom Betrag 1:

 

Behauptung: Eine umkehrbare Abbildung S des Hilbertraums, die das Skalarprodukt invariant lässt, kann mit punktweiser Phasenwahl zu einem Operator T gemacht werden, der entweder linear-unitär oder antilinear-unitär (antiunitär) ist. Beweis-Skizze:

Nach Voraussetzung  . Sei   ein vollständiges Orthonormalsystem. Dann ist   auch eines, denn orthonormal nach Voraussetzung und, gäbe es einen anderen orthogonalen Vektor   zu dieser Bildmenge, dann wäre sein Urbild   im Widerspruch mit der Vollständigkeit senkrecht zu allen  . Sei   ein beliebiger Vektor, definiere  . Es soll eine Phasentransformation gefunden werden,  , so dass entweder   oder  . Am Anfang setzen wir T=S und veändern T schrittweise. Die Beträge   nach allen Voraussetzungen.
Zuerst wählt man alle Phasen für die Basis so dass  . Sei nun   ein reeller Vektor bezüglich der Basis, das heißt, alle   seien reell. Wegen der konstanten Beträge aller Skalarprodukte ist dann:  . Man wählt die Phase von   so, dass  . Dann folgt auch  . Ist  , wird gesondert argumentiert. Reelle Vektoren werden also mit T so abgebildet, dass ihre Koordinaten gleich bleiben. Mit allen Basis-Teilsummen   und jetzt beliebigem   gilt:  . Dieses sind Teilreihen aus zwei Polygonen in der komplexen Ebene, die bei Null beginnen. Die Gleichungen besagen, dass alle Polygon-Segmente die gleichen Längen haben. Geometrisch ziemlich klar, kann auch streng bewiesen werden: das x-Polygon ist (a) eine gedrehte oder (b) eine gedrehte und gespiegelte Kopie vom v-Polygon. Im Fall (a) wird die Phase von   gemäß   gewählt, und es folgt   für alle i. In Fall (b) gelingt die Phasenwahl  . Die Spiegelung erfolgt dann an der reellen Achse, und   für alle i. T ist also nach den Phasen-Rotationen ein Operator, der jeden Vektor mit seinen ursprünglichen oder mit den komplex konjugierten Koordinaten in der neuen (phasen-gedrehten) Basis entwickelt. Bleibt zu beweisen, dass die Spiegelung entweder immer oder nie vorkommt. Dann ist T insgesamt wie gefordert, linear oder antilinear. Sei   so, dass keine Spiegelung eintritt, und sei a kein Vielfaches von  . Alle anderen Vektoren  , deren Komponenten   nicht verschwinden, haben dann das erhaltene Skalarprodukt  . Unmöglich, wenn sie komplex konjugiert werden. Mit ähnlichen Argumenten erschlägt man die Spezialfälle modulo   und den Fall der Spiegelung. Alle Vektoren, die nicht proportional zu einem der Basis sind und daher nicht unabhängig vom Rest der Welt justiert werden, haben mindestens zwei nichtverschwindende Koordinaten.

Ergebnis Fall(a): Es gibt einen unitären linearen Operator und  
Fall(b): Es existiert einen antilinearer Operator T und  .

- Antilineare Operatoren kommutiern nicht mit komplexer Multiplikation.
- Hermitesch adjugierter Antilinearer Operator definiert durch:  
- Antiunitärer Operator: definiert als antilinear und  

Zu einer Orthonormal-Basis gibt es einen angepassten antilinearen Konjugations-Operator  .

Symmetrie-Transformation

Bearbeiten

Definition: Eine Symmetrie T tranformiert Observablen und Zustände so, dass messbare Eigenschaften erhalten bleiben. Speziell bleiben die Betragsquadrate der Skalarprodukte konstant. Daher ist nach Phasenwahl T entweder unitär oder antiunitär. Erwartungswerte von Observablen B bleiben erhalten, wenn Vektoren und Observablen so transformieren:  . Algebraische Ausdrücke zwischen Observablen bleiben bestehen oder werden komplex konjugiert, je nachdem ob T linear oder antilinear ist. Angenommen, ein System kommt daher mit hermiteschen Observablen   und deren Kommutations-Relationen  . Lineare Symmetrien verändern sie nicht, antilineare klappen das Vorzeichen um.

Sei der Hilbertraum H irreduzibel mit dem Observablensatz  , das heißt, es gibt keinen Teilraum G, der von allen   nur nach G abgebildet wird. Reichen die transformierten Observablen aus,  , um T zu bestimmen? Fast. Sei U eine andere Symmetrie mit denselben Gleichungen, so dass folgt   Dann ist   eine Konstante. Diese Behauptung ist ein Spezialfall des Schurschen Lemmas. Weil T,U beide unitär sind, gilt mit einer Phase:  . Physikalische Modelle haben einen vollständigen Satz   kommutierender Observablen, so dass jeder Eigen-Raum H davon irreduzibel ist. Damit ein Beweis der Behauptung: Sei   Eigenvektor eines vollständigen Satzes   von kommutierenden Observablen. (Die volle Observablen-Menge   dagegen transformiert den Vektor.)   kommutiert mit allen  , so dass   auch Eigenvektor zu C ist. C kommutiert aber auch mit allen Operator-Polynomen der Menge  . Und diese verbreiten den Vektor u so weiter, dass der ganze Raum aufgespannt wird. Der Hilbertraum H hat daher einen konstanten Eigenwert zu C.

Endergebnis: eine Symmetrie-Transformation ist ein unitärer oder antiunitärer Operator und ist bis auf eine Phase definiert. Im antiunitären Fall dreht die Symmetrie die Vorzeichen von Kommutatoren um.

Sei eine Gruppe   von Symmetrien gegeben und jedem Element a wird eine Hilbertraum-Transformation   zugeordnet. Wegen der unbestimmten Phasen ist das noch kein Gruppen-Homomorphismus, sondern  . Es hängt von der Gruppe ab, ob alle Phasen widerspruchsfrei zu 1 gesetzt werden können. Für Permutationsgruppen ist das möglich. Für die Drehgruppe SO(3) funktioniert es, wenn T auf einem Darstellungsraum mit ganzzahligem Spin operiert. Bei halbzahligem Spin geht es nur modulo Vorzeichen:  . Formaler gesagt: Es gibt die universelle Überlagerungsgruppe SU(2) der Drehgruppe SO(3) und einen zwei-zu-eins Homomorphismus  . T kann phasenfrei, also als eine Darstellung, für die Gruppe SU(2) aufbereitet werden. Aber T ist nicht als eindeutige Funktion auf SO(3) definiert. Dies hat keine Auswirkung auf physikalisch messbare Größen.

Weiter unten wird die antilinear dargestellte Zeitumkehr behandelt, auch da haben die halbzahligen Spins mit Vorzeichen zu kämpfen.

Mehr zu Gruppen-Darstellungen

Bearbeiten

Ein Gruppen-Homomorphismus   hat oft eine nicht-triviale Untergruppe   der Elemente, die auf die Eins in K abgebildet werden. Ist K eine Gruppe linearer Abbildungen in einem Vektorraum H(K), dann nennt man T eine Darstellung von G im Darstellungsraum H(K). Ist darüber hinaus U trivial, also T umkehrbar, heißt T eine treue Darstellung von G. Für jeden Homomorphismus T ist jedenfalls U gutartig im Sinne, dass die Links- und Rechts-Restklassen gleich sind. Das heißt, für  . Gleichheit der Mengen ist gemeint, nicht gu=ug für alle u.
Begründung:  .

Bei solchen Untergruppen, für die also   immer gilt, bilden die Restklassen selbst eine Gruppe mit der Multiplikation

 .

Sie heißt die Quotientengruppe G/U. Salopp gesagt, man kann die Untergruppe U herausdividieren. Der Homomorphismus T sinkt herab auf die Quotientengruppe zu einem umkehrbaren Homomorphismus. Die Bildgruppe   ist isomorph zur Gruppe (G/U). Im Jargon heißt es, eine Untergruppe wie U ist ein Normalteiler und sie ist invariant unter allen inneren Automorphismen  .

Die Dimension des Darstellungsraums wird auch Grad der Darstellung genannt. Darstellungen vom Grad 1 sind Homomorphismen von G auf die reellen und/oder komplexen Zahlen. Außer der trivialen Darstellung   gibt es andere mit Grad 1 genau dann, wenn G Abelsche (kommutative) Quotientengruppen G/U hat.

Zwei Darstellungen S,T heißen äquivalent, wenn es eine umkehrbare lineare Transformation L zwischen ihnen gibt:  .
Die Spur einer Matrixdarstellung   ist die gleiche Funktion   für alle zu T äquivalenten Darstellungen und heißt der Charakter von T. Ist T äquivalent zu der komplex konjugierten Darstellung (komplexe Konjugaton aller Matrixelemente) dann ist die Spur reell.

Die direkte Summe zweier Darstellungen   ist definiert auf der direkten Summe der Darstellungsräume  , durch Anwendung auf Paare:

 

Als Matrixdarstellung hat man  -Matrizen mit den Blöcken von S und von T auf der Diagonale. Der Charakter der direkten Summe ist die Summe der Charaktere. Die Determinante der direkten Summe ist das Produkt der Determinanten. Determinanten sind Darstellungen vom Grad 1.

Das direkte Produkt oder Tensorprodukt von Darstellungen ist definiert auf dem Tensorprodukt zweier Darstellungsräume.   angewendet auf einen Produktvektor   ist definiert als   und wird linear auf alle Linearkombinationen ("verschränkte" Vektoren) fortgesetzt. Der Charakter des direkten Produkts von Darstellungen ist das Produkt der Charaktere.

Eine Darstellung T ist irreduzibel, wenn der Darstellungsraum H keinen Teilraum hat, der unter allen T(g) invariant bleibt. Eine Darstellung ist zerlegbar, wenn H als direkte Summe zweier Teilräume beschrieben kann und die Darstellung eine direkte Summe der Teil-Darstellungen ist. Eine Darstellung ist vollständig reduzibel, wenn sie in eine direkte Summe von (endlich vielen) irreduziblen Komponenten zerlegt werden kann.

Satz. Jede unitäre Darstellung ist entweder irreduzibel oder vollständig zerlegbar. Irreduzible Darstellungen von Abelschen Gruppen haben den Grad 1.

Seien S,T Darstellungen mit Darstellungsräumen H(S),H(T). Eine lineare Abbildung   heißt homomorph, wenn sie mit den Darstellungen verträglich ist,

Für alle  .

L kann hier durchaus eine rechteckige Matrix sein. Ist L aber umkehrbar, dann nennt man sie isomorph in Bezug auf die Darstellungen.

Lemma von Schur. Seien S,T irreduzible Darstellungen und sei L eine homomorphe Abbildung. Dann gilt

(a) wenn S und T nicht äquivalent sind, dann L=0
(b) sind S und T äquivalent, dann ist entweder L=0 oder  .
(c) ist S=T, dann ist L eine konstante Zahl (mal Einheitsmatrix).

Folgerung: Wenn eine quadratische Matrix mit allen Matrizen einer irreduziblen Darstellung vertauscht, dann ist sie eine Konstante (mal Einheitsmatrix).

Satz 1 (Eindeutigkeit). Ist eine Darstellung T vollständig zerlegbar, dann gibt es bis auf Äquivalenz nur eine Zerlegung in irreduzible Teile.

Äquivalente Darstellungen werden als "gleich" angesehen. In einer Zerlegung kann die selbe irreduzible Komponente mehrmals vorkommen, wir schreiben:

  und T hat den Charakter  .

Satz 2. Ist T vollständig zerlegbar und ist S eine beliebige Komponente von T, dann ist S eine Teilsumme aus der Zerlegung von T:

 .

Satz 3. Seien S,T Darstellungen,   eine homomorphe Abbildung auf H(T) (L surjektiv), und sei S vollständig reduzibel. Dann ist T äquivalent zu einer Komponente (Teilsumme) von S.

Speziell sei T definiert durch die Vorschrift  . Es dürfen für linear unabhängige u,v die Bildvektoren Lu,Lv linear abhängig sein.

Folgerung: Seien S,T Darstellungen (derselben Gruppe), seien   bzw.   Mengen von (nicht unbedingt linear unabhängigen) Vektoren in den Darstellungsräumen H(S) bzw. H(T). Sei das Tensorprodukt von Darstellungen   vollständig zerlegbar. Dann ist die Darstellung in dem Teilraum, der von der Menge   aufgespannt wird, eine Komponente von  .

Beweis des Lemmas von Schur

Bearbeiten

In einer leicht verallgemeinerten und umformulierten Version.

Voraussetzungen

Gegeben sind zwei Matrizen-Familien  
Sie repräsentieren Abbildungen auf Vektorräumen   mit den Dimensionen   t durchläuft eine Indexmenge, zum Beispiel aber nicht notwendigerweise sind die   Darstellungen einer Gruppe oder Lie-Algebra.
Die Matrixmengen sind irreduzibel, das heißt es gibt keine invarianten echten Teilräume von  
Es gibt eine (rechteckige) Matrix P so dass   Die Matrix P der Dimension   hat   Zeilen,   Spalten.

Behauptungen

(1) Sind   nicht äquivalent, dann folgt P=0.
(2) Sind beide äquivalent, dann entweder P=0 oder  
(3) Falls  

Korollar

Eine quadratische Matrix P, die mit allen Matrizen D(t) einer irreduziblen Menge vertauscht, ist ein Vielfaches der Einheitsmatrix. Dies ist die nützlichste Umschreibung der Behauptung (3).

Beweis

Sei  . Andernfalls nehme man die Transponierten aller Matrizen, was die Ordnung der Produkte umkehrt, und man vertausche (1),(2). In Folgenden gilt die Summenkonvention über doppelte Indizes.
Wähle   linear unabhängige Vektoren   und definiere  
Die Menge dieser   Vektoren   transformiert nun mit   denn:

 

Sei im Folgenden  . Die   spannen einen Raum von Dimension   auf. Dieser Unterraum ist kein Nullraum und irreduzibel mit   Daher muss   sein, andernfalls wäre   reduzibel. Menge   spannt also ganz   auf und P ist quadratisch.
Aus Dimensionsgründen sind die   linear unabhängig, das heißt   hat nur die triviale Lösung  
  und beide Mengen   sind linear unabhängig.  
Die Zeilen   sind linear unabhängig. Es folgt

 

Die Darstellungen   und   sind äquivalent. Sind sie nicht äquivalent, kann also nur P=0 gelten. Dies beweist Behauptungen (1) und (2).

Sei nun   und   Nach Behauptung (2),  
Polynom   hat eine Nullstelle   (komplexwertige Darstellungen vorausgesetzt).
Die Vektoren   transformieren gemäß   genau wie die Mengen  
Angenommen Matrix   Dann ist wie im ersten Teil des Beweises die Menge   linear unabhängig und  , Widerspruch.
Also   was Behauptung (3) beweist.

Anwendungen

Bearbeiten

Die Darstellungen T seien vorwiegend unitär. Ein Hilbertvektor v in einem Darstellungsraum H(T) transformiert mit einer Darstellung S, wenn er sich in einer irreduziblen Komponente S der Darstellung T befindet. Auf der Menge der linearen Operatoren   induziert die Gruppendarstellung T die Operator-Transformationen

 .

Q ist wieder eine Darstellung, auf dem Vektorraum der Operatoren. Sprechweise, der Operator L transformiert mit Q. Im Folgenden wird angenommen, dass Q entweder irreduzibel oder vollständig zerlegbar ist. Ist  , heißt der Operator invariant unter der Gruppe. Liegt L in einer irreduziblen Komponente   der Darstellung Q, dann heißt L ein irreduzibler Tensor-Operator vom Typ  .

Standardbasis: Für jede irreduzible Darstellung wählen wir eine einzige Matrixdarstellung, die die Äquivalenzklasse von Komponenten diese Typs verkörpert. Die Basis von Vektoren für diese Matrizen ist die Standardbasis. Die Matrizen einer Klasse   werden als   notiert. Prototypen unitärer Darstellungen sind dann direkte Summen solcher Matrizen, genannt G. Ein Standardvektor wird   notiert. Index   nummeriert Kopien der selben irreduziblen Komponente von der Klasse (j), Index   durchläuft die Basis in dieser Komponente.

Die folgenden Sätze sind allgemeinere Versionen der Clebsch-Gordan-Zerlegung und der Wigner-Eckart-Formeln.

Satz A.
Sei   ein Tupel von Vektoren, das sich wie die Basis einer (zerlegbaren) unitären Darstellung T transformiert,  .
Sei   die Zerlegung von T in irreduzible Komponenten.
Sei   eine Standardkomponente.
Sei   die unitäre Matrix dieser Zerlegung, worin   die Komponenten vom Typ (k) erfasst.
Sei   eine Standard-Basis.

(a) Wenn (j) nicht in der Zerlegung auftaucht, dann  
(b) Andernfalls  
n(j) und   hängen nicht von   ab.

Satz B.
Sei   ein Tupel von Operatoren, das sich wie die Basis einer unitären Darstellung transformiert,

 .

Seien   irreduzible Komponenten von T
Sei   die Zerlegung
Sei   die unitäre Matrix dieser Zerlegung, wo   die Komponenten von gleicher Klasse nummeriert.
Sei   eine Standard-Basis.
Die Matrixelemente   sind:

(a) =0 wenn   nicht in der Zerlegung vorkommt, sonst
(b)  
  und   hängen nicht von   ab.

Die unitären Matrizen der Zerlegungen sind definiert durch die Gleichungen:

 
 

Sie verlangen als Eingabe die Darstellungsmatrizen   bzw.  . Sie hängen nur vom Transformationsverhalten der Vektoren   bzw. der Operatoren   ab.

Beweis A. Zuerst wird die unitäre Matrix   auf das Tupel angesetzt:

 

Die Umkehrtransformation wegen Unitarität:

 

Für jedes Paar   spannen die Vektoren   einen Unterraum   auf, in dem die Standarddarstellung   regiert.
In Worten, das angelieferte, eventuell linear abhängige Tupel kann mit einer unitären Matrix so durchmischt werden, dass sich die Mischlinge sauber geordnet mit irreduziblen Blockmatrizen vom Typ   transformieren. Es herrscht vielleicht immer noch lineare Abhängigkeit, oder sogar es landet mehr als eine Teilmenge im selben Darstellungs-Block.
Das sortierte Vektor-Tupel   kann in der Standardbasis entwickelt werden:

 

Fü jedes Paar   hat man einen Darstellungs-Unterraum  . Die zuletzt geschriebene Matrix in den Indizes   vermittelt eine homomorphe Abbildung von   nach  . Nach dem Lemma von Schur ist sie entweder Null oder konstant, da beide Darstellungen bei Äquivalenz die selben sind.

 

Nun wird Bra-Vektor   auf die Umkehrtransformation losgelassen und dort die letzte Gleichung benutzt:

 

Daraus folgen beide Aussagen des Satzes.

Beweis B. Für alle Paare   hat die Menge der Vektoren   ein Transformationsverhalten wie die Basisvektoren des Darstellungsproduktes  . Sie sind nicht unbedingt linear unabhängig, aber nach der Folgerung aus Satz 3 ist die Darstellung zumindest eine Komponente der Produkt-Darstellung. Man sortiert die Vektormenge um wie im vorigen Beweis. Man definiere, mit der unitären Matrix   :

 

Hilfe, ist das unübersichtlich mit den 6 Indizes! Erklären!
Rücktransformation mit Unitarität:

 .

Die damit eingeführten Vektor-Tupel mit variablem  , alle anderen Indizes festgehalten, sind entweder null oder bilden eine Standardbasis für eine Darstellung  . Satz A kann angewendet werden, also wird mit Bra-Vektoren   :

 

Der Ausdruck hinter den Deltas hängt nicht von   ab. Damit ergibt die Rücktransformation, bei Behandlung mit   :

 

Daraus folgt, was behauptet wurde.

Auswahlregel: Seien Vektoren   und   in Darstellungsräumen zu   und  . Wenn der Operator L nach Darstellung   transformiert und kein irreduzibler Teil von   in der Produktdarstellung   auftaucht, dann gilt  . Bei irreduziblen Darstellungen   folgt das direkt aus Satz B. Bei zerlegbaren transformiert   wie eine Komponente von   und Satz A wird auf diesen Vektor angewendet.

Beispiel Drehgruppe:
Diese Gruppe SO(3), genauer gesagt ihre Überlagerungsgruppe SU(2), die unitären 2x2-Matrizen mit Derminante 1, hat eine Reihe von irreduziblen Darstellungen   zu halbzahligem  . Mit den Dimensionen (2j+1). Die Zerlegung der Tensorprodukte erfolgt nach der Formel

 .

Die unitäre Matrix dazu ist ein Satz von Clebsch-Gordan-Koeffizienten. Die irreduziblen Komponenten kommen je einmal vor, ihre Blockmatrizen stehen bis auf eine Konstante fest.
Ein irreduzibler Tensor-Operator der Drehgruppe ist ein (2k+1)-tupel von Operatoren  , das sich nach der Darstellung   transformiert. Die Matrixelemente   haben die Form von Satz B. Weil jedes mögliche   nur einmal in   erscheint, hat die Summe über die   nur einen Term. Die päzisere Version dieses Ergebnisses ist der Satz von Wigner-Eckart.

Invariante Observablen: Sei der Operator Q invariant unter einer Gruppe von Transformationen,   sei eine unitäre (zerlegbare) Darstellung auf dem Zustandsraum. Vektoren einer irreduziblen Standardbasis zur Darstellung   transformieren nach Anwendung von Q immer noch mit  . Für Matrixelemente folgt aus Satz B (oder auch A):

 .

Für jedes j ergibt Q eine hermitesche Matrix in Indizes  , wo   die anwesenden äquivalenten (j)-Komponenten nummeriert. Ist d(j) die Dimension von  , dann sind alle Eigenwerte von Q d(j) mal entartet. Oder sogar   mal, falls bei der Diagonalisation der Matrix   ein Eigenwert davon mit der Multiplizität p anfällt.
Invariante Operatoren wie z.B. Casimir-Operatoren helfen dabei, degenerierte Zustands-Multipletts zu erkennen und zu sortieren.
Jeder Eigenraum vom Operator Q ist invariant unter der Darstellung. Wenn die Darstellung im Hilbertraum eine endliche Summe   ist, dann kann Q höchstens   verschiedene Eigenwerte haben.