In diesem Kapitel soll beispielhaft mit der Mechanik elastischer Körper und mit den Methoden von Walter Ritz durchgerechnet werden, welche Schwingungen eine quadratische Platte ausführen kann, wenn sie frei aufgestellt wird.[1] Die Modellvorstellung: die Ränder und Ecken bleiben frei beweglich.
Ernst Florens Friedrich Chladni (1756-1827) war zuerst promovierter Jurist und sattelte dann auf die Naturwisssenschaften um, wo er zum Begründer der physikalischen Akustik wurde. Er studierte die Töne, mit denen die Platten aus Glas oder Metall erklingen, wenn sie angeschlagen oder anderweitig angeregt werden. Er versah die Frequenzen mit Noten aus der Zwölftonskala und machte die zugehörigen stehenden Wellen als Figuren der Knotenlinien sichtbar. Dazu streute er feinen Sand auf die Platte und strich sie an ausgewählten Stellen am Rand mit dem Geigenbogen. Der Sand sammelt sich bei den Eigenschwingungen auf bestimmten Knotenlinien, also da, wo die Platte sich nicht bewegt. Die Chladnischen Klangfiguren sind das Ergebnis seiner Experimente. Chladni war es auch, der erkannte, dass die Meteoriten aus dem Weltall stammen, entgegen der Meinung von hochrangigen skeptischen Intellektuellen.
Die Theorie im Anschluss an Chladni, vorangetrieben durch Kirchhoff, Ritz, ... machte die Platten-Schwingungen berechenbar. Für die eckigen (im Gegensatz zu kreisrunden) Platten gab es keine analytische Lösung, aber bahnbrechende Fortschritte in der Numerik.
Um die transversalen Schwingungen von Platten zu berechnen, kann man ausgehen von den Ergebnissen eine Dimension niedriger, also den Schwingungen der Saiten. Es wurde möglich, mathematisch ausformulierte Lösungen des Problems bei rechteckigen Platten zu finden, die an zwei oder vier Kanten fest eingespannt sind. Aber für die frei bewegliche Platte, wie sie Chladnis Versuchen nahekommt, holte man keine analytischen Wellenformen heraus aus den Differenzialgleichungen und den Randbedingungen. Fangen wir an mit dem freischwingenden Stab oder Draht oder Balken, wie auch immer.
Die Wirkung der biegesteifen Saite mit Zugkraft aus dem vorigen Kapitel hatte diese quadratische Form, als ein Integrand über Ort und Zeit betrachtet:
Nun soll die Zugkraft wegfallen und der Draht oder Balken soll frei sein, nicht an den Enden eingespannt. Welche transversalen Schwingungen macht er dann?
Mit dem Ansatz und der schlampigen Annahme, dass in ganz ferner Zukunft und Vergangenheit die Werte von w vernachlässigt werden, ersetzen wir in der Dichte L den Term mit Hilfe von partieller Integration über die Zeit durch .
Es bleibt ein Variationsproblem auf der x-Achse, unabhängig von der Zeit:
extremal oder stationär.
Setzen wir , und , dann wird daraus:
Aus dieser Form des Problems kann man sowohl eine Differenzialgleichung im Drahtinneren als auch die Randbedingungen an den Drahtenden herleiten. Wenn das analoge Problem eine Dimension höher für die Platte drankommt, wird es Gleichungen fürs Innere, für die Kanten und für die Ecken geben. Daher üben wir die Sache zuerst mit einer Dimension. Der Draht/Balken sei auf dem Intervall [-a,a] angesiedelt.
Die Funktion u(x) wird mit einer glatten Testfunktion ε(x) variiert, typischerweise einer beliebig konzentriert gedachten Warze an irgendeinem Ort. Die Ein-Parameter-Familie ergibt bei z=0 ein Minimum des Wirkungsfunktionals, wenn u() eine Lösung des Problems sein soll. Als Funktion von z betrachtet, hat diese Wirkung die erste Ableitung Null bei z=0. Das ist hier die Rechenaufgabe:
Nun werden die Ableitungen von ε(x) aus dem Inneren vertrieben, nämlich mit partieller Integration:
Das letzte Integral wird noch einmal umgeformt:
Jetzt gibt es einen Integranden mit dem Faktor ε(x) und Randterme. Weil die Testfunktionen beliebige Buckel sind, muss ihr Multiplikand identisch Null werden, um die Extremalbedingung zu erfüllen. Einsammeln von dem, was unter dem Integral bleibt, ergibt die Differenzialgleichung für u(), nämlich:
Die Randterme an der oberen Grenze x=a sind:
Da es sich um einen isolierten Punkt handelt, kann dort das beliebige ; und seine Ableitung unabhängig verformt werden. Es gibt daher zwei Randbedingungen für die Funktion u():
Am unteren Grenzpunkt x=-a folgen die gleichen Bedingungen noch einmal.
Konkretes Beispiel
Die Differenzialgleichung im Intervall ist zu lösen mit den Randbedingungen, dass die zweite und dritte Ableitung an den Endpunkten verschwindet.
Im Kapitel zu den Saiten wurde der frei longitudinal schwingende Stab erwähnt und seine Randbedingungen wurden mit etwas wedelnden Händen, den berühmten hand-waving arguments, begründet. Hier zeigt sich, wie man sie rigoros aus dem Wirkungsprinzip hätte ableiten sollen.
Mit den Endpunkten erwartet man gerade und ungerade Lösungen der Gleichung , die aus den trigonometrischen und den hyperbolischen Funktionen linearkombiniert werden. Gleichung und Randbedingungen sagen:
Elimination von a,b ergibt je eine numerisch zu lösende Gleichung für zwei diskrete Folgen von Lösungen.
(n gerade);
(n ungerade);
Die Koeffizienten konnten so justiert werden, dass das Integral über Paare von diesen Eigenschwingungen eine Orthogonalitätsrelation erfüllt:
Um ein vollständiges Funktionensystem zu erhalten, werden am Anfang der Reihe zwei triviale Funktionen vorgeschaltet, die nicht schwingen:
Danach kommen die Wellenzahlen dran in aufsteigender Ordnung.
=2,365 ist die erste gerade Lösung, Knoten an den Enden in .
=3,9266 die erste ungerade Lösung mit einem Knoten mehr in der Mitte.
Nach Ritz kann man jede stetige Funktion auf dem Intervall [-1,1] durch eine gleichmäßig konvergente Reihe aus diesem Funktionensatz approximieren mit:
Dabei stört es nicht, dass die Randbedingungen der verschwindenden zweiten und dritten Ableitung gelten.
Das erste beiliegende Skript berechnet die Reihe der Funktionen in Form der Tupel so weit wie nötig, um die Näherungsverfahren damit durchzuführen. In zwei Dimensionen wird eine doppelt indizierte Produktbasis nützlich sein, .
Man kann die Orthogonalität ohne Nachrechnen beweisen. Denn ist ein symmetrischer Operator auf dem Teilraum der Funktionen, die den Randbedingungen genügen. Das heißt, mit partieller Integration gilt für Paare:
Bei den Randtermen während der Umformung taucht nämlich immer eine zweite oder dritte Ableitung auf, die nach Voraussetzung zu Null wird.
Nun das Argument: Sind u() und v() zwei Eigenfunktionen zu einem symmetrischen Operator mit verschiedenen Eigenwerten, dann sind sie orthogonal. In der Tat liefert beim Einsetzen in die Symmetriegleichung das Skalarprodukt aus, mit ungleichen Koeffizienten. Es muss daher verschwinden. Die Reihe der hat die Reihe von Eigenwerten , am Anfang zusätzlich .
Orthogonale Funktionen sind ein wichtiges Hilfsmittel. Beliebige aber brave Funktionen werden als Linearkombinationen von solchen ausgedrückt. Das Integral wird als ein Skalarprodukt bezeichnet und in der Physik gern als notiert. Es ist symmetrisch, linear in beiden Argumenten und ist streng positiv außer bei der Nullfunktion (Pedantisch: auf Mengen vom Maß Null darf f machen, was es will). Im Vektorraum der Funktionen gibt es dann die L2-Norm
und den Abstand zwischen zwei Funktionen. Eine Folge oder Reihe von Funktionen konvergiert gegen eine Grenzfunktion, wenn die Folge der Abstände dazu gegen Null geht. Dies ist eine schwache Art von Konvergenz, manchmal "Grenzwert im Mittel" oder "l.i.m." genannt. Wesentlich strengere Metriken wären die punktweise Konvergenz von Funktionen und die noch stärkere gleichmäßige Konvergenz. In der Praxis hat man mit der L2-Norm das Privileg eines Hilbert-Raums. Es gibt Vollständige Orthonormalsysteme von Funktionen, die eine abzählbare Basis für die Gesamtheit der Funktionen ausmachen. Jedes Hilbert-Raum-Element ist Grenzwert einer Reihe von linearkombinierten Basisfunktionen . Die Basisfunktionen sind orthonormal, Die Koeffizienten der Entwicklung sind einfach zu berechnen übers Skalarprodukt: . Die Fourier-Reihen bilden ein Musterbeispiel der Reihenentwicklung von Funktionen. Aber es gibt jede Menge von anderen Orthonormalsystemen, die spezifisch auf die jeweilige Anwendung gemünzt werden.
Beispiel für orthogonale Polynome.
Die Monome sind eine Basis, in der man gutartige Funktionen auf dem Intervall annähern kann. Die Entwicklung nennt sich die Taylor-Reihe
Wir wollen aus den Monomen eine andere Basis machen , die orthonormal sei bezüglich des Produktes .
Mit fängt ein Induktionsargument an. Was folgt, ist die gleiche Prozedur auf jedem Vektorraum mit Skalarprodukt. Angenommen, es seien bereits orthonormal
Dann verbiegen wir zuerst so, dass wir all seine Projektionen auf die vorhandenen abziehen:
Bleibt nur noch, dieses neue orthogonale Element zu normieren und zu vereinnahmen mit der Definition:
.
Das Ergebnis ist eine Reihe von orthonormalen Vektoren, hier Polynomen. Das Skalarprodukt hat hier die spezielle Eigenschaft falls (i+k) ungerade ist, weil das Integral einer ungeraden Funktion über [-1,1] verschwindet. Rekursiv folgt daraus, dass alle gerade oder ungerade Funktionen sind, je nachdem ob ihr Index gerade ist oder nicht.
Ein kleines Skript erzeugt die Polynome bis zur Ordnung 16, in Form ihrer Koeffizientenlisten. Sie werden ein Testsystem für die Ritz-Methode, mit einem weniger guten als dem fast idealen Basissystem von Ritz.
Bemerkung. Wenn eine Normierung nicht gefordert wird, kann die Orthogonalisierung mit folgender Rekursion erfolgen, ohne Wurzelrechnung:
So sehen die ersten nicht-normierten Polynome mit ganzen Koeffizienten aus, die ein Skript mit Ganzzahl-Arithmetik ermittelte:
Auf dem quadratischen Gebiet [-1,1]x[-1,1] sind die paarweisen Produkte von orthonormalen Polynomen einer Variablen wieder ein Orthonormalsystem, . Daraus bildet man Teilbasen fÿr die verschiedenen Symmetriedarstellungen; weiter unten wird das benutzt.
Das Modell der elastischen Platte für kleine Auslenkungen ist ein Spezialfall der Theorie eines allgemeinen elastischen Objekts P, das als homogen und isototrop angenommen wird. Dessen Auslenkung aus der Ruhelage für jeden seiner Punkte wird durch ein Verschiebungsfeld beschrieben. Die Verschiebungen sind kleine zeitveränderliche Auslenkungen; der Punkt wandert nach .
Die elastische Energie, also die im Objekt gespeicherte potenzielle Energie V, ist nach dem allgemeinen Hookeschen Gesetz des vorigen Kapitels die Summe über eine quadratische Funktion des symmetrischen Verzerrungstensors : Die eventuell zeitveränderliche Dichte unter dem Integral werde hier ebenfalls (ewas schludrig, dieser Autor) als bezeichnet.
Zum Glück stecken in den 81 Konstanten C nur zwei unabhängige Werte, etwa der Elastizitätsmodul E und die Poisssonsche Querkontraktions-Zahl ;. Denn Homogenität und Isotropie sind synonym für vielfache Symmetrie: die Invarianz des Problems unter der Isometrie-Gruppe von Rotationen und Translationen. Daraus folgt mathematisch, wie die Elastizitätskontanten einzudampfen sind.
Wie im Saiten-Kapitel irgendwo ausgeführt wurde, hat mit dem Paar (E,ν) die Dichte der potenziellen Energie die einfachere Form
wo der Cauchy-Spannungstensor σ linear aus den Verzerrungen erwächst:
Die Verzerrung ε ist dimensionslos, denn ihre Differenzialquotienten teilen Länge durch Länge. Die Spannung σ hat die Dimension eines Drucks, nämlich Kraft durch Fläche. Unser Integrand V, mal dem Integrationsmaß
im Raum, also dem Volumenelement , bekommt so die Dimension Kraft mal Länge. Gleich Arbeit, gleich Energie, ganz wie gewünscht. Wird noch dazu in der vierten Dimension, der Zeit, integriert, dann haben wir mit Energie mal Zeit in der Tat eine Wirkung A vor uns. Auf Englisch action.
Azubis der Naturlehre tun gut daran, ab und zu die Dimensionen in den Formeln genau nachzuprüfen. Was viel dabei hilft, Unsinn zu vermeiden.
Ist ein Objekt in Bewegung, etwa weil es vibriert und wofür wir auf ein berechenbares Modell hoffen, dann beschreibt jeder Massenpunkt eine Bahnkurve . Mit der Materialdichte ρ wird die gesamte kinetische Energie zum Zeitpunkt t das Raum-Integral über die kinetische Energiedichte
Nach dem mächtigen Wirkungsprinzip folgen die Bewegungsgleichungen des Objekts aus der Forderung, dass die Wirkung extremal oder zumindest stationär sei. Die Wirkung ist das vierdimensionale Raumzeit-Integral über die Lagrange-Dichte
Die Dichte L hat die Dimension "Druck", das Funktional A die Dimension "Wirkung". Stationär ist die Wirkung, wenn an jedem Punkt von Raum und Zeit die Euler-Lagrange-Gleichungen für die in L anwesenden Verschiebungsfelder erfüllt werden. In dieser traditionellen Version kommt das Problem auf den Tisch als ein System von partiellen Differenzialgleichungen.
Die Aufgabe besteht nun darin, diese Allgemeinheiten für den Fall der elastischen Platte auszuarbeiten und soweit zu vereinfachen, dass ein brauchbares Rechenmodell zum Vorschein kommt, eines benannt nach Kirchhoff. Besondere Aufmerksamkeit verdienen die Ränder des Objekts P, also verschieden niedrig-dimensionale Mannigfaltigkeiten an seiner Oberfläche. Auf diesen Teilmengen werden die Euler-Gleichungen eingepfercht mit den Randbedingungen des Problems.
Das quadratische Potenzial-Funktional V{f}, das die gesuchten Funktionen extremal oder zumindest stationär machen sollen, ist ein Integral über die Fläche F:
Um Schreibarbeit zu sparen, gibt es in diesem Abschnitt Abkürzungen nach folgendem Muster:
Das Energie-Funktional für periodische Lösungen hat die Gestalt
Allgemein habe das Funktional eine Dichte mit den sechs Argumenten:
.
Die Variation (die Ableitung bei Null der Ein-Parameter-Familie) mit einer beliebigen Testfunktion hat einen Integranden ganz analog zum eindimensionalen Fall,
Das Gebiet F in der Ebene sei nun das Rechteck . Die Ableitungen der Testfunktion werden an die Ränder vertrieben, wobei die gemischte Ableitung sogar einen Sonderbeitrag für die Ecken liefern wird.
Argumentiert wird, dass ε(x,y) ganz willkürlich verformt werden kann im Gebietsinneren und an den Seiten und Ecken. Dazu kann noch an den Seiten und and den Seiten nach Belieben verbogen werden. Wenn das Funktional extremal wird, werden die Faktoren der Testfunktion für all diese Fälle verschwinden. Aufsammeln dieser Faktoren ergibt:
innen
vier Ecken:
Mit der Lagrange-Dichte der Transversalschwingungen der Platte ergibt so die Forderung nach verschwindender Variation diese Gleichungen:
Innen
Seiten
Seiten
Ecken:
Nicht sehr einladend, wenn jemand nach analytischen Lösungen Ausschau hält.
Umgehung von Differenzialgleichungen und Randbedingungen
Ritz setzt auf mathematisch höherem Niveau an als manche seiner Nachfolger. Das Variationsprinzip, welches ein stationäres Energie-Funktional V über eine bilineare Dichtefunktion fordert, hat automatisch alle nötigen Randbedingungen und Differenzialgleichungen für periodische dynamische Lösungen zur Folge:
Gleichung vierter Ordnung im Inneren des Rechtecks,
Gleichungen dritter Ordnung auf den Kanten,
Gleichung zweiter Ordnung in den Ecken.
Es bleibt einem erspart, alle diese Gleichungen zu lösen! Man wählt eine endliche Basis aus einem Orthonormalsystem von Funktionen. Linearkombinationen davon nähern die richtige Lösung gut genug an. Die Variations-Aufgabe wird zu einem Eigenwertproblem der linearen Algebra. Im Gegensatz zu den Methoden, die testen, wie gut die Gleichungen auf Rändern und im Inneren approximiert werden, wird direkt die Ursache von allem, das Funktional, herangezogen.
Walter Ritz: „Der Umstand, daß das Prinzip der kleinsten Aktion, welches die kürzeste Zusammenfassung der Gesetze der meisten physikalischen Erscheinungen gibt, auch in vielen Fällen den direkten Weg zu deren mathematischen Behandlung und numerischen Berechnung weist, dürfte nicht ohne Bedeutung sein.“
Quelle: Theorie der Transversalschwingungen einer quadratischen Platte mit freien Rändern, Januar 1909.
Angestrebt wird eine Näherung mit endlich vielen Basis-Funktionen. Die Methode verwandelt das Problem, Funktionen zu finden, die ein Funktional extremal (oder zumindest stationär) machen, in ein Matrixproblem mit endlicher Dimension. Das Funktional soll quadratisch im Argument sein. Also in allen Integranden, Summanden stehen nur Terme zweiter Ordnung, Produkte zweier linearer Operationen auf der Funktion. Die typisch linearen Faktoren sind da partielle Ableitungen jedweder Ordnung. Deswegen wird das Gleichungssystem in die wohlbekannte lineare Algebra münden.
1. Aus dem quadratischen machen wir ein symmetrisches bilineares Funktional mit der Definition . Meist kann B sofort ohne diese Ausrechnung hingeschrieben werden.
2. Die Funktion f wird als Linearkombinationen von n Basisfunktionen angenähert, etwa . Diese Basis definiert die Matrixelemente des Funktionals, . Wegen der Bilinearität . Der Koeffizientenvektor ist so zu bestimmen, dass das Funktional einen Extremwert annimmt.
3. Extremwerte treten auf, wenn die partiellen Ableitungen nach allen Komponenten von verschwinden. Das ist leicht mit der Produktregel:
wegen der Symmetrie. In Matrix-Vektor-Schreibweise, es ist das Gleichungssystem Fa=0 zu lösen.
4. Die Arbeit besteht darin, ein geeignetes Basis-System zu wählen. Am Besten ist ein vollständiges Orthonormalsystem, wie wir gleich sehen. Damit muss auch möglich sein, die Matrix des Funktionals effizient zu berechnen.
Anwendung.
Das Funktional V{f} des vorigen Abschnitts wird mit der einschlägigen Notation zur bilinearen symmetrischen Form:
Der letzte Term entspricht einem Skalarprodukt. Wenn wir das Variationsproblem mit einem Satz von orthonormalen Basisfunktion auf eine Matrixgleichung abbilden, macht der Term eine Einheitsmatrix und führt zur Eigenwertgleichung
für einen N-Tupel-Vektor a.
Die Matrix F kommt hier aus dem Operator-Teil der Bilinearform,
Die Rechenarbeit besteht erst einmal darin, die Matrix für das Orthonormalsystem zu finden, das aus Produkten von je zwei Balken-Funktionen besteht.
Gilt f(x,y) = u(x) v(y), kann wie folgt notiert werden:
Nun sei eine allgemeine Funktion f(x,y) gut angenähert als eine Summe von Termen aus einem Orthonormalsystem von Funktionen . Hier sind die u und die v die gleiche Folge von (Balken-)Funktionen einer Variablen, aber wir notieren sie verschieden um bei verkürzter Schreibweise ihr Argument gelegentlich wegzulassen. Also gibt es die Doppelsumme
und eine quadratische Form, wie der Integrand von V{f}, wird eine Vierfachsumme mit einer Koeffientenmatrix wie .
Die Matrixelemente des Potenzials sind Integrale über
Mit Abkürzungen
Im Anhang A stehen explizite Formeln für die Matrizen A,B,C mit der Reihe der Eigenfunktionen des Balkens. Damit kann ein Rechenskript in Python seine Aufgabe tun.
Bemerkung zur Wahl der Basis:
Für ν=0 ist das Funktional in zwei Dimensionen beinahe die Summe von zwei eindimensionalen Funktionalen, die dem einfachen Balkenmodell entsprechen. Die Funktionen Eigenschwingungen des Balkens sind, sind ansatzweise schon Lösungen. Daher wird eine Orthonormalbasis aus solchen gut bekannten Lösungen gebaut. Der Parameter ν wird als eine Störung behandelt. Die korrekten Eigenschwingungen sind den ungestörten ganz ähnlich und ergeben sich so, dass zu einer dominanten alten Eigenfunktion kleine Beiträge der anderen Eigenfunktionen beigemischt werden.
Es gibt Skripte hier in Python, die die Arbeit von Ritz nachrechnen.
Einerseits mit dem System der Balkenfunktionen, andererseits mit
einer Basis von orthogonalen Polynomen. Viele .svg-Bilder werden
auf die Platte geschrieben, im gerade gewählten Arbeitsverzeichnis.
Wenn das Wirkungsfunktional für Teilmengen von Funktionen invariant unter Transformationen ist, verwandeln diese Lösungen des Extremalproblems in ebensolche Lösungen. Daher kommt der Ansatz, die Lösungsmenge in Teile aufzuspalten, die jeweils unter den Symmetrietransformationen abgeschlossen sind. Mit dem Jargon des letzten Abschnitts, in irreduzible Darstellungen.
Um die Näherungslösungen als Linearkombinationen einer Basis anzusetzen, wird die Symmetrie des Funktionals berücksichtigt. Man betrachtet Teilmengen von Funktionen, die bei Spiegelungen bzw. Drehungen der quadratischen Platte unter sich bleiben, so dass auch die Integration der Potenzialdichte keine Funktion aus der Menge herauswirft. In diesen invarianten Teilräumen kombiniert man die Lösungsanwärter aus einer Basis mit dem jeweiligen Symmetrieverhalten.
Seien also Folgen von geraden beziehungsweise ungeraden Funktionen, die idealerweise zusammen ein vollständiges Orthonormalsystem auf [-1,1] bilden.
Die von Basen A bis D aufgespannten Teilräume sind invariant unter der Symmetriegruppe des Quadrats. Aber Basis E und F werden durch Spiegelung an der Diagonale vertauscht. Man kann nicht zwei invariante Teilräume daraus linearkombinieren. Aus einer Eigenfunktion, die von E erzeugt wird, macht eine Spiegelung eine linear unabhängige mit derselben Eigenfrequenz aber der Basis F. Es gibt bei dieser Symmetrie zweifach entartete Eigenwerte.
Anhang A: Die Elemente A,B,C für die Balkenfunktionen
Im Artikel von Ritz stehen nur die Ergebnisse vieler Integrationen. Wie sehr oft im harten Kern der Wissenschaft, setzt der Autor stillschweigend voraus, dass die geneigeten Leserinnen und Leser sich alle Rechenschritte selbst auf dem Briefumschlag oder Bierdeckel zusammenkritzeln. Solcher Art Gekritzel kommt also hier hinein, der Vollständigkeit halber.
Gegeben: Funktionen u,v auf dem Intervall [-1,1] mit den Eigenschaften:
Gesucht:
Ab jetzt sind die Integralgrenzen impliziert und der senkrechte Strich hinter einem Term bedeutet: Wert bei (x=1) minus Wert bei (x=-1).
Andererseits
Wenn u,v die gleiche Parität haben, ist ( u'v-uv' ) ungerade und . Bei entgegengesetzter Parität ist der Term gerade und das Integral A(u,v) verschwindet.
*
Auch dieses entweder oder 0 bei ungleicher Parität.
*
Mit , Balken-Eigenfunktionen , folgt:
(n+m gerade)
(n+m gerade)
Die diagonalen Matrixelemente und bleiben noch zu berechnen.
Zu erwähnen sind zuerst die Zahlen am Anfang, an denen die Hilfsfunktionen beteiligt sind.
Die anderen Integrale A,B für n=m gehen über Integranden der Art
Zunächst die Stammfunktionen der Produkte
und so weriter als Päckchen von Rechenübungen. Alle sind als ungerade Funktionen ausgelegt.
Die Stammfunktionen ergeben mit a=b=k und die bestimmten Integrale:
Mit den Abkürzungen
haben die zwei Arten von Stabschwingungen die nicht-normierten Wellenformen
Mit den Integralen und mit den Nebenbedingungen folgen die Normquadrate
Und weiter die Integrale
Endlich erhalten wir Formeln für die normierten Wellen und ihre Diagonalelemente.
n gerade,
n ungerade,
Alles sehr langweilig, aber die Rechenskripte weiter unten benutzen den Kram.
Dieser Algorithmus zur Berechnung der Eigenwerte verlangt kleine aber viele Rechenschritte und ist erst mit Computereinsatz praktikabel geworden. Im vorigen Kapitel wurde erwähnt, dass jede symmetrische Matrix S mit einer (nicht eindeutigen) orthogonalen Matrix R auf Diagonalform geht, . Äquivalent dazu ist, dass S ein vollständiges orthonormales System von Eigenvektoren hat und dass R gemacht wird, indem man diese Spalten- oder Zeilenvektoren zusammenklebt. Jacobis Methode baut die Rotationsmatrix iterativ auf, indem sie elementare Drehungen in Indexpaaren so hinbiegt, dass je ein Nichtdiagonal-Element genullt wird. Das Element kann als Nebeneffekt eines späteren Schritts wieder wachsen, aber die Norm von allem Nichtdiagonalen zusammen nimmt streng monoton ab, die Schleife konvergiert.
Gegeben ist eine symmetrische Matrix . Es soll eine Folge von elementaren Dreh-Matrizen R so konstruiert werden, dass die Transformationen die Elemente außerhalb der Diagonalen gegen Null streben lassen. Parallel häuft eine Matrix U, die als Einheitsmatrix gestartet wurde, mit die Gesamtheit der Rotationen an. Am Ende der Schleifen ist A diagonal und enhält die Eigenwerte, U ist orthogonal und enhält die zugehörigen Eigenvektoren als Spalten (oder Zeilen).
Die elementare Drehung eines Koordinatenpaars (m,n) ist so definiert:
Mit dem Winkel α sei . Die Matrix ist trivial außer wenn i und j die Indizes des Paars sind:
Wie wirkt die Matrix R in dem Rezept ?
Die Transformation der Eigenvektormatrix sieht so aus:
Das Ziel sei nun, ein Element A_{mn} mit ausgewähltem Winkel auf Null zu zwingen.
Man nimmt die betragsmäßig kleinere Lösung der quadratischen Gleichung:
Dinge vereinfachen sich dann auf der Diagonalen:
Die Transformation bewirkt daher, dass wird und dass die anderen betroffenen Nichtdiagonal-Elemente wie paarweise eine Drehung erfahren; so bleibt die Summe ihrer Quadrate konstant. Die Summe aller Quadrate außerhalb der Diagonalen nimmt also monoton ab. Es gelingt dem Algorithmus, nach vielleicht höchstens Schritten, die sich jeweils eines der größten Matrixelemente vorknöpfen, nur die Diagonale übrig zu lassen. Für nicht zu große Matrizen ist die Prozedur empfehlenswert.
Das folgende Listing führt die Berechnung aus, manipuliert dabei nur das obere Dreieck der symmetrischen Matrix (Speicher sparen?).
defrotjacobi(a,x):# after en.wikipedia, Jacobi_rotation sweep# a symm.matrix, x eigenvectors, n=len(a);gain=0;tiny=1e-33;giant=1e33forkinrange(n):# upper triangle k<l, one similarity transf per pairforlinrange(k+1,n):# todo: keep list of pivots= largest z per row?z=a[k][l];ok=(abs(z)<tiny)ifok:a[k][l]=0# experimentelse:gain+=abs(z)v=(a[l][l]-a[k][k]);b=v/(2.0*z);t=-abs(b)+sqrt(1+b*b)t=(-t)if(b<0)elset# if v=0, t=1, angle pi/4.ift>giant:s=0;c=1;tz=velift<-giant:s=0;c=-1;tz=-velse:u=sqrt(1.0+t*t);c=1.0/u;s=c*t;tz=t*za[k][k]-=tz;a[l][l]+=tz;a[k][l]=0forhinrange(n):if(h!=k)and(h!=l):# rotate pair {a_hk,a_hl}, use index symmetry.(hk,kh)=(h,k)if(h<k)else(k,h);ak=a[hk][kh](hl,lh)=(h,l)if(h<l)else(l,h);al=a[hl][lh]a[hk][kh]=c*ak-s*al;a[hl][lh]=s*ak+c*alforhinrange(n):# rotate such that no transpose laterxk=x[k][h];xl=x[l][h];x[k][h]=c*xk-s*xl;x[l][h]=s*xk+c*xlreturngaindefeigenloop(ma):# symmetric matrix ma. return eigenvals, row-eigenvectors.n=len(ma);x=[[]]*n;m=[[]]*n;epsi=1e-33;j=0;gain=1;eval=[0]*nforiinrange(n):x[i]=[0]*n;x[i][i]=1;m[i]=[0]*nforkinrange(n):m[i][k]=ma[i][k]while(j<(2*n))and(gain>epsi):# matrix m is transformedgain=rotjacobi(m,x);j+=1;# print('Gain='+str(gain))foriinrange(n):eval[i]=m[i][i]ifgain>=epsi:print('eigenloop: failure.');exit()# Matrix equation now: x*ma*x^T = diag(eval) . Diagonalized ma.returneval,x# eval=eigenval list, rows of x are orthonormal eigenvectors
Die regelmäßigen Dreiecke, Vierecke alias Quadrate, Fünfecke und so fort in der Ebene haben je eine Menge von Transformationen, die sie deckungsgleich bewegen. Es sind dies Drehungen ums Zentrum mit passenden Winkeln sowie Spiegelungen an passenden Achsen durchs Zentrum der Figur. Die Transformationen kommen als mathematische Gruppen daher: sie kombinieren sich assoziativ, es gibt ein neutrales Element und jedes Element hat eine Umkehrung.
Die Symmetrietransformationen des n-Ecks bilden die Diedergruppe (Aussprache Di-Eder, Sonderfall von Polyeder). Die Gruppe hat insgesamt 2n Elemente und beinhaltet offensichtlich die zyklische Untergruppe der Drehungen um die Winkel . Die anderen n Symmetrien sind Spiegelungen an den Achsen, die durch gegenüberliegende Ecken oder Kanten oder, bei ungeraden n, durch je eine Ecke und eine Kante verlaufen. Zur Verwirrung des Publikums notieren manche Bücher und Schriften die Gruppen als , die hier heißen.
Das "regelmäßige Zweieck", also ein gerader Strich in der Landschaft, hat die kleinste Diedergruppe , bestehend aus den Drehungen um 0 und 180 Grad und den Spiegelungen an der x-Achse und an der y-Achse. Bezeichnen wir diese Transformationen mit 1,a,b,c und definieren die Produkte wie (ab) als die Verkettung von Transformationen, also (ab)(p)= a(b(p)) für alle Punkte p=(x,y) in der Ebene. Dann hat die Gruppe folgende Auswirkungen und Produkte, von den trivialen mit dem neutralen Element 1 abgesehen:
Jedes Element ist sein eigenes Inverses. Die Gruppe ist kommutativ (abelsch). Die Gruppe entspricht auch der Symmetrie eines Rechtecks, das kein Quadrat ist. Der Multiplikationstabelle nach ist sie isomorph zur "Kleinschen Vierergruppe".
Die Symmetriegruppe des Dreiecks schafft es, alle Permutationen der drei Ecken zu verwirklichen. Man sagt dazu, sie ist isomorph zur Symmetrischen Gruppe , also der Menge aller Permutationen von drei Symbolen.
Das Quadrat hat die Symmetriegruppe . Ihre Elemente sind die Vierteldrehung g und ihre Wiederholungen sowie die Reflektion r an einer Achse, kombiniert mit all diesen Drehungen. In Sachen Permutation kann sie nicht alle Mischungen von 4 Ecken machen, sondern der Größe 8 ist nur eine bescheidene Untergruppe von , welche 4!=24 Elemente hat.
Hier spiegelt r an der x-Achse, rg an der Diagonalen x+y=0, rg2 an der y-Achse und rg3 an der Diagonalen x=y. Die Wahl des r ist willkürlich, wir hätten dafür auch die Spiegelung an der x=y-Diagonalen wählen können. Kann man die Symbole einer Gruppe "Eins-zu-Eins" in eine andere umschreiben, so dass die Multiplikationstabelle fehlerfrei mitgeht, sind die Gruppen "isomorph" und für mathematische Studien ein und dasselbe Objekt.
Zu den Rechenregeln auf gehört folgendes, in unserem Fall mit n=4 (wobei g0=1):
Die Gruppe ist nicht abelsch, beim Beispiel des Quadrats: .
Kommen wir zur Anwendung auf die Schwingungsfiguren des Quadrats. Der Integrand des Wirkungsfunktionals ist invariant unter allen Drehungen und Spiegelungen in der Ebene. Das Wirkungsintegral aber, das über die Form einer Platte geht, ist nur noch unter der endlichen Symmetriegruppe des Quadrats invariant, also in diesem Fall. Bei einer allgemeinen Symmetrietransformation a im Ortsraum werden die Auslenkungsfunktionen w(x,y) linear transformiert nach dem Ritus: .
Zum Produkt zweier Transformationen (ab) im Ortsraum gehört das Produkt (AB) der entsprechenden linearen Abbildungen im Raum der Funktionen. Die Zuordnung ist ein Gruppen-Homomorphismus, das heißt, sie respektiert die Gruppenmultiplikation und inverse Elemente sowie die Eins werden auf Inverse bzw. Eins abgebildet. Man nennt eine Darstellung einer beliebigen Gruppe einen Homomorphismus der Gruppe in eine Gruppe von linearen Abbildungen. Wenn die Auswirkung der linearen Abbildungen auf einem endlich-dimensionalen Vektorraum der Dimension N zu Hause bleibt, stellen wir solche als NxN-Matrizen dar und erhalten eine Matrixdarstellung der Gruppe.
Die Darstellungen der Symmetrien tauchen immer wieder auf bei der Klassifikation von physikalischen Problemen. Die erste Frage bei a-priori riesig großen Matrixdarstellungen ist: Kann man sie ausreduzieren? Gibt es möglichst kleine, invariante Unterräume, deren Vektoren unter der Menge der linearen Darstellungs-Abbildungen diesen Teilraum nicht verlassen? Anders gefragt, welche Matrizenmengen von kleinster Dimension bilden eine irreduzible Darstellung der Gruppe? Ist ein beliebiger Darstellungsraum zerlegbar in eine direkte Summe von irreduziblen Komponenten?
Bei den endlichen Gruppen stellt sich heraus, dass man ihre irreduziblen Darstellungen alle aus einer natürlichen Darstellung herausklauben
kann. Die reguläre Darstellung einer Gruppe G der Ordnung n (Zahl der Elemente von G, |G|=n) nimmt einen n-dimensionalen Vektorraum und schenkt jedem ein Element der Basis des Raums. Jedes bewirkt dann eine Permutation dieser Basis nach der Vorschrift . Als n-mal-n Matrix ausgeschrieben hat R(f) in jeder Zeile genau eine 1 und sonst Nullen.
Quadratische Matrizen haben eine brauchbare Kennziffer, die Spur, also die Summe der Diagonalelemente . Sie bleibt unverändert bei vertauschter Matrixmultiplikation, denn:
Daraus folgt, dass sie bei Ähnlichkeitstransformationen erhalten bleibt, . Und weiter, dass unabhängig von der Wahl der Basis die Spur der Matrizen einer gegebenen linearen Abbildung dieselbe ist. Die Spur ist eine Funktion der linearen Abbildung, ohne überhaupt eine Basis festzulegen.
Was passiert mit der Spur von Darstellungen von Gruppen? Zu einer Darstellung R definiert man ihren Charakter, eine reellwertige oder komplexwertige Funktion auf der Gruppe, als . Wegen der Eigenschaften von Homomorphismen und von Spuren gilt . Man sagt dazu, der Charakter ist invariant unter Konjugation. Für das Einselement der Gruppe ist die Dimension des Darstellungsraums. Direkte Summen und Tensorprodukte von Darstellungen, die man aus entsprechenden Summen und Tensorprodukten der Darstellungsräume herstellt, haben als Charaktere die Summen bzw. Produkte aus den Komponenten.
Ein Charakter definiert eine Darstellung bis auf Isomorphie vollständig! Die mathematische Theorie, beruhend auf dem Skalarprodukt zwischen Charakteren,
beweist nun, dass die reguläre Darstellung eine direkte Summe ist aus allen irreduziblen Darstellungen , deren jede mal vorkommt, mit der Dimension ihres Darstellungsraums. Also gilt . Wenn die Charaktere einer Gruppe eingedampft werden zu Funktionen der Konjugationsklassen statt der Gruppenelemente, findet die Darstellungstheorie eine quadratische Tabelle aller möglichen Charaktere und damit aller Darstellungen einer Gruppe. Genauer, aller Äquivalenzklassen von solchen irreduziblen Darstellungen. Bei den Charakteren der irreduziblen Darstellungen hat das Produkt mit sich selbst den Betrag Eins. Darstellungen sind nicht äquivalent (nicht isomorph), wenn das Skalarprodukt der Charaktere verschwindet. Es gibt genauso viele irreduzible Darstellungen wie Konjugationsklassen der Gruppe.
Unterschlagen wir die Frage, wann der Körper oder der Darstellung unterliegt, damit die Dimensionsformel stimmt. Hier genügen reelle Darstellungen.
In abelschen Gruppen ist jedes Element eine Klasse für sich. Doch welche Konjugationsklassen, kurz Klassen, hat eine Diedergruppe ?
Das Einselement steht für sich alleine, wie bei jeder Gruppe.
Die Drehungen , vertauschen untereinander. Aber mit der Spiegelung r gilt:
Die Paare sind Klassen, eventuell kommt in der Mitte ein Einzelexemplar bei geradem n, das ist die Drehung um π, um 180 Grad.
Die Spiegelungen formen zusammen eine oder zwei Klassen, denn:
Bei geradem n bleiben die Spiegelungen mit geradem und ungeradem p unter sich, bei n ungerade gibt es keine Aufspaltung. Klassenlisten:
Welche Darstellungen der Diedergruppen lassen sich leicht erraten?
Die triviale Darstellung T bildet alles auf die Zahl 1 ab, bei jeder Gruppe.
Die Vorzeichendarstellung V wirft die Drehungen auf 1, die Spiegelungen auf -1. Bei Gruppen von linearen Transformationen (speziell Matrizen) ist allgemein das Vorzeichen dasjenige der Determinante. Bei positiver Determinante bleibt die Orientierung des Koordinatensystems erhalten, bei negativer klappt sie um.
Die geometrische Darstellung G gibt der Rotation und Spiegelung ihre angestammten Matrizen, mit .
Ist sie irreduzibel?
Die "Potenzen" dieser Matrixdarstellung mit k von 2 bis n-1 geben eventuell andere Darstellungen ab:
.
An den Rechenregeln zu prüfen als Übung: diese Vorschrift erweitert sich wirklich zu einem Gruppenhomomorphismus. Wirklich Neues kommt nur vor, wenn k nicht größer als (n/2) wird, denn es gilt eine Äquivalenz:
(Übung)
Charakter-Tabelle der Diedergruppe , (T=trivial, V=Vorzeichen, G=geometrisch).
Problem: die Quadratsumme der Charakter-Werte der Spalte {1} ist größer als 4. Folglich muss die Darstellung G reduzibel sein. Tatsächlich sind es nur Diagonalmatrizen und die zwei Koordinaten bleiben eindimensional unter sich. Berichtigte Tabelle:
Also gibt es vier eindimensionale Darstellungen.
Charakter-Tabelle von , mit .
Hier stimmt die Summenregel: Die Quadrate der Dimensionen der Darstellungen addieren sich zu 6. Die Gruppe des Dreiecks hat zwei eindimensionale und eine zweidimensionale irreduzible Darstellung.
Vorläufige Charakter-Tabelle von mit ().
Wieder ist die Quadratsumme der ersten Spalte zu hoch, denn ist reduzibel zu zwei eindimensionalen Darstellungen. Auch daran zu erkennen, dass die Norm ihres Charakters zu groß ist. Als Matrixmenge ist die Darstellung diagonal wie beim reduziblen von vorhin. Zwei Zeilen ersetzen also in der korrekten Tabelle:
Bei den höheren Diedergruppen geht es nach dem Muster weiter. Es kommen immer mehr Darstellungen vom Typ hinzu, von denen eine bei geradzahligen N-Ecken um den Winkel π dreht, also diagonal ist und in zwei eindimensionale zerfällt.
Die Gruppe eines quadratischen Objekts hat also vier eindimensionale Darstellungen und eine zweidimensionale. Wie müssen Funktionen von Punkten p auf der Ebene aussehen, die solchen Darstellungen gehorchen?
In Worten, die Eigenschaften von f:
T: xy-symmetrisch, beide Paritäten +.
V: xy-antisymmetrisch, beide Paritäten -.
G2x: xy-antisymmetrisch, Paritäten +.
G2y: xy-symmetrisch, Paritäten -.
G: Linearkombination aus 2 Typen von f mit x-Parität ungleich y-Parität.
Diese fünf Fälle sind genau die Schwingungsarten, die Walter Ritz getrennt behandelt hat. Diejenigen mit isolierten Eigenwerten sind genau die vier eindimensionalen Darstellungen der Gruppe. Der Fall mit entarteten Eigenwerten betrifft die zweidimensionalen irreduziblen Unterräume von Funktionen.
Ein schlagendes mathematisches Argument für die Multiplizität, mit der manche Eigenwerte entartet sind, kommt aus dem Lemma von Schur. Dieses besagt, dass unter vernünftigen Umständen jede lineare Abbildung, die mit allen Abbildungen einer irreduziblen Menge vertauschbar ist, auf dem betroffenen irreduziblen Unterraum ein Vielfaches der Eins-Abbildung ist. Hier ist es der Operator eines Eigenwertproblems, der unsere lineare Abbildung vermittelt. Diese vertauscht mit allen Symmetrie-Abbildungen von . Der Unterraum, der von den Funktionen mit verschiedener x- und y-Parität aufgespannt wird, zerfällt in zweidimensionale irreduzible Darstellungen mit der oben angegebenen Isomorphieklasse G. Ein Eigenwert des Symmetrie-invarianten Operators muss nach Schur auf einem solchen Unterraum einheitlich sein, wenn er existiert.
Daraus folgt der Entartungsgrad 2 der Eigenschwingungen gemischter Parität. Es gibt da kontinuierliche Familien von Klangfiguren bei derselben Frequenz. Sobald aber die Symmetrie gebrochen wird, zum Beispiel wenn das Quadrat zum Rechteck wird und daher zu schrumpft, trennen solche Eigenschwingungen sich auf in Dubletts. Man sagt, der Bruch der Symmetrie hebt die Entartung auf.
Obige Ausschweifungen über Gruppendarstellungen, um die Chladni-Figuren des Quadrats etwas einzuordnen, waren eigentlich nicht nötig. Denn kluge
Autoren haben die Gruppierung ohne solchen Hintergrund richtig ermittelt. Allerdings für beliebige andere Symmetrien liefert die Gruppentheorie
uns weniger Gewieften Werkzeuge an die Hand, um eine Klassifikation vom Symmetrieverhalten nachzuvollziehen. Sei hingewiesen auf die Quantenmechanik der Moleküle, der Kristalle.