Zufall: Vorwort
Zurück zur Übersicht
Anfang
BearbeitenDieser Text beruht teilweise auf der Stoffsammlung zum Thema Zufall, die sich auf folgender Internetseite findet: https://web.archive.org/web/20161004141431/http://www.madeasy.de:80/2/zufall.htm
Er ist vom Autor der mittlerweile gelöschten Internetseite Benutzer:Rho selbst hierher kopiert worden und ist copyrightfrei. Das ganze Buch steht unter GNU FDL.
Andere Teile stammen aus Wikipedia.
Der Text soll dazu anregen über den wichtigen Begriff des Zufalls nachzudenken.
Ich wünsche Euch denselben Spaß beim Beschäftigen mit dem Thema Zufall, wie ich ihn hatte!
Alle, die Lust haben, können diesen Text bearbeiten:
- Dort wo er falsch ist, soll man ihn korrigieren.
- Dort wo er unverständlich ist, soll man ihn verständlicher machen.
- Dort wo etwas fehlt, soll man ihn ergänzen.
Und es steht natürlich jedem frei, sein eigenes Wikibook über den Zufall zu schreiben.
Sprachlich unsauber ?
Bearbeitender Zufall
BearbeitenIn diesem Buch wird von dem Zufall gesprochen. Man könnte dann denken, der Zufall ist eine eigene Entität oder Substanz, wie es die Energie im physikalischen Sinne ist. Der Zufall ist das natürlich nicht. Er ist die Eigenschaft eines Ereignisses, das Ergebnis eines Prozesses oder die Eigenschaft einer mathematischen Sequenz, aber keine eigene Entität.
Menge an Zufall
BearbeitenUm bei Zufallsereignissen die Zahl der Möglichkeiten im Ergebnisraum zu beschreiben, kann man dies als Menge an Zufall oder als mathematische Entropie bezeichnen. Auch in einer mathematischen Zahlenfolge steckt mehr oder minder viel Zufall. Manche stoßen sich an dieser Neuschöpfung eines Begriffs Zufallsmenge. Er soll identisch sein mit der mathematischen Entropie und den für viele schwer verstehbaren Begriff Entropie anschaulicher machen.
Andere Sprachen, andere Bedeutungen
BearbeitenIm Englischen gibt es, wie auch im Deutschen, mehrere Begriffe für den Zufall. Diese Begriffe haben dann auch bestimmte Bedeutungsfärbungen, die sie vom allgemeinen Begriff unterscheiden.
Bei der Diskussion um die mathematische Bedeutung des Wortes Zufall, sind im Englischen vor allem drei Begriffe interessant:
- chance
- chance wird ins Deutsche meist einfach mit dem Wort Zufall übersetzt.
- randomness
- Das Wort wird meist ins Deutsche mit dem Wort Zufälligkeit übersetzt.
- odds
- Dieses Wort gibt es nicht so richtig im Deutschen. Am besten passt vielleicht der Begriff Gewinnchancen eines Zufallsereignisses.
Randomness ist dabei wohl der Begriff, der in der Mathematik am meisten gebraucht wird. Wer also den Begriff Menge an Zufall nicht gut findet, kann ihn dann vielleicht durch die Wortkombination Grad an Zufälligkeit ersetzen. Im Hinterkopf sollte man dabei immer die mathematische Herleitung dieser quantitativen Beschreibungen des Zufalles haben:
- Zahl der Möglichkeiten eines Zufallsprozesses
- mathematische Entropie.
Einige stören sich dann wieder an dem Begriff : mathematische Entropie. Sie ist zunächst dasselbe wie die Entropie der Informations- und Kommunikationstheorie. Sie wird nach ihrem Erstbeschreiber auch als Shannonentropie bezeichnet. Da sie mittlerweile in der Mathematik über die ursprüngliche Shannonentropie hinausgeht, ist man nach Ansicht einer Reihe von Mathematikern berechtigt, sie auch als mathematische Entropie zu bezeichnen.
Wo taucht der Begriff "Menge an Zufall" das erste Mal auf ?
BearbeitenDer Gebrauch des Wortes Zufall in einer quantitativen Form zb in der Kombination
- Menge an Zufall oder
- Grad der Zufälligkeit
ist keine Neuschöpfung dieses Wikibuches, sondern taucht schon in anderen, früher veröffentlichten Büchern auf. So schreibt der französische Autor David Ruelle in seinem lesenswerten Buch aus dem Jahr 1991 über den Zufall explizit von der Menge an Zufall. siehe https://www.springer.com/de/book/9783540577867 Jetzt kann man wieder kritisieren, daß dies eine unsaubere Übersetzung mit einer im Deutschen unübliche Wortkombination sei. Offensichtlich wird aber durch den Gebrauch anderer Wörter wie im Englischen das Wort randomness oder im Französischen von hasard die Diskussion des deutschen Sprachgebrauches vermieden. Man müßte dann überlegen, wie man dem deutschen Wort Zufall oder Zufälligkeit gerecht werden kann, wenn man seine quantitative, mathematische Eigenschaft herausstreichen will, ohne gleich wieder das Wort Entropie zu nutzen. W.Ebeling (Werner_Ebeling_(Physiker)) schließt sich in seinem Buch Komplexe Strukturen, Entropie und Information der Aussage von Ruelle an und sagt: Nach Ruelle ist die Entropie H die Menge an Zufall, die in dem System steckt.
Gedanken in dem Text, die einem vielleicht neu vorkommen
BearbeitenDiese Gedanken werden hier nur als pseudo- oder unwissenschaftliche Thesen ohne ausführliche Begründung vorgetragen. Die Fachleute aus der Mathematik oder Physik können versuchen sie zu nutzen oder zu widerlegen.
Ein bißchen philosophisches Denken hat noch nie geschadet, auch wenn man Mathematiker oder Physiker ist, und eigentlich mit der Philosophie gar nichts am Hut hat.
Zufallsinformation und geordnete Information
Bearbeiten- Die wichtigste und grundlegendste Aufspaltung des mathematisch-naturwissenschaftlichen Basisbegriffes Information ist die Aufspaltung in
- zufällige Information und
- nicht zufällige = geordnete Information.
Dieser Satz enthält natürlich einigen Diskussionsbedarf. Kontrovers ist vor allem die Behauptung, daß die Aufspaltung in zufällig und nicht zufällig so entscheidend ist. Genauso gut kann man
- nichtbiologische von biologischer Information
oder menschenerzeugte Information von nichtmenschenerzeugter Information trennen.
Zufall und Entropie
Bearbeiten- Zwischen dem Zufall und der Entropie besteht sowohl in der Mathematik als auch in der Physik ein enger Zusammenhang.
- Je mehr Zufall in einer Struktur oder einem System steckt, desto größer ist auch seine Entropie.
- Am besten kann man die Entropie als Maß für die Zahl der Möglichkeiten eines Zufallsprozesses verstehen. ( Münze , Würfel etc)
- Erstaunlicherweise taucht der Begriff Entropie in Lehrbücher der Stochastik oft nur als Fußnote oder gar nicht auf.
- siehe beispielsweise Mathematik:_Wahrscheinlichkeitstheorie:_DW:_Inhaltsverzeichnis
Zufallsbit sind nicht besser als die normalen bits
Bearbeiten- Da man bislang die Menge an Zufall schlecht mathematisch fassen kann, wäre es denkbar eine neue Definition einzuführen:
- Ein Zufallsereignis mit nur 2 gleichberechtigten Ergebnissen im Ereignisraum ( = idealer Münzwurf ) hätte dann die Entropie 1 zbit ( Zufallsbit).
Da der Begriff Information der grundlegendere Begriff in der Informationstheorie ist und es zunächst für manche Fragestellung wie zb die Kanalkapazität einer Telefonleitung unerheblich ist, ob eine zufällige Informationsfolge oder eine geordnete Informationsfolge übertragen wird, bleibt man besser bei der allgemeinen Definition der Informationseinheit bit.
In der Physik gibt es dazu ein ähnliches Problem: Bei der Betrachtung von Energie in ihren verschiedenen Formen wird zunächst nicht unterschieden, welcher Teil der Energie nutzbar ist und welcher als nicht mehr nutzbare Wärme in einem System oder in einem Stoff steckt. Die Energiemenge wird als Energie in Joule angegeben ohne hier gleich einen Unterschied zu machen.
Entropie ist ein grobes eindimensionales Maß und keine explizite Beschreibung einer Struktur
Bearbeiten- Kompliziertere Strukturen, wie zb die Struktur eines Schneekristalles kann man nur mathematisch explizit beschreiben. Eine Aussage über die physikalische oder mathematische Entropie des Schneekristalles ist zwar ganz interessant , liefert aber keine hinreichende Beschreibung des Kristalles. Es gibt sicher eine Reihe verschieden strukturierter Schneekristalle , die rein rechnerisch ( mathematisch) oder auch physikalisch gemessen eine identische Entropie haben. (entropieidentisch , strukturverschieden)
Ähnliche globale Aussagen über den Schneekristall sind:
- seine Temperatur
- die Anzahl der Wassermoleküle
- die Fläche oder das Volumen , das der Schneekristall einnimmt.
Die genaue Struktur kann man aber nicht mit so einer globalen Größe beschreiben. Sie muß immer explizit mathematisch-geometrisch erfolgen , es sei denn es handelt sich um hochgeordnete Einkristalle.
Das Thermo-Mathematische Entropieäquivalent
BearbeitenZwischen der mathematischen Entropie und der physikalischen Entropie gibt es eine Verbindung, die bisher nicht explizit herausgearbeitet wurde. Berechenbare Strukturen wie Schneekristalle, deren mathematische Entropie man errechnen kann, kann man auch physikalisch untersuchen. Die physikalische Entropie kann man beispielsweise beim Aufschmelzen des Schneekristalles messen. So kann man versuchen, eine thermo-mathematisches Entropieäquivalent zu bestimmen.
Gebirge der Entropie:
BearbeitenIch möchte gern von meinem Computer das Gebirge der Entropie zeichnen lassen. Es soll die Aufspaltung von geordneter und zufälliger Information an Hand immer länger werdender 01 Folgen grafisch darstellen. Die Entropie der 01 Folge soll dabei mit dem Runstest berechnet werden. Beispiel: 00000000000000000000 ( Entropiewert 0) 01101100110111100010 ( Entropiewert 20) Siehe auch Diskussion zu diesem Wikibook. Ein Anfang findet sich hier: http://de.wikibooks.org/wiki/Bild:Entropiewerte8er01folgen.png
Gesamtinformation ist Zufallsinformation plus geordnete Information
BearbeitenIn der Informationstheorie gab es einen langen Streit und einige Verwirrung über den Zusammenhang zwischen der Entropie und der Information. Dieser Streit löst sich auf, wenn man binäre geordnete Folgen und binäre zufällige Folgen an einander klebt. Dies ist problemlos möglich. Daraus ergibt sich dann eine ziemlich banale Formel
Gesamtinformation = Zufallsinformation + geordnete Information.
Ob und unter welchen Einschränkungen diese Formel verallgemeinert werden kann, muß man an Hand von Beispielen in verschiedenen Anwendungssituationen jeweils getrennt betrachten, um dann vielleicht zu einer Synthese und praktischen Bewertung zu kommen.
Zwei Arten von Ordnung
BearbeitenInteressant ist, daß man mit statistischen Methoden, zb dem Runstest, zwischen zwei verschiedenen Arten von Ordnung unterscheiden kann:
- 01010101010101010101010
- 000000000000011111111111111
Es gibt eine wiederholende Ordnung und eine symmetrische Form der Ordnung.