Multimedia im Überblick/ Anwendung/ Audio und Video/ Audio-Verfahren
Einführung | Grundlagen | Anwendung | Gestaltung | Ergänzung | Anhang |
Allgemeines Audio und Video PC und Internet |
Geräte-Übersicht • Hardware-Schnittstellen • Computer und dergleichen • Systeme im Unterricht Audio-Verfahren • Geschichte des Rundfunks • Internet-Radio und -TV Fotoapparate und Videogeräte • Videosoftware und Schnittprogramme Aussehen von Webseiten • Soziale Netzwerke • Suchmaschinen • Shop-Systeme • Die „Krake“ Google |
Hardware
BearbeitenÜberblick über die wichtigsten Entwicklungen im Hardwarebereich
BearbeitenAnalog:
Digital:
Hardware:
Das Mikrofon
BearbeitenBei den Mikrofonen unterscheidet man, abhängig davon, ob eine Stromzufuhr benötigt wird, zwei große Gruppen: Das dynamische Mikrofon wandelt die aufgenommenen Schalldruckimpulse in elektrische Spannungsimpulse um und folgt dem Prinzip der Induktion. Technisch betrachtet entsteht hier das Signal durch die Geschwindigkeit der Membranbewegung und nicht durch nicht die momentane Auslenkung, daher wird es auch als Geschwindigkeitsempfänger bezeichnet. Das Kondensatormikrofon hingegen arbeitet nach dem Prinzip des Kondensators, dieses Mikrofon benötigt eine elektrische Spannung zwischen den Kondensatorplatten. Hier wird das Signal wiederum durch die Membranauslenkung und nicht durch die Membrangeschwindigkeit erzeugt, dementsprechend wird das Kondensatormikrofon als Elongationsempfänger bezeichnet. Durch die Richtcharakteristik wird die Empfindlichkeit eines Mikrofons in Abhängigkeit vom Einfallswinkel beschrieben. Man kann dabei zwischen den Verhältnissen im Direktfeld und im Diffusfeld differenzieren. Der Richtcharakter wird von der akustischen Bauform der Mikrofonkapsel sowie von äußeren Formelementen (z. B. Richtrohrmikrofon) bestimmt. Die Richtwirkung wird durch folgende Muster charakterisiert:
Standardisierte Formen zwischen Kugel- und Achtercharakteristik werden als „breite Niere“, „Niere“, „Superniere“ und „Hyperniere“ bezeichnet.
Analog vs. Digital
BearbeitenDie Qualität einer digitalen Tondatei ist abhängig von:
Bit ist die Maßeinheit für Informationen und Speichergrößen, dabei ist 1 Bit die kleinste darstellbare Datenmenge. Je höher die Bittiefe ist, desto klarer und rauschfreier kann das Audio wiedergegeben werden, sofern auch die Samplingrate und das Ausgangsmaterial gut genug sind. Kurz: Je höher die Bittiefe und Samplingrate, desto besser ist die Soundqualität.
Sampling
BearbeitenSampling bezeichnet die Digitalisierung von Audio, das heißt die Umrechnung analoger Audiodaten (unterschiedlich starke Stromimpulse) in digitale Daten (Nullen und Einsen). Zuvor in analoge elektronische Schwingungen verwandelte Schallwellen (etwa aus einem Mikrofon) werden stichprobenartig (je mehr Bit, umso mehr „Stichproben“) schnell hintereinander als digitale Werte gemessen und gespeichert. Diese Werte können umgekehrt auch wieder schnell hintereinander abgespielt werden und zu einer analogen Schallwelle „zusammengesetzt“ werden, die dann wieder hörbar gemacht werden kann. Mittels eines Samplers, einem elektronischen Musikinstrument, das meistens über MIDI angesteuert wird, können Töne jeglicher Art aufgenommen und auf Tastendruck in unterschiedlicher Tonhöhe wiedergegeben werden. Die Samplingrate, auch Abtastrate genannt, bezeichnet die Häufigkeit der Audioabtastungen pro Sekunde. Üblich sind drei Abtastungen:
Amplitude
BearbeitenDie Amplitude bezeichnet die Dezibel (Lautstärke) eines Signals. Der Wellengang reicht von -100% bis 100%, dabei ist Amplitude = O Stille, bei der Amplitude 100% (bzw. -100%) erreicht das Schallsignal seine höchste mögliche Auslenkung. Die Amplitude bezeichnet nicht die tatsächlich gehörte (dBr = Dezibel relativ), sondern die technische Lautstärke.
Software
BearbeitenSequenzer
BearbeitenEin Sequenzer dient der Aufnahme, Wiedergabe und Bearbeitung von Daten zur Erstellung (Notation) von Musik. Seine wesentliche Aufgabe besteht in der Speicherung und Übermittlung einer Partitur an einen Tonerzeuger.
Sogenannte MIDI-Sequenzer gibt es seit Anfang der 1980er Jahre. Unter MIDI (musical instrument digital interface = digitale Schnittstelle für Musikinstrumente) wird ein Datenübertragungsprotokoll verstanden, das der Übermittlung, Aufzeichnung und Wiedergabe von musikalischen Steuerinformationen zwischen Hardware und Software bzw. zwischen Hardware- und Software-Synthesizern dient. MIDI hat sich als universelle Sprache für Musikinstrumente etabliert, der Vorteil von MIDI liegt in der Digitalisierung der Daten.
MIDI-Daten sind reine Steuerdaten (Audiosignale hingegen geben den direkten Verlauf des Schalldrucks und somit des Klanges wieder), das MIDI-Protokoll stellt demnach keine Klänge dar, sondern enthält Befehle zur Ansteuerung von Instrumenten oder einer Soundkarte. Ein MIDI-Sequenzer arbeitet nur mit Binärdaten, wie zum Beispiel „Taste gedrückt“/“Taste nicht gedrückt“, die die Klangerzeuger ansteuern.
Ab Mitte der 1990er Jahre wurden die Sequenzer zu MIDI-/Audio-Sequenzern erweitert, sodass ein moderner MIDI-/Audio-Sequenzer heute ein komplettes virtuelles Musikstudio darstellt.
Software, die im Audio-Bereich eingesetzt wird
BearbeitenDas Programm ist weit verbreitet im professionellen und semiprofessionelen Bereich. Die Software wurde bis Version 6 von der deutschen Firma Emagic entwickelt, die 2002 von Apple aufgekauft wurde. Seitdem ist Logic nur für Apple Macintosh erhältlich. Die aktuelle Version ist Logic 8, diese wurde um neue Kompressorentypen erweitert und an die Anforderungen des 5.1-Formats angepasst.
Pro Tools wird fast ausschließlich in professionellen Tonstudios verwendet. Die Software ist für Mac OS X und Windows verfügbar und wird in vier Varianten (Profistudio, Projektstudio, Heimstudio und Bildungsbereich) angeboten. Die aktuelle Version ist 8.0. Pro Tools hat große Bedeutung in der Filmindustrie im Bereich Tonschnitt und Sounddesign erlangt.
Cubase wird von der Firma Steinberg seit 1989 entwickelt und gilt mit Vorgängern als erstes Programm dieser Art. Es ist im high-quality/semiprofessionellen Bereich in Europa sehr weit verbreitet und wird sowohl in Tonstudios, als auch in kleinen, privaten Heimstudios eingesetzt. Die aktuelle Version ist Cubase 6.
Das Programm Sonar, das im high-quality/semiprofessionellen Bereich vor allem in den USA verbreitet ist, ging aus dem reinen MIDI-Sequenzer Cakewalk hervor. Es wurde zunächst mit der Möglichkeit, Audiospuren einzubinden, unter dem Namen „Cakewalk Pro Audio“ weitergeführt und schließlich in Sonar umbenannt.
Nuendo kommt bei Kinoproduktionen bzw. 5.1 Mehrkanal zum Einsatz. Die Software ist in ihrer Funktionsweise und Kompatibilität Cubase sehr ähnlich, da sie von derselben Firma stammen.
Weitere Programme sind:
In seiner ursprünglichen Freeware-Version vor etwa 10 Jahren war Samplitude den kommerziellen Samplebearbeitungsprogrammen durch ihre damals bereits sehr ausgereiften Bearbeitungs-Algorythmen überlegen. Danach wurde die Firma aufgekauft, die Freeware zur Shareware; das Programm ist in seiner jetzigen Form guter Durchschnitt.
Live ist ein weit verbreitetes, reines DJ-Mixprogramm, das intuitiv und neuerdings mit MIDI-Unterstützung arbeitet.
Die Audio-Software von Sony ist ein Wave-Sample-Mixprogramm ohne MIDI-Unterstützung.
Project5 ist mit der Software Acid von Sony vergleichbar, besitzt jedoch einen viel größeren Funktionsumfang.
Audio-Bearbeitung
BearbeitenZur Bearbeitung der Audiodaten steht eine große Menge virtueller Effektgeräte (Effekt-Plugins) zur Verfügung. Sind es in Bildbearbeitungsprogrammen die Tonwertkorrektur, Weichzeichner, Farbmanipulatoren und andere Prozesse, macht sich der Audiobereich Prozessen wie z.B. Chorus, Phaser und Flanger (Modulations-Effekte in der elektronischen Musik, bei denen dem Originalsignal mehrere, leicht verstimmte Signale zugemischt werden), Hall und Echo, Verzerrer (ähnlich dem Gitarrenverzerrer), Pitch Shifter (Tonlagenverschiebung) oder Kompressoren (Signalverstärkung mit gleichzeitiger Einschränkung der Dynamik) zunutze. Nach der Bearbeitung des Materials wird es schließlich im Sequenzer gemischt, gemastert, arrangiert und finalisiert.
Software-Synthesizer
BearbeitenEin Software-Synthesizer dient der virtuellern Klangerzeugung, das heißt er berechnet bzw. synthetisiert Klänge. Dabei existieren sowohl Programme, mit denen Klangerzeugung und Bedienoberfläche bereits existierender Musik-Hardware imitiert wird, als auch solche, mit denen neuartige Klangfarben erzeugt werden können. Die meisten Software-Instrumente werden in eine Sequenzer-Software geladen, die dann als Host fungiert und die Steuerung übernimmt. Durch die mittlerweile sehr hohe Klangqualität können vollständige Musikproduktionen ausschließlich mit Software-Instrumenten erfolgen.
Die Kommunikation zwischen den verschiedenen Arten von Musiksoftware (Sequenzer und Software-Synthesizer) erfolgt über Kommunikationsschnittstellen. Die Software-Anbieter haben für ihre Produkte jeweils eigene Standards entwickelt, die wie folgt lauten:
Audiobearbeitungssoftware
BearbeitenAudioeditoren können für Aufnahme und Nachbearbeitung in allen gängigen Audioformaten eingesetzt werden. Mittels des nicht destruktiven Editierens werden die Daten bearbeitet, ohne permanent verändert zu werden. WaveLab, SoundForge und Adobe Audition sind wichtige (kostenpflichtige) Audioeditoren. Adobe Audtion ging aus der Shareware Cool Edit hervor, alte Cool Edit-Versionen sind immer noch kostenlos erhältlich.
Audioformate
BearbeitenBei der Datenkompression werden die Datenmengen durch einen Enkodierer (CODEC) reduziert. Man unterscheidet zwischen verlustfreier Kompression (hier entspricht der Datengehalt nach dem Dekodierungsverfahren genau dem des Originals) und einer verlustbehafteten Kompression (hier löscht das Komprimierungsverfahren je nach Codec-Typus bestimmte Frequenzbänder aus der Audiodatei, um die Datenmenge zu reduzieren). Je höher die Komprimierung, desto niedriger die Frequenzbandbreite und/oder Audioauflösung und somit eine niedrige Qualität.
unkomprimierte Formate
Bearbeiten.raw ...Rohdaten
.aiff ...Audio Interchange File Format
.riff ...Resource Interchange File Format (MAC)
.wav ...Windows Wave File Format (Windows Pendant zum MAC-Riff)
verlustfreie komprimierende Verfahren
BearbeitenAls verlustfreie Audiodatenkompression wird das Verfahren bezeichnet, wo aus dem Eingangssignal Daten erzeugt werden, die eine bitidentische Rekonstruktion des Ausgangsignals sind. Häufige Verwendung: Tonstudios, auf Tonträgern (z.B. DVD) auch von vielen privaten Nutzern, für biologische Daten und in der Medizin (z.B. Sonografie, Ultraschall).
Von Apple entwickelter Codec zur verlustfreien Audiokompression. Dieser kann in iTunes benutzt werden, um Musik von CDs und anderen Quellen (AIFF, WAV) zu importieren und dies dann in MPEG-4 (Mp4) umzuwandeln.
Von Sony entwickelt (wurde mit MiniDisc eingeführt). Haben relativ geringen Decodierungsaufwand und haben somit z.B. eine längere Akkulaufzeit bei MP3-Playern. Verwendung: MiniDisc, PSP, Audioplayer mit Flash-Speicher, aktuelle Walkman-Produktion, professionelle Filmtonformat SDDS (Sony Dynamic Digital Sound).
Verwendung u.a. für DVD-Audio
Wurde von Sun Microsystems entwickelt. Ist das Standardaudioformat für NeXT und Sun-Rechner.
verlustbehaftete komprimierende Verfahren
BearbeitenBei diesem Verfahren wird eine Datenreduktion durchgeführt, wobei weniger relevante Signale unwiederbringlich gelöscht werden. Es handelt sich meist um eine Transformation, welche die aufgenommenen Wellenformen in ihre Frequenzabfolge umwandeln. Dadurch, dass das menschliche Ohr nicht alle Informationen eines ankommenden Tones wahrnimmt, können die Daten so stark verändert werden ohne die subjektive Wahrnehmung des Hörens zu beeinträchtigen. Somit kann z.B. eine sehr hohe oder sehr tiefe Frequenz weg gelassen werden. Auch können überlagerte Frequenzen mit geringerer Genauigkeit wiedergegeben werden. Weiters sind auch Töne, die unmittelbar von einem lauten Ton kommen, nicht erkennbar.
Wurde vom Institut Fraunhofer 1982 entwickelt. MP3 ist für Audiodateien das, was für Bilddateien jpeg ist. Wurde eigentlich für Video entwickelt (aus der MPEG-Reihe), war dann aber für Audio besser geeignet. Bekannt wurde es durch die zahlreichen Musiktauschbörsen im Internet, wird aber auch bei vielen DVD-Rips verwendet. Im Internet findet man viele unterschiedliche Anwendungsbereiche, wie selbst komponierte Musik, Vogelstimmen, Hörspiele, usw. Weiters wird es auch bei vielen PC-Spielen eingesetzt.
Ist eine Weiterentwicklung von Mp3, um den starken Qualitätsverlust im unteren Bitratenbereich (unterhalb von 96 kbps) auszugleichen. Beim Abspielen mit einem Mp3-Player fehlt min. 1 Oktave von den höheren Frequenzen. Mp3Pro Daten von 80kbps haben in etwa die gleiche Qualität wie ein MP3 mit 128 kbps. Somit können in etwa 35% der Speicherkapazität eingespart werden bei gleicher Klangqualität. Je nach Genre (Sprechen, Techno, Pop,...) besitzt entweder Mp3PRO oder Mp3 den besseren Klang. Eingesetzt wird Mp3PRO hauptsächlich in Anwendungen und Systemen, welche nur geringe Bandbreiten zur Verfügung stellen, z.B. Webradio.
Von Microsoft entwickelt. Wird häufig in Musik-Online-Shops verwendet.
Online-Radios verwenden für ihre Streams AAC, um bei gleicher oder geringerer Datenübertragungsrate eine mit MP3 vergleichbare Qualität anbieten zu können. Handyenwickler wie Nokia, Samsung, Sony Ericsson und andere unterstützen auf vielen ihrer Mobiltelefone ebenfalls AAC. Es besitzt eine höhere Kompressionsrate als vergleichbare Formate und erreicht dadurch bei bereits 64 kbit/sec eine akzeptable, wenn auch etwas eingeschränkte, Stereo Qualität. Vergleichbar ist es so: 96 kbit/sec ist eine gute UKW-Qualität und 128 kbit/sec ist nahe der CD-Qualität. Verwendet wird AAC unter anderem auf der Nintendo Wii Konsole und auch iTunes kann es abspielen.
Ogg Vorbis ist ein Codec zur verlustfreien Audiodatenkompression und wurde von der Xiph Org. Foundation entwickelt. Es unterstützt Audio-Streaming und 255 Kanäle mit variabler Bitrate. Verwendet wird es in der IT-Branche, bei mobilen Musikabspielgeräten sowie Internetradio-Sendern.
Ist ein Audiodateiformat von RealMedia, das vorwiegend für Audio-Datenströme (StreamAudio) eingesetzt wird. Dabei verwendet RealAudio ähnlich wie MP3 und Vorbis zur Komprimierung die Tatsache, dass das menschliche Ohr bestimmte Toninformationen nicht wahrnimmt.
Einführung | Grundlagen | Anwendung | Gestaltung | Ergänzung | Anhang |
Allgemeines Audio und Video PC und Internet |
Geräte-Übersicht • Hardware-Schnittstellen • Computer und dergleichen • Systeme im Unterricht Audio-Verfahren • Geschichte des Rundfunks • Internet-Radio und -TV Fotoapparate und Videogeräte • Videosoftware und Schnittprogramme Aussehen von Webseiten • Soziale Netzwerke • Suchmaschinen • Shop-Systeme • Die „Krake“ Google |