Multimedia im Überblick/ Anwendung/ Audio und Video/ Audio-Verfahren


Hardware Bearbeiten

Überblick über die wichtigsten Entwicklungen im Hardwarebereich Bearbeiten

Analog:

  • Phonograph (1878): ist ein akustisch-mechanischer Rekorder
  • Grammophon (1887): Als reines Abspielgerät war es der mechanische Vorläufer des Plattenspielers
  • Weiterentwicklung Plattenspieler erstes elektrische Gerät zum abspielen von Schallplatten
  • Tonbandgeräte (1930er): dient der analogen Tonaufzeichnung auf Tonbandmaterial. Letzteres besteht aus dünnem Kunststoff als Trägermaterial, das mit einer magnetisierbaren Schicht mit Eisen-, Eisenoxid- und/oder Chromoxidkristallen beschichtet ist.
  • Weiterentwicklung Compact Cassette (1963): Eine Kassette besteht aus einem Magnetband in einem Kunststoff-, selten auch Keramikgehäuse, auf dem vier Tonspuren (zwei für jede Seite) gespeichert werden können.

  • Digital:

  • Compact Disc (1982): Bei einer CD werden Daten mit Hilfe einer von innen nach außen laufenden Spiralspur gespeichert (also umgekehrt wie bei der Schallplatte). Die Spiralspur besteht aus Pits (Gruben) und Lands (Flächen), die auf dem Polycarbonat aufgebracht sind.
  • Digital Audio Tape (1987): Die Speicherung der Informationen erfolgt auf einem Magnetband. Qualität und Komfort sind jedoch gegenüber analogen Tonbandgeräten aufgrund der digitalen Aufzeichnung deutlich erhöht.
  • MiniDisc (1991): hauptsächlich für Musik verwendetes, durch die Firma Sony entwickeltes magneto-optisches Speichermedium --> ist ein rotierendes Speichermedium, das magnetisch beschrieben und optisch ausgelesen wird.
  • DVD-Audio (2000): Die DVD ist ein digitales Speichermedium, das einer CD ähnelt, jedoch über eine deutlich höhere Speicherkapazität (4,7) verfügt.
  • Blu-Ray Disc: ähnelt DVD oder CD, hat eine noch höhere Speicherkapazität (50).

  • Hardware:

  • Soundkarte: ist Teil der Hardware eines Computersystems und verarbeitet analoge und digitale Audiosignale
  • Synthesizer: ist ein elektronisches oder elektronisch gesteuertes Tasteninstrument speziell zur künstlichen Klangsynthese.
  • Mischpult: Ein Mischpult dient dem Zusammenführen verschiedener elektrischer Signale (Audio, Video) und findet sich hauptsächlich im künstlerischen Bereich und in der Musikproduktion.
  • Mikrofon
  • Rack-Geräte (Kompressoren, Hallgeräte, Effektgeräte, Verstärker,…)
  • Lautsprecher, Boxen und Kopfhörer
  • Das Mikrofon Bearbeiten

    Bei den Mikrofonen unterscheidet man, abhängig davon, ob eine Stromzufuhr benötigt wird, zwei große Gruppen: Das dynamische Mikrofon wandelt die aufgenommenen Schalldruckimpulse in elektrische Spannungsimpulse um und folgt dem Prinzip der Induktion. Technisch betrachtet entsteht hier das Signal durch die Geschwindigkeit der Membranbewegung und nicht durch nicht die momentane Auslenkung, daher wird es auch als Geschwindigkeitsempfänger bezeichnet. Das Kondensatormikrofon hingegen arbeitet nach dem Prinzip des Kondensators, dieses Mikrofon benötigt eine elektrische Spannung zwischen den Kondensatorplatten. Hier wird das Signal wiederum durch die Membranauslenkung und nicht durch die Membrangeschwindigkeit erzeugt, dementsprechend wird das Kondensatormikrofon als Elongationsempfänger bezeichnet. Durch die Richtcharakteristik wird die Empfindlichkeit eines Mikrofons in Abhängigkeit vom Einfallswinkel beschrieben. Man kann dabei zwischen den Verhältnissen im Direktfeld und im Diffusfeld differenzieren. Der Richtcharakter wird von der akustischen Bauform der Mikrofonkapsel sowie von äußeren Formelementen (z. B. Richtrohrmikrofon) bestimmt. Die Richtwirkung wird durch folgende Muster charakterisiert:

  • Kugel (omnidirektional)
  • Acht (bidirektional)
  • Keule (direktional)
  • Standardisierte Formen zwischen Kugel- und Achtercharakteristik werden als „breite Niere“, „Niere“, „Superniere“ und „Hyperniere“ bezeichnet.

    Analog vs. Digital Bearbeiten

    Die Qualität einer digitalen Tondatei ist abhängig von:

  • der Bittiefe
  • der Samplingrate
  • Bit ist die Maßeinheit für Informationen und Speichergrößen, dabei ist 1 Bit die kleinste darstellbare Datenmenge. Je höher die Bittiefe ist, desto klarer und rauschfreier kann das Audio wiedergegeben werden, sofern auch die Samplingrate und das Ausgangsmaterial gut genug sind. Kurz: Je höher die Bittiefe und Samplingrate, desto besser ist die Soundqualität.

    Sampling Bearbeiten

    Sampling bezeichnet die Digitalisierung von Audio, das heißt die Umrechnung analoger Audiodaten (unterschiedlich starke Stromimpulse) in digitale Daten (Nullen und Einsen). Zuvor in analoge elektronische Schwingungen verwandelte Schallwellen (etwa aus einem Mikrofon) werden stichprobenartig (je mehr Bit, umso mehr „Stichproben“) schnell hintereinander als digitale Werte gemessen und gespeichert. Diese Werte können umgekehrt auch wieder schnell hintereinander abgespielt werden und zu einer analogen Schallwelle „zusammengesetzt“ werden, die dann wieder hörbar gemacht werden kann. Mittels eines Samplers, einem elektronischen Musikinstrument, das meistens über MIDI angesteuert wird, können Töne jeglicher Art aufgenommen und auf Tastendruck in unterschiedlicher Tonhöhe wiedergegeben werden. Die Samplingrate, auch Abtastrate genannt, bezeichnet die Häufigkeit der Audioabtastungen pro Sekunde. Üblich sind drei Abtastungen:

  • 11.025 Hz: Mikrofonqualität
  • 22.050 Hz: Radioqualität
  • 44.100 Hz: CD-Qualität
  • Amplitude Bearbeiten

    Die Amplitude bezeichnet die Dezibel (Lautstärke) eines Signals. Der Wellengang reicht von -100% bis 100%, dabei ist Amplitude = O Stille, bei der Amplitude 100% (bzw. -100%) erreicht das Schallsignal seine höchste mögliche Auslenkung. Die Amplitude bezeichnet nicht die tatsächlich gehörte (dBr = Dezibel relativ), sondern die technische Lautstärke.

    Software Bearbeiten

    Sequenzer Bearbeiten

    Ein Sequenzer dient der Aufnahme, Wiedergabe und Bearbeitung von Daten zur Erstellung (Notation) von Musik. Seine wesentliche Aufgabe besteht in der Speicherung und Übermittlung einer Partitur an einen Tonerzeuger.
    Sogenannte MIDI-Sequenzer gibt es seit Anfang der 1980er Jahre. Unter MIDI (musical instrument digital interface = digitale Schnittstelle für Musikinstrumente) wird ein Datenübertragungsprotokoll verstanden, das der Übermittlung, Aufzeichnung und Wiedergabe von musikalischen Steuerinformationen zwischen Hardware und Software bzw. zwischen Hardware- und Software-Synthesizern dient. MIDI hat sich als universelle Sprache für Musikinstrumente etabliert, der Vorteil von MIDI liegt in der Digitalisierung der Daten.
    MIDI-Daten sind reine Steuerdaten (Audiosignale hingegen geben den direkten Verlauf des Schalldrucks und somit des Klanges wieder), das MIDI-Protokoll stellt demnach keine Klänge dar, sondern enthält Befehle zur Ansteuerung von Instrumenten oder einer Soundkarte. Ein MIDI-Sequenzer arbeitet nur mit Binärdaten, wie zum Beispiel „Taste gedrückt“/“Taste nicht gedrückt“, die die Klangerzeuger ansteuern.
    Ab Mitte der 1990er Jahre wurden die Sequenzer zu MIDI-/Audio-Sequenzern erweitert, sodass ein moderner MIDI-/Audio-Sequenzer heute ein komplettes virtuelles Musikstudio darstellt.

    Software, die im Audio-Bereich eingesetzt wird Bearbeiten

  • Logic (Apple)
    Das Programm ist weit verbreitet im professionellen und semiprofessionelen Bereich. Die Software wurde bis Version 6 von der deutschen Firma Emagic entwickelt, die 2002 von Apple aufgekauft wurde. Seitdem ist Logic nur für Apple Macintosh erhältlich. Die aktuelle Version ist Logic 8, diese wurde um neue Kompressorentypen erweitert und an die Anforderungen des 5.1-Formats angepasst.
  • Pro Tools (Digidesign)
    Pro Tools wird fast ausschließlich in professionellen Tonstudios verwendet. Die Software ist für Mac OS X und Windows verfügbar und wird in vier Varianten (Profistudio, Projektstudio, Heimstudio und Bildungsbereich) angeboten. Die aktuelle Version ist 8.0. Pro Tools hat große Bedeutung in der Filmindustrie im Bereich Tonschnitt und Sounddesign erlangt.
  • Cubase (Steinberg)
    Cubase wird von der Firma Steinberg seit 1989 entwickelt und gilt mit Vorgängern als erstes Programm dieser Art. Es ist im high-quality/semiprofessionellen Bereich in Europa sehr weit verbreitet und wird sowohl in Tonstudios, als auch in kleinen, privaten Heimstudios eingesetzt. Die aktuelle Version ist Cubase 6.
  • Sonar (Cakewalk)
    Das Programm Sonar, das im high-quality/semiprofessionellen Bereich vor allem in den USA verbreitet ist, ging aus dem reinen MIDI-Sequenzer Cakewalk hervor. Es wurde zunächst mit der Möglichkeit, Audiospuren einzubinden, unter dem Namen „Cakewalk Pro Audio“ weitergeführt und schließlich in Sonar umbenannt.
  • Nuendo (Steinberg)
    Nuendo kommt bei Kinoproduktionen bzw. 5.1 Mehrkanal zum Einsatz. Die Software ist in ihrer Funktionsweise und Kompatibilität Cubase sehr ähnlich, da sie von derselben Firma stammen.
  • Weitere Programme sind:

  • Samplitude (Magix)
    In seiner ursprünglichen Freeware-Version vor etwa 10 Jahren war Samplitude den kommerziellen Samplebearbeitungsprogrammen durch ihre damals bereits sehr ausgereiften Bearbeitungs-Algorythmen überlegen. Danach wurde die Firma aufgekauft, die Freeware zur Shareware; das Programm ist in seiner jetzigen Form guter Durchschnitt.
  • Live (Ableton)
    Live ist ein weit verbreitetes, reines DJ-Mixprogramm, das intuitiv und neuerdings mit MIDI-Unterstützung arbeitet.
  • Acid (Sony)
    Die Audio-Software von Sony ist ein Wave-Sample-Mixprogramm ohne MIDI-Unterstützung.
  • Project5 (Cakewalk)
    Project5 ist mit der Software Acid von Sony vergleichbar, besitzt jedoch einen viel größeren Funktionsumfang.
  • Audio-Bearbeitung Bearbeiten

    Zur Bearbeitung der Audiodaten steht eine große Menge virtueller Effektgeräte (Effekt-Plugins) zur Verfügung. Sind es in Bildbearbeitungsprogrammen die Tonwertkorrektur, Weichzeichner, Farbmanipulatoren und andere Prozesse, macht sich der Audiobereich Prozessen wie z.B. Chorus, Phaser und Flanger (Modulations-Effekte in der elektronischen Musik, bei denen dem Originalsignal mehrere, leicht verstimmte Signale zugemischt werden), Hall und Echo, Verzerrer (ähnlich dem Gitarrenverzerrer), Pitch Shifter (Tonlagenverschiebung) oder Kompressoren (Signalverstärkung mit gleichzeitiger Einschränkung der Dynamik) zunutze. Nach der Bearbeitung des Materials wird es schließlich im Sequenzer gemischt, gemastert, arrangiert und finalisiert.

    Software-Synthesizer Bearbeiten

    Ein Software-Synthesizer dient der virtuellern Klangerzeugung, das heißt er berechnet bzw. synthetisiert Klänge. Dabei existieren sowohl Programme, mit denen Klangerzeugung und Bedienoberfläche bereits existierender Musik-Hardware imitiert wird, als auch solche, mit denen neuartige Klangfarben erzeugt werden können. Die meisten Software-Instrumente werden in eine Sequenzer-Software geladen, die dann als Host fungiert und die Steuerung übernimmt. Durch die mittlerweile sehr hohe Klangqualität können vollständige Musikproduktionen ausschließlich mit Software-Instrumenten erfolgen.

    Die Kommunikation zwischen den verschiedenen Arten von Musiksoftware (Sequenzer und Software-Synthesizer) erfolgt über Kommunikationsschnittstellen. Die Software-Anbieter haben für ihre Produkte jeweils eigene Standards entwickelt, die wie folgt lauten:

  • VST (Virtual Studio Technology): Steinberg Cubase
  • AU (Audio Unit): Apple Logic
  • TDM (Time Division Multiplexing)/RTAS (Real Time Audio Suite): Digidesign Pro Tools
  • DXi (Direct X Instrument): Cakewalk Sonar
  • Audiobearbeitungssoftware Bearbeiten

    Audioeditoren können für Aufnahme und Nachbearbeitung in allen gängigen Audioformaten eingesetzt werden. Mittels des nicht destruktiven Editierens werden die Daten bearbeitet, ohne permanent verändert zu werden. WaveLab, SoundForge und Adobe Audition sind wichtige (kostenpflichtige) Audioeditoren. Adobe Audtion ging aus der Shareware Cool Edit hervor, alte Cool Edit-Versionen sind immer noch kostenlos erhältlich.

    Audioformate Bearbeiten

    Bei der Datenkompression werden die Datenmengen durch einen Enkodierer (CODEC) reduziert. Man unterscheidet zwischen verlustfreier Kompression (hier entspricht der Datengehalt nach dem Dekodierungsverfahren genau dem des Originals) und einer verlustbehafteten Kompression (hier löscht das Komprimierungsverfahren je nach Codec-Typus bestimmte Frequenzbänder aus der Audiodatei, um die Datenmenge zu reduzieren). Je höher die Komprimierung, desto niedriger die Frequenzbandbreite und/oder Audioauflösung und somit eine niedrige Qualität.

    unkomprimierte Formate Bearbeiten

    .raw ...Rohdaten
    .aiff ...Audio Interchange File Format
    .riff ...Resource Interchange File Format (MAC)
    .wav ...Windows Wave File Format (Windows Pendant zum MAC-Riff)

  • AIFF (unkomprimiertes Containerformat). Wurde von der Firma Apple entwickelt und wird als Standard-Audioformat auf dem Macintosh (Mac) eingesetzt.
  • verlustfreie komprimierende Verfahren Bearbeiten

    Als verlustfreie Audiodatenkompression wird das Verfahren bezeichnet, wo aus dem Eingangssignal Daten erzeugt werden, die eine bitidentische Rekonstruktion des Ausgangsignals sind. Häufige Verwendung: Tonstudios, auf Tonträgern (z.B. DVD) auch von vielen privaten Nutzern, für biologische Daten und in der Medizin (z.B. Sonografie, Ultraschall).

  • Apple Lossless (Lossless Encoding oder Apple Lossless Audio Codec (ALAC)
    Von Apple entwickelter Codec zur verlustfreien Audiokompression. Dieser kann in iTunes benutzt werden, um Musik von CDs und anderen Quellen (AIFF, WAV) zu importieren und dies dann in MPEG-4 (Mp4) umzuwandeln.
  • Free Lossless Audio Codec (FLAC) (.flac, .fal, .ggf, .ogg) Ist eine qualitätsverlustfreie Kompression um Platz sparend Daten zu komprimieren. Die Größe der Ausgangsdatei wird um etwa die Hälfte reduziert.
  • Adaptive Transform Acoustic Coding (ATRAC)
    Von Sony entwickelt (wurde mit MiniDisc eingeführt). Haben relativ geringen Decodierungsaufwand und haben somit z.B. eine längere Akkulaufzeit bei MP3-Playern. Verwendung: MiniDisc, PSP, Audioplayer mit Flash-Speicher, aktuelle Walkman-Produktion, professionelle Filmtonformat SDDS (Sony Dynamic Digital Sound).
  • Meridian Lossless Packing (MLP)
    Verwendung u.a. für DVD-Audio
  • AU-Containerformat (.au)
    Wurde von Sun Microsystems entwickelt. Ist das Standardaudioformat für NeXT und Sun-Rechner.
  • verlustbehaftete komprimierende Verfahren Bearbeiten

    Bei diesem Verfahren wird eine Datenreduktion durchgeführt, wobei weniger relevante Signale unwiederbringlich gelöscht werden. Es handelt sich meist um eine Transformation, welche die aufgenommenen Wellenformen in ihre Frequenzabfolge umwandeln. Dadurch, dass das menschliche Ohr nicht alle Informationen eines ankommenden Tones wahrnimmt, können die Daten so stark verändert werden ohne die subjektive Wahrnehmung des Hörens zu beeinträchtigen. Somit kann z.B. eine sehr hohe oder sehr tiefe Frequenz weg gelassen werden. Auch können überlagerte Frequenzen mit geringerer Genauigkeit wiedergegeben werden. Weiters sind auch Töne, die unmittelbar von einem lauten Ton kommen, nicht erkennbar.

  • MP3
    Wurde vom Institut Fraunhofer 1982 entwickelt. MP3 ist für Audiodateien das, was für Bilddateien jpeg ist. Wurde eigentlich für Video entwickelt (aus der MPEG-Reihe), war dann aber für Audio besser geeignet. Bekannt wurde es durch die zahlreichen Musiktauschbörsen im Internet, wird aber auch bei vielen DVD-Rips verwendet. Im Internet findet man viele unterschiedliche Anwendungsbereiche, wie selbst komponierte Musik, Vogelstimmen, Hörspiele, usw. Weiters wird es auch bei vielen PC-Spielen eingesetzt.
  • MP3 Pro
    Ist eine Weiterentwicklung von Mp3, um den starken Qualitätsverlust im unteren Bitratenbereich (unterhalb von 96 kbps) auszugleichen. Beim Abspielen mit einem Mp3-Player fehlt min. 1 Oktave von den höheren Frequenzen. Mp3Pro Daten von 80kbps haben in etwa die gleiche Qualität wie ein MP3 mit 128 kbps. Somit können in etwa 35% der Speicherkapazität eingespart werden bei gleicher Klangqualität. Je nach Genre (Sprechen, Techno, Pop,...) besitzt entweder Mp3PRO oder Mp3 den besseren Klang. Eingesetzt wird Mp3PRO hauptsächlich in Anwendungen und Systemen, welche nur geringe Bandbreiten zur Verfügung stellen, z.B. Webradio.
  • WMA - Windows Media Audio
    Von Microsoft entwickelt. Wird häufig in Musik-Online-Shops verwendet.
  • AAC Advanced Audio Coding ( Mpeg-2, Mpeg-4)
    Online-Radios verwenden für ihre Streams AAC, um bei gleicher oder geringerer Datenübertragungsrate eine mit MP3 vergleichbare Qualität anbieten zu können. Handyenwickler wie Nokia, Samsung, Sony Ericsson und andere unterstützen auf vielen ihrer Mobiltelefone ebenfalls AAC. Es besitzt eine höhere Kompressionsrate als vergleichbare Formate und erreicht dadurch bei bereits 64 kbit/sec eine akzeptable, wenn auch etwas eingeschränkte, Stereo Qualität. Vergleichbar ist es so: 96 kbit/sec ist eine gute UKW-Qualität und 128 kbit/sec ist nahe der CD-Qualität. Verwendet wird AAC unter anderem auf der Nintendo Wii Konsole und auch iTunes kann es abspielen.
  • Ogg Vorbis: 160–220 kbit/s (Open-Source)
    Ogg Vorbis ist ein Codec zur verlustfreien Audiodatenkompression und wurde von der Xiph Org. Foundation entwickelt. Es unterstützt Audio-Streaming und 255 Kanäle mit variabler Bitrate. Verwendet wird es in der IT-Branche, bei mobilen Musikabspielgeräten sowie Internetradio-Sendern.
  • RealAudio .ra
    Ist ein Audiodateiformat von RealMedia, das vorwiegend für Audio-Datenströme (StreamAudio) eingesetzt wird. Dabei verwendet RealAudio ähnlich wie MP3 und Vorbis zur Komprimierung die Tatsache, dass das menschliche Ohr bestimmte Toninformationen nicht wahrnimmt.