Homestudio/ Digital
Nur digital?
BearbeitenDas digitale Studio lässt sich, wie das analoge, auch nicht hart abgrenzen. Es soll auch wieder um den Hauptsignalweg gehen. Da dieser digital ist, ist es nicht wirklich wichtig, ob das Instrument real oder virtuell ist. Die virtuelle Studioausstattung ist deutlich platzsparender, da sie nur Platz auf der Festplatte und dem Monitor braucht. Analoge Signalquellen müssen digitalisiert werden, d.h. es sind Analog/Digitalwandler (A/D-Wandler) von Nöten. Ein solcher Wandler beobachtet das Signal eine Weile und schreibt den beobachteten Wert als Auswahl aus einer festen Tabelle möglicher Werte in einen Speicher. Aus diesem Speicher kann der Interessent nun zyklisch auslesen und daraus mit einer leichten Unschärfe den Signalverlauf ermitteln. Solche Wandler haben also eine Taktfrequenz und eine Auflösung. Je höher Taktfrequenz und Auflösung, desto genauer kann der Signalverlauf abgebildet werden. Für CDs beträgt die Auflösung 16bit, d.h. es gibt 2^16 (65535) Werte und die Frequenz liegt bei 44.1 kHz. Damit lassen sich zuverlässig Signale bis 20kHz abtasten.
Aktuelle digitale Studios können mit einer Abtastrate von 96kHz arbeiten und damit Signale mit Frequenzanteilen bis 45kHz abtasten. Die Auflösung kann dabei bis zu 24bit betragen, d.h. 2^24 Werte. Ein Signal von 0.775V ist damit sehr genau abbildbar. Hohe Auflösung und Abtastrate erzeugen aber auch eine große Datenmenge. Bei 96kHz wird 96000 mal in der Sekunde der Auflösungswert aufgezeichnet. Bei 24bit macht das 96000*24bit. Für ein Musikstück von 3 Minuten Länge ist das noch mit 3*60 zu multiplizieren. Da kommt eine Menge Daten auf das Heimstudio zu.
Es kann natürlich bezweifelt werden, ob man als Laie den Unterschied zwischen 96kHz- und 44.1kHz-Aufnahmen hört. Das Zielmedium ist hier auch von entscheidender Rolle. MP3s bieten eine noch deutlich schlechtere Auflösung und für den MP3-Player wären 96kHz/24bit absolute Verschwendung, selbst CD-Qualität ist für MP3s als Zielformat deutlich zu aufwändig.
Nach soviel Mathematik tauchen wir nun ins Thema ein. Im Zentrum steht der Computer, über Schnittstellen können andere Geräte angeschlossen werden und niemand hält uns davon ab, die üblichen analogen Techniken auch im digitalen Studio zu nutzen. Die Gitarre mit dem Mikrofon auf Festplatte gebannt - absolut machbar. Ein paar Schnippsel Geräusche aus dem Netz, selbst aufgenommen und anschließend mit einem einfachen WAV-Bearbeitungsprogramm zusammengeschnitten - auch ein digitales Studio.
Computer im Zentrum
BearbeitenDer Rechenknecht
BearbeitenDas Zentrum im digitalen Studio ist der Computer. Dieser muss über ausreichend Rechenleistung und vor allem Schnittstellen verfügen. Wenn viele Spuren parallel bearbeitet werden, müssen alle Daten rechtzeitig von der Quelle zum Ziel gelangen. Das Zauberwort hier ist Latenz. Damit bezeichnet man die Zeit, die von der Auslösung eines Ereignisses bis zur Reaktion auf dieses verstreicht. Da hier grundsätzlich von analog nach digital gewandelt wird, kann die Latenz nie 0 sein. Selbst bei der Umwandlung des bereits digitalen Signals zurück in ein analoges verstreicht eine nicht unbedeutende Zeit. Im Prinzip gibt der Computer nicht sofort alle Musikdaten aus, sondern füllt regelmäßig einen Puffer. Aus diesem wird dann kontinuierlich nach analog und in digital gewandelt.
Im analogen Studio ist die Synchronisation kein großes Thema, da man die Latenz nicht zu fürchten braucht. Wenn man sich allerdings vor Augen führt, dass man ein analoges Signal in den Computer einspeist, verarbeitet und anschließend direkt wieder ausgeben möchte - damit bspw. der Gesang zum zuvor aufgezeichneten Gitarrenspiel passt -, hat man schon 2 mal Latenz im Signalweg. Das menschliche Ohr trennt zwei Signale bei etwa 50ms, d.h. sie werden darunter nicht getrennt wahrgenommen, darüber schon. Der Computer sollte hier also höchstens 20ms Latenz aufweisen.
Wir erreicht man nun eine niedrige Latenz? Die Prozessorleistung ist dafür auch ausschlaggebend, aber nicht das einzige Maß. Die Hardware muss genügend Bandbreite zur Verfügung stellen, um genügend Daten in die Puffer schaufeln zu können, d.h. alle Speicherelemente sollten schnell arbeiten und über breite und schnelle Busse angebunden sein. Für spezielle Audio-Hardware kann die Geldbörse nicht groß genug sein. Mit etwas Geschick kann man aber den Rechner deutlich entlasten.
Mehr Kerne bedeuten mehr parallele Rechenleistung. Wenn die Software es unterstützt, können sich verschiedene Teile dieser auf verschiedenen Kernen befinden. Es gibt auch Erweiterungskarten, die spezielle Audio-Prozessoren anbieten. Aber mit einem Modell der gehobenen Mittelklasse ist man gut beraten.
Was den Arbeitsspeicher anbelangt hängt das auch vom Studio ab. Mit vielen Samples ist es ratsam, den Arbeitsspeicher groß zu dimensionieren. Mancher virtuelle Konzertflügel braucht schon mal einen ganzen Gigabyte. Da wird zwar auch zum Teil von der Festplatte direkt gestreamt, aber nicht jede Software bringt solche Vereinfachungen mit.
Bei den Festplatten kann ein RAID-Array hilfreich sein. Da die Anschlüsse heutzutage schnell genug sind (bspw. SATA), sollte man das nur in Betracht ziehen, wenn es wirklich notwendig wird. Bevor also die Platten nicht als Nadelöhr auszumachen sind, behebt man das Problem damit auch nicht. Die Art des RAID-Arrays ist auch wichtig, da bspw. Extras wie Prüfsummen zusätzlich Rechenzeit benötigen. Im Vordergrund steht das parallele Laden von mehreren Platten, weniger die Ausfallsicherheit und Wiederherstellbarkeit von Daten.
Peripherie/ Schnittstellen
BearbeitenBei der Wahl der Schnittstellen hat man es nicht leicht. Die meisten (digitalen) Formate sind proprietär und Soundkarten müssen sich oft für eine kleine Auswahl entscheiden. Die einfachste Soundkarte verfügt über einen Stereo-Line-Out, einen Mikrofonanschluss und vielleicht ist dieser noch auf Stereo-Line-In umschaltbar. Jeder Rechner verfügt über eine solche und damit kann man schon Signale aufzeichnen. Die Karten im Mittelfeld verfügen vielleicht über eine der digitalen Schnittstellen, einen Midi-Kanal (In/Out) und sind duplex-fähig, d.h. man kann aufzeichnen während man etwas anderes wiedergibt. In der nach oben offenen Qualitätsskala gibt es mehrkanalige digitale Schnittstellen, einen Mixer als Hardware auf der Karte samt Routing-Funktionen.
Für den folgenden Abschnitt greife ich schon etwas vor und möchte neben den DAW-Geräten noch auf Schnittstellen wie USB oder Firewire hinweisen. Es gibt Geräte, bspw. Podcast-Mikrofone, die direkt über einen solchen Anschluss verfügen, d.h. sie enthalten selbst Signalwandler. Oft reicht eine solche Konfiguration schon vollkommen aus. Selbst kleine, USB-angebundene, portable Audio-Schnittstellen haben sich als zuverlässig und fürs Heimstudio als vollkommen ausreichend gezeigt. Zudem sind diese kleinen Metallkistchen nicht auf externe Stromversorgung angewiesen. So erhält man per USB oder Firewire eine 2 Kanal duplex-fähige Schnittstelle.
DAW-Hardware
BearbeitenIm analogen Studio war der Mixer das Zentrum, den haben wir jetzt vielleicht als Softwarelösung. Es entlastet den Rechner aber ungemein, wenn man sich bereits im Vorfeld mit allen Signalwegen abmüht und den Rechner nur das wesentliche machen lässt. Dafür gibt es heutzutage spezielle DAW (Digital Audio Workstation) - Mixer. Das sind sozusagen Mixer mit eingebauter Audio-Schnittstelle. Mit Hilfer dieser Geräte kann man zusätzlich noch die Software des Computers bedienen. Man hat so mehr Bedienmöglichkeiten als nur eine Maus und die Tastatur und gleichzeitig spart man sich Latenz, denn man kann bereits hier die Signalwege bspw. fürs Monitoring vormischen.
Es ist wichtig, bereits im Vorfeld über Kanalzahl und Routingmöglichkeiten bescheid zu wissen. Wie im analogen Studio kann man schlecht von 2-Kanal Overdubbing auf 24 Kanal Parallelaufnahme umstellen und gleichzeitig noch 8 Aux-Sends und 4 Stereo-Returns bedienen. Die DAW-Hardware ist ebenso vielfältig wie tückisch.
Software zur Klangerzeugung
BearbeitenBetriebssystem
BearbeitenWie es beim Computer kein richtig und falsch gibt, ist es beim Betriebssystem ebenso schwer. Unix-basierte Systeme können sich der geringen Latenz rühmen. Oft ist auch der Preis entscheidend. Mittlerweile ist die Software auch benutzbar. Man darf allerdings vor dem ein oder anderen Problem nicht zurückschrecken. Man muss nicht mehr unbedingt mysteriöse Textdateien editieren und alles über die Eingeweide wissen[1].
Zum am weitesten verbreiteten System Microsoft Windows muss nicht groß geschrieben werden. Es gibt viel Software und manches muss man teuer bezahlen. Dafür kann man auch auf einen guten Support zählen. Manchmal muss man auch Kröten schlucken und kann die neusten bunten Oberflächenelemente nicht nutzen, weil nicht für jede Hardware immer Treiber vorhanden sind - ein Problem, dass alle Betriebssysteme haben.
(Auf Mac-OS kenne ich mich gar nicht aus.)
Bezahlsoftware vs. Open Source
BearbeitenEs gibt die Diskussion schon genausolang wie es die beiden Prinzipien gibt. Aber wie alle entgegengesetzten Konzepte muss man die Vorteile gegen die Nachteile abwägen. Bezahlsoftware ist manchmal überteuert, kostenlose Software nicht vollständig ausgereift. Hier sind ausführliche Tests das beste, am schnellsten und einfachsten ist es aber, die vielen Foren zu besuchen und zu lesen, was gerade aktuell ist.
Einer der gewichtigsten Nachteile für Bezahlsoftware ist die Registrierung. Um Raubkopien zu vermeiden sind verschiedenste Mechanismen auf dem Markt. Deswegen kommt man schnell in unruhiges Wasser. Die einen verlangen einen Internetanschluss, die anderen einen sog. Dongle [2].
ASIO-Treiber
Sequenzer, Mixer, Steuerung
BearbeitenWas im analogen Studio als Hardware vorlag, gibt es auch als Software. Ein Sequenzer arbeitet hier nach demselben Prinzip. Er zeichnet Ereignisse auf und gibt diese wieder. Musste man sich im analogen Studio auf Midi beschränken, kann man hier so ziemlich alles was an Software, Plugin und dergleichen arbeitet, gesteuert werden. Oft sind Sequenzer, Mixer und Rekorder in einem Gesamtpaket zusammengefasst. Man nennt diese Gesamtheit DAW.
Eine kleine Auswahl an DAW-Software:
- Ableton Live
- Apple Logic (ehemals Emagic, davor Notator)
- Cakewalk Sonar
- Digidesign Pro Tools
- ImageLine FL Studio (ehemals Fruity Loops)
- Magix MusicMaker, Samplitude
- MOTU Digital Performer
- Numerology
- Rosegarden
- MusE
- Steinberg Cubase
- Zynewave Podium
- Propellerhead Reason (Kein wirklicher Sequenzer,sondern ein virtuelles Tonstudio.Im internen Sequenzer können NUR die Reason-Instrumente arrangiert werden)
Virtuelle Instrumente
BearbeitenMit Kontrolle allein reicht es nicht, man muss auch Geräusche erzeugen. Die Spanne reicht von der Nachbildung virtuell-analoger monophoner Synthesizer bis hin zu aufwändigen Sample-Bibliotheken außergewöhnlicher Instrumente. Man kann sie oft in die DAW-Software integrieren und von einer Oberfläche aus bedienen. Sollte das nicht möglich sein, gibt es immer noch Midi, auch auf dem Computer und ganz ohne Kabel.
Effekte und Signalbearbeitung
BearbeitenWie die virtuellen Instrumente sind auch Effekte in großer Zahl verfügbar. Man stößt hier aber wieder auf die Latenz. Alle Effekte müssen mathematische Operationen auf das Signal anwenden und das braucht Zeit. Die Effekte besitzen meist wieder Puffer, die erst gefüllt werden müssen. Anschließend wird das Signal verarbeitet und wieder in einen Puffer geschrieben. Lange Signalwege durch viele Effekte beeinflussen die Signallaufzeit deutlich stärker als lange Kabel im analogen Studio.
Undo/ Redo/ Overdub
BearbeitenEiner der größten Vorteile eines digitalen Studios, ist die zerstörungsfreie Bearbeitung von aufgenommenem Material. Wenn man eine zusätzliche Spur braucht, fügt man eine hinzu, schleift das Signal durch rechenintensive Effekte und zeichnet es auf eine neue Spur auf. Man kann die alte Spur jetzt stummschalten und für alle Ewigkeit behalten. Im analogen Studio ist nach der Spuranzahl des Rekorders Schluss.
Hat man sich bei der Bearbeitung einmal am Computer vertan, kann man die Änderungen oft unbegrenzt rückgängig machen. War es doch die richtige Einstellung, kann man es einfach wieder herstellen. Das analoge Studio bietet solche Möglichkeiten nicht.
Automation
BearbeitenDa die meisten Bearbeitungsschritte von einer Software erledigt werden, kann man ihren Zustand wiederherstellen und Änderungen sogar aufzeichnen. Eine Fader-Fahrt ist noch das einfachste, das Routing und die Effektzusammenstellung zu ändern schon eine ganz andere Qualität.
Analogen Studios gewisser Größe bieten diese Flexibilität auch, manchmal sogar mit Grafiken, die Verläufe des Parameters anzeigen. Sie lassen sich aber mit einer Maus bedeutend besser bearbeiten, als mit kleinen Cursor-Tasten (mehr ist im analogen Studio oft nicht an den Geräten zu finden).
Formate
BearbeitenVirtual Studio Technology (VST) Dieses Format wurde Steinberg Media Technologies GmbH entwickelt. Wird von sehr vielen Sequenzern unterstützt und ist dadurch sehr weit verbreitet. Die Pluginanzahl wird auf über 3000 geschätzt. VST ermöglicht den Dialog zwischen einem VST-Host (z.B. Sequenzer-Programmen wie Cubase) und virtuellen Instrumenten bzw. Effekten, die sich dadurch innerhalb des Sequenzer-Programms als Plug-ins betreiben lassen.
RTAS (Real time audio streaming) ist eine von Digidesign entwickelte Schnittstelle, die Softwareinstrumente und Plug-Ins in Pro Tools einbinden kann. Einzige Aussnahme ist hier Propellerhead Reason: Dieses Virtuelle Studio kann keine VST-PlugIns verwenden, da es nur eigene Instrumente besitzt. Sollen in einem Lied VST-PlugIns und Reason Instrumente verwendet werden,so kann man, über eine von Propellerhead entwickelte virtuelle Schnittstelle namens ReWire, einzelne Spuren aus Reason mit einem anderen, Rewire- und VST-fähigen,Sequenzer, wie z.b. Ableton Live, abmischen.
Audio Unit (AU): Dieses Plugin-Format wird nur auf Apple-Computern eingesetzt da es Core Audio voraussetzt.
Auf Linux wird die Liste ebenso lang und die meisten virtuellen Komponenten sind frei verfügbar, d.h. sie kosten kein Geld. Den Anfang macht LADSPA (Linux Audio Developer's Simple Plugin API, etwa Einfache Plugin-Programmierschnittstelle für Linux Audio), um Effekte einzuschleifen. Wobei der Begriff Effekte hier sehr weit gefasst ist und bis zum Synthesizer gehen kann. Dicht gefolgt wird LADSPA von seinem Nachfolger LV2. LADSPA sah keine dynamische Kontrolle durch Ereignisse ähnlich Midi-Controllern vor, LV2 behebt diesen Mangel und stellt den Pendant zur VST Spezifikation auf Linux dar. Der Vollständigkeit halber muss noch DSSI genannt werden, womit Synthesizer auf Linux eingebunden werden.