Home > Texte > HDR

Audiotechnik in der Praxis

Erste Erfahrungen mit Harddiskrecording (HDR) bei der Produktion 
eines Hörfunkbeitrags für das Medienkultur-Projektseminar (1996/97)

Frank Schätzlein


Inhalt:
Am Anfang (1): Hardware
Am Anfang (2): Software
Aufnahme
Am Bildschirm
Auf der Festplatte
Analog und digital
Am Ende
Literaturhinweise


Nur selten gibt es im Rahmen des Studiums an der Universität - im Gegensatz zur Kunst- oder Fachhochschule - einmal die Möglichkeit, sich in der Produktionspraxis der Medien zu üben. Am Ende des von Dr. Horst Ohde geleiteten Projektseminars "Der sogenannte Kulturauftrag im öffentlich-rechtlichen Hörfunk" im Fach Medienkultur war jedoch alle Praxisferne vergessen; ohne sich auf die Hilfe von Radioprofis stützen zu können, wollten alle Seminarteilnehmer - die einen an der Bandmaschine, die anderen am PC - einen Beitrag für die Radiosendung im Januar 1997 produzieren. Der folgende Text beschreibt unsere ersten Erfahrungen mit der softwaregestützten Bearbeitung von Audiomaterial am Computer.

Am Anfang (1): Hardware

Die Grundlage für die Produktion eines brauchbaren Hörfunkbeitrags ist natürlich der Zugang zu den entsprechenden Geräten, sei es in der Universität, in einem Tonstudio oder zu Hause - und das mit viel, viel Zeit für das Einüben der Softwarebedienung und das Überspielen alle Bestandteile der Sendung von den Zuspielgeräten (z.B. der HiFi-Anlage) auf die Festplatte. Eine Audio-Workstation (oder ein entsprechend ausgerüsteter PC) kostet nicht mehr als eine einzelne gute Bandmaschine für herkömmliches Rundfunkband. Mit der Bandmaschine kann man aufnehmen, wiedergeben und auf eine bestimmte, durch das Trägermaterial und die Schnittechnik vorgegeben, Art und Weise schneiden. Das HDR-System ist aber außerdem noch gleichzeitig Multieffektgerät, Mischpult, Raumsimulator, Mehrspur- und MIDI-Gerät sowie Sampler, Datenbank für Sounds und CD-Brenner. Will man den normalen eigenen PC für HDR nutzen, braucht man einen schnellen Prozessor (für die Berechnung von Effekten oder Raumakustik in Echtzeit), einen großen Arbeitsspeicher (für einen große Zwischenablage bei Schnitt und Montage sowie für einen schnellen Grafikaufbau bei der Darstellung der Hüllkurve u. ä.), eine große Festplatte mit möglichst kurzer Übertragungs- und Zugriffszeit (je größer der Festplattenspeicher, desto länger und vielschichtiger kann die Produktion werden - eine Minute Stereo-Ton mit 44,1 kHz und 16 Bit verbraucht unkomprimiert als PCM-Datei mindestens 10,5 MB) und eine wirklich gute Soundkarte (am besten mit digitalem Ein-/Ausgang für eine direkte Verbindung zu entsprechenden Geräten). Für Sicherheitskopien, Zwischenspeicherung und Aufzeichnung bietet sich ein CDR- oder DAT-Gerät an (das beim TripleDAT-System sogar gleichzeitig als Streamer verwendet werden kann). Um die Zuspielgeräte und den Computer miteinander zu verbinden, empfiehlt sich noch ein kleines Mischpult und für eigene Aufnahmen (Mono- und Stereo-)Kondensatormikrophone mit variabler Richtcharakteristik.

Am Anfang (2): Software

Als Software kommen komplette Systeme von Digidesign oder CreamWare in Frage oder die preiswerte Möglichkeit der Kombination eines Shareware-Audio/Sample-Editors mit einem einfachen Audio-Sequenzer von Steinberg oder Emagic. Diese Sequenzer haben zwar nur wenige Audio-Spuren bzw. -Kanäle, doch durch einfaches Overdubbing mit dem Audio-Editor lassen sich zusätzlich immer weitere akustische Ebenen einbauen. Die meisten Programme arbeiten - außer diese Funktion wird vom Anwender bewusst ausgeschaltet - nondestruktiv, d.h. die auf der Festplatte gespeicherten Audiodateien bleiben in ihrem Ursprungszustand erhalten und werden nicht wirklich verändert, gekürzt oder gelöscht, nur der Zugriff der Software auf diese Daten wird modifiziert. Auch steht fast immer eine umfangreiche Auswahl von Shortcuts zur Verfügung, die die Bedienung bei der Aufnahme/Wiedergabe, Bearbeitung und Kombination der einzelnen Segmente im Editor erleichtern und beschleunigen. Um die Software - über den normalen Schnitt und die Montage hinaus - als Multieffektgerät (vor allem für die Raumsimulation), als 'Mischpult' o.ä. zu nutzen, sind dafür normalerweise entsprechende Plug-Ins integrierbar.

Aufnahme

Nachdem das Konzept für die Produktion mehr oder weniger genau festgelegt ist, eine Struktur notiert wurde, beginnt man damit, die für die Produktion ausgewählten Elemente auf Festplatte zu kopieren, was einen sehr langen Zeitraum in Anspruch nimmt, weil die Aufnahme natürlich nur in Echtzeit abläuft. D.h. alle O-Töne, Geräusche, Samples, Musik- und Sprachelemente müssen auf die Festplatte kopiert, benannt und in einer sinnvollen Verzeichnisstruktur abgelegt werden. Bei eigenen Geräusch- wie auch Sprachaufnahmen sollte man darauf achten, dass in der ursprünglichen Aufzeichnung möglichst wenig Hall (oder sogar Echo) das Signal beeinflusst, da sich sonst bei der weiteren Bearbeitung mit Raumklang und Effekten Überlagerungen dieser verschiedenen Ebenen - in der Originalaufnahme vorhanden und durch die Bearbeitung hinzugefügt - einstellen würden und sich somit das gewünschte Klangergebnis im voraus nicht mehr abschätzen ließe.

Am Bildschirm

Der im Verhältnis größte Anteil der Produktionszeit wird wohl meistens für den Beginn des Hörstücks benötigt werden. Schließlich soll der Anfang einer Sendung den Hörer 'fangen', interessieren und halten. Außerdem muss gerade in dieser Phase relativ genau gearbeitet werden, da zu Beginn alle Entscheidungen über Raumakustik, Dynamikrelationen und die Positionierung der Klangquellen im Hörraum festgelegt werden müssen, so wie sie dann auch für den Rest des Stückes gelten und die gesamte weitere Gestaltung bestimmen. Die Produktion der ersten Minuten eines Hörstücks wird also häufig wesentlich länger dauern als die der anderen Teile der Arbeit. Im Normalfall wird das Stück jeweils in kleinen Blöcken erarbeitet, die einzeln geschnitten, montiert, gemischt und schließlich zur vollständigen Sendung zusammengefügt werden. Hierbei muss natürlich besonders an den Stellen, die die einzelnen Teile zusammenführen, auf Dynamik- und Raumwechsel (Brüche in der Akustik) geachtet werden. Beim Aufzeichnen, Laden und Abspeichern der Dateien hat man die Wahl zwischen verschiedenen Einstellungen der Abtast- und Bitrate. Um eine Kompatibilität von verschiedenen Software-Produkten untereinander und mit angeschlossenen CD- und DAT-Geräten zu erreichen, bietet sich hier normalerweise die Wahl von 44,1 (48) kHz und 16 Bit an (wer Festplattenspeicher bei noch brauchbarer Klangqualität sparen will, kann bis auf 32-35 kHz/16 Bit runtergehen, was etwa den Eigenschaften einer gewöhnlichen MC entspricht).

Auf der Festplatte

Die Produktion relativ komplexer Hörfunksendungen mit HDR-Systemen erfordert eine sehr genaue Buchführung auf allen Ebenen. Die Audiodateien und die Verzeichnisse, in denen diese auf der Festplatte abgelegt werden, müssen (wie auch die Spuren bei der Montage) konsequent in bezug auf ihren Inhalt benannt werden. Die Bezeichnung der Verzeichnisse, Spuren und Dateien sollte sich dabei immer auf feste Größen (wie den Inhalt oder die Seitenzahlen der Partitur bzw. des Manuskripts) beziehen, nicht auf variable Parameter ( z.B. die Zeitachse der Produktion, also Minute 1'37'' bis 1'52''). Denn der Inhalt der Dateien und ihre Position im Manuskript bleibt gewöhnlich bestehen, eine bestimmte Stelle im Stück kann sich aber relativ zur Zeitachse im Verlauf der Produktion mehrfach verschieben. Für die Benennung der Spuren bieten sich z.B. an: Figur 1, Figur 2 usw., Atmo (Straße), Atmo (Büro), Musik im Hintergrund/leise, Szenenmusik, O-Ton (alter Mann), O-Ton (Kind) usw., Geräusch (in der Szene), Geräusch (Effekt) usw. Bei guter Audiosoftware besteht die Möglichkeit, zusätzliche Informationen zum eigentlichen Audiosignal in weiteren Dateien abzuspeichern (Herkunft der Aufnahme, Aufnahmedatum und -modus, Verwendungszweck der Datei, Parameter der Hüllkurvendarstellung, Statistik der akustischen Eigenschaften oder Position einer Datei auf der Festplatte) . So wird z.B. durch das zusätzliche Erstellen einer Grafikdatei, in der die Form der Hüllkurve abgespeichert ist, der Vorgang des Ladens, Darstellens und Speicherns wesentlich beschleunigt.

Analog und digital

Ist eine Aufnahme auf der Festplatte abgespeichert, verliert sich die charakteristische 'Form' des Ausgangsmaterials; wird ein Cue nicht deutlich (z.B. durch das WAV/PCM-Format) als Audiodatei gekennzeichnet, ist es hinterher nur noch durch häufiges Ausprobieren möglich, die Daten korrekt wiederzugeben. Inzwischen gibt es Unmengen von Dateiformaten und Verfahren der Kompression von Audiodaten - hier empfiehlt es sich, auf Datenreduktion grundsätzlich zu verzichten und lieber mehr Speicherplatz zu reservieren, da die Klangqualität doch zu sehr leidet bzw. der Lade- und Speichervorgang sehr viel Zeit in Anspruch nimmt (z.B. bei MPEG Layer II oder III). Für den Computer sind Grafik-, Text-, Sprach-, Musik- oder Geräuschdateien ohne die entsprechende Bezeichnung der Cues und die Zuweisung des richtigen Dateiformats nur binärer Code. Es gibt inzwischen auch kleine Programme mit denen es möglich ist, Grafik-, Text- oder Programmdateien hörbar zu machen. Sie ignorieren einfach das Dateiformat und machen somit aus der letzten schriftlichen Hausarbeit oder einem Photo einige Sekunden Rauschen mit diversen Geräuschen. Im Gegensatz zur Arbeit mit der Bandmaschine ermöglicht die digitale Produktion z.B. die rasche und problemlose Änderungen der zeitlichen Abfolge gespeicherter Klangereignisse, das extrem schnelle duplizieren der Cues, Kopien ohne Verlust der Klangqualität oder Zunahme des Rauschens, nondestruktives Arbeiten (siehe oben), das getrenntes Bearbeiten der einzelnen ein akustisches Klangereignis bestimmenden Parameter, einen äußerst präzisen Schnitt bis in die einzelne Silbe/den einzelnen Buchstaben oder den Nulldurchgang der Hüllkurve, die musikalische Verwendung von Sprache und Geräusch (Sampling), das Strecken und Stauchen von Klangereignissen in der Zeit (ohne Tonhöhenveränderung und die präzise Positionierung und Verbindung verschiedener Segmente in der Montage. Zur Produktionsphase der Montage ist schließlich noch zu sagen, dass sich hier in der digitale Bearbeitung die allgemeinen Verfahren und Gestaltungsprinzipien nicht verändert haben, bei vielen neueren Hörstücken jedoch eine "Potenzierung von Rhythmisierungen", eine "Ästhetik der Fraktur" (Mauricio Kagel) sowie eine musikalische Organisation sprachlicher Elemente zu erkennen ist.

Am Ende

Im Zusammenhang mit der Etablierung preiswerter und leistungsfähiger HDR-Systeme ist immer wieder die Rede von der "Demokratisierung der Produktion" von Hörstücken (und natürlich auch bestimmter Musikstile). In der Tat kann man am PC mit wenig finanziellem Aufwand und verhältnismäßig geringen Vorkenntnissen eigene Sendungen produzieren. Doch hört man heute schon manchmal Beiträge fragwürdiger Qualität, wenn Radiojournalisten ihre Beiträge jetzt selber schneiden und mischen - sollte für eine Mischung überhaupt noch Zeit eingeplant werden. Weniger ist oft mehr - auch wenn es reizt, die vielen Effekte und Spielereien der Softwareprodukte auszunutzen - und die Visualisierung des Auditiven auf dem Monitor darf nicht dazu führen, mehr mit dem Auge als mit Ohr zu arbeiten - dies scheint zur Zeit immer häufiger vergessen zu werden. Das HDR-System bringt in der Praxis der Produktion - bis auf einige Ausnahmen - nur eine Perfektionierung dessen, was bisher analog auch schon möglich war. Und schneller ging die Arbeit mit Hilfe digitaler Technik insgesamt auch nicht. Einzelne Arbeitsschritte allerdings hätten bei rein analoger Produktion viel mehr Zeit benötigt oder sie wären grundsätzlich nicht bzw. zumindest nicht mit der durch die Digitaltechnik erreichbaren Perfektion realisierbar gewesen (s. o.): Kopien, Montage, Ausprobieren verschiedene Räume, Musikalisierung und Rhythmisierung von Sprache oder Geräuschen usw. In der Autorenproduktion führt der Gebrauch der Digitaltechnik wieder zur Arbeit mit bestimmten Formen der O-Tons und zur intensiven Verwendung von Musik, Geräusch und verschiedener Quellen akustischen Materials (Telefon, Anrufbeantworter, Internet etc.). Andere Formen des Hörspiels - die nun einmal nur mit den Mitteln der öffentlich-rechtlicher Sender (professionelle Sprecher, 'schalltoter' Raum, Kapital für Text- und Musikrechte u.a.) umsetzbar sind - spielen hier dagegen keine so große Rolle. Und schließlich: Durch die Digitalisierung, die unterschiedslose binäre Codierung auditiven Materials jeglicher Herkunft sind wir immerhin der Forderung einiger Vertreter der Neuen Musik und des Neuen Hörspiels nach einer dramaturgischen Gleichwertigkeit von Sprache, Musik, Geräusch und Stille - den "unterschiedlichen Materialien akustischer Information" - zumindest im Computer, dem sowieso alles nur 0 und 1 ist, ein ganzes Stück nähergekommen.

Literaturhinweise

• Ackermann, Philipp: Computer und Musik. Eine Einführung in die digitale Klang- und Musikverarbeitung. Wien: Springer 1991.
• Henle, Hubert: Das Tonstudio-Handbuch. Praktische Einführung in die professionelle Aufnahmetechnik. 4., komplett überarb. Aufl. München: Carstensen 1998.
• Schätzlein, Frank: Die Digitalisierung von Audiosignalen. Eine kurze Einführung auf dem Stand von 1996. In: ZMMnews. Zeitschrift des Zentrums für Medien und Medienkultur der Universität Hamburg. April 1996, S. 33. Online: http://www.frank-schaetzlein.de/texte/digitalisierung96.htm.
• Schätzlein, Frank: Digitales Radio. In: ZMMnews. Zeitschrift des Zentrums für Medien und Medienkultur der Universität Hamburg. April 1996, S. 30-32. Online: http://www.akustische-medien.de/texte/zmm_digitalesradio96.htm.
• Schätzlein, Frank: Von der automatischen Senderegie zum Computer Integrated Radio. Entwicklung und Perspektiven der Digitalisierung des Hörfunks. In: Die Medien und ihre Technik. Theorien - Modelle - Geschichte. Hrsg. von Harro Segeberg. Marburg: Schüren 2004 (= Schriftenreihe der Gesellschaft für Medienwissenschaft. Bd. 11). S. 398-415.
Volltext als PDF: http://www.frank-schaetzlein.de/texte/digitalisierung-des-hoerfunks-2004.pdf.
• Stotz, Dieter: Computergestützte Audio- und Videotechnik. Multimediatechnik in der Anwendung. Berlin: Springer 1995.
• Wilkens, Henning: Bits und Bytes statt Ton und Bild. Hörfunk und Fernsehen digital. In: ARD-Jahrbuch 94. Hamburg: Hans-Bredow-Institut 1994. S. 81-89.
• Zander, Horst: Das PC-Tonstudio. Von der Audioaufnahme und Verarbeitung mit dem PC bis zur Master-CD. Poing: Franzis 1998.


Home > Texte > HDR
________________________________________________________________________________________________________
Textfassung vom 09.08.1997 (1b), Copyright © Frank Schätzlein
URL: http://www.frank-schaetzlein.de/texte/hdr.htm