ANZEIGE
ANZEIGE

Workshop: Musik-Mastering auf die Schnelle und ohne KI

Mastering auf die Schnelle

13. August 2022

ANZEIGE

Musik-Mastering, das seinen Zweck erfüllt

Mastering. Erscheint manchmal als ein arkanes Ritual, das Voodoo-Tempelritter nach jahrzehntelangen geheimen Studien unter Verwendung beeindruckender Steampunk-Gerätschaften durchführen. Und im nächsten Moment als etwas, was laut Marketing wirklich jeder kann, egal ob mit nem Telefon, ner DAW, die eigentlich mal MIDI-Clips abfeuerte,oder freilich „in der Cloud“, aber bevorzugt mit fortschrittlicher KI.

Heute geht’s um keins von Beidem, aber auch nicht um eine Grund- oder Fortgeschrittenenkurs im Mastering. Es geht darum, wie man mit geringem Zeitaufwand mal schnell einen Master machen kann, der seinen Zweck erfüllt.
Also nicht die Aufgabe für das nächste Grammy-Album zum fünfzigsten Bandjubiläum, sondern eher für das wöchentliche YouTube-Video oder so.

An der Stelle sag‘ ich dabei recht wenig über Psychoakustik oder Funktionsweise von Werkzeugen, denn da ist – außer mit „Lernen“ – das Zeiteinsparungspotential nicht so groß. Es geht eher um die Arbeitsweise (neudeutsch: „Workflow“). Werkzeuge kommen dabei trotzdem vor, aber als Beispiele, nicht als Empfehlungen. Um das deutlich zu machen, sind Beispiele immer in kursiver Schrift gehalten.
Ferner gibt es Empfehlungen, die die Arbeitsweise beschreiben.

Also wie mach’ ich das?

Start und Ziel bestimmen den Weg (nicht umgekehrt)

Wozu mache ich einen Master? Einfach gesagt: um von “irgendwas Audio” zu “irgendwas veröffentlichbarem Audio” zu kommen, wobei typischerweise (und auch hier) die Spurzahl der beiden “irgendwas” identisch ist. D.h. ich gehe von einer Stereoquelle zu einem Stereoziel oder 5.1 zu 5.1, aber nicht 16 Monospuren auf ein Stereoziel.

Im Rahmen dieses Artikels sind sowohl Quelle als auch Ziel Stereo-Audiodateien auf einem Computer.
Die Quellen kommen dabei aus ner MPC, nem Zoom H8 oder aus Cubase. Sie sind bei mir immer WAV, immer 48 kHz und hier stereo und entweder 24 Bt (H8) oder 32 Bit float (Cubase, MPC). Mach’ ich immer so.
Die Zieldateien sind ebenso 48 kHz stereo, und entweder 16 Bit WAV oder 24 Bit WAV FLAC (höchste Kompression).

Damit sind wir bei der ersten Empfehlung: Einheitliche Dateiformate. Das ist jeweils ein Menüpunkt weniger, eine Fehlerquelle weniger.

Was soll der Weg erreichen?

Ich will mit der Zieldatei irgendwas machen. Auf ne CD brennen, auf Bandcamp hochladen, in ein YouTube-Video einbauen. Die Schallplattenpressung behandeln wir heute nicht, weil es geht ja um die ganz kleinen, schnellen Projektchen.
Neben dem “es soll gut klingen” haben manche von den Plattformen noch weitere, “weiche” Anforderungen. Viele Online-Plattformen mögen zu laute Master nicht. 9LU (-14 LUFS) ist dabei ne sinnvolle Obergrenze (nicht nur aus dem Grund der Online-Plattformen, sondern für die meiste Musik auch aus psychoakustischen Gründen). Vielleicht habt ihr aber noch andere Anforderungen. Besonders gute Kompatibilität mit Telefonlautsprechern oder so. Früher war auch das Internet noch nicht so schnell, deswegen sind bei mir die Zieldateien eher FLAC. Schadet ja nix …

ANZEIGE

Und damit ne weitere Empfehlung. Macht euch klar, was die Zieldatei können muss.

Die richtigen Werkzeuge für das Musik-Mastering

Die richtigen Werkzeuge sind eine Minimalausstattung, die man gut beherrscht. Ab und zu gibt’s sicher den Track, für den ein esoterisches Kompressor-Plug-in noch nen Ticken toller wär. Dafür haben wir aber keine Zeit. Wir wollen den Kompressor, den wir in- und auswendig beherrschen und von dem wir wissen, dass der alle Sachen recht gut kann.

Dabei eine Empfehlung: eine Werkzeugkette, die man nicht nur beherrscht, sondern bei dem man auch jede Komponente immer braucht. Der psychoakustische Prozessor mag für manche Tracks recht schön sein (aber für andere nicht), aber dafür muss ich mich jedesmal entscheiden, ob ich den verwenden will und das kostet Zeit.

In der Umgebung “Audiodatei rein, Audiodatei raus” und Computer als Arbeitsumgebung will ich erstmal ne geeignete DAW. Das ist bei mir WaveLab. Grund: Die Montagen sind für das, was ich machen will, ne geeignete Umgebung. WaveLab ist auch bei Metering/Analyse gut (damit kann man Zeit sparen) und es ist ein Werkzeug, das ich kenne.

Die WaveLab-Arbeitsumgebung

Die Minimalausstattung ist bei mir Lowcut, Gain, EQ, Kompressor, Gain, Limiter, Dither. Zu den einzelnen Komponenten:
Lowcut: Steinberg Frequency2. Ziemlicher Overkill, ich kriege damit einen sauberen, sehr steilen Lowcut. Und mein Haupt-EQ (siehe dort) hat sowas nicht und dazu ist meine Musik im tieffrequenten Bereich teils ein wenig unaufgeräumt.

Als nächstes kommt Airwindows EveryTrim. Das gibt mir +/-12 dB für L/R, M/S und Summe.

„In the mix, nobody can hear your screen“ (Chris from Aiwrindows)

EQ ist der SPL PassEQ. Der ist ein wenig seltsam … aber ich krieg mit dem gute Ergebnisse.

Gleiches gilt für den SPL IRON. Da kann ich nur mit Mühe was kaputtmachen. Kaputtmachen ist schlimmer als zu wenig erreichen. Die Quelldateien sind schon relativ gut.

Nächster “Gain” ist aus der Master-Sektion von WaveLab.

Limiter und Dither sind ebenso WaveLab-Bordmittel. Bordmittel sind was Gutes, weil die meistens gut mit der Host-DAW zusammenarbeiten und hier will ich möglichst unkompliziert arbeiten können, auch wenn sich mal ne Version ändert.

Man kann mit Recht sagen, dass ich alles auch mit Wavelabs MasterRig machen könnte. Kenne ich aber nicht so gut. Bis ich das gut kann, vergeht recht viel Zeit. D.h. ich müßte wahrscheinlich fünf Jahre lang Sachen machen, bis die Zeiteinsparung wieder drin ist.

Apropos Plug-in-Kette: Die oben genannte Kette ist bei mir mit bestimmten Standardeinstellungen (siehe unten) sowohl als Master Section-Preset als auch als Preset in einer Montagevorlage enthalten. Spart Zeit!

Und damit sind wir bei einer weiteren Empfehlung: Seid euch bewußt, wie viel Zeit man einsparen kann, bevor ihr ewig viel in eine kleine Verbesserung investiert. Acht Stunden lang Skripte zu schreiben, zu testen und zu debuggen, mit denen man dann pro Mastering-Projekt drei Minuten spart, amortisiert sich. Nach 160 Projekten.

Und jetzt zur tatsächlichen Arbeit

Spätestens jetzt sind wir an nem Punkt, wo ich von der Arbeitsweise bestimmte Annahmen treffe, Randbedingungen betrachte und Erfahrungswerte einbringe. Um nicht alles kursiv schreiben zu müssen: Es kann sicher sein, dass jemand (aus welchem Grund auch immer) zwei Schritte vertauscht, einen rauswirft oder einen hinzufügt.

Grob passiert in etwa folgendes:

  1. Quelldatei in der DAW öffnen,
  2. Quelldatei irgendwie analysieren (technisch oder nicht),
  3. was mit Anfang/Ende machen,
  4. Makrodynamik,
  5. Frequenzgang,
  6. Mikrodynamik und Lautheit,
  7. optional: schauen, ob alles passt,
  8. Zieldatei erzeugen.

Hier kommt noch eine Empfehlung zu Werkzeugkette und Arbeitsweise: Alles soll über den ganzen Track unverändert bleiben. Das heisst: keine unterschiedlichen Einstellungen für unterschiedliche Teile und keine Automatisierung.
Neben der generellen “einfach halten”-Sichtweise sprechen weitere Gründe dafür. Automatisierung ist (in allen mir bekannten DAWs) was, was nicht vollkommen einfach und vor allem schnell gut geht. Und unterschiedliche Einstellungen für einzelne Teile bedeuten einen Übergang. Wie sieht der aus? Krieg’ ich da möglicherweise Probleme mit Phasenauslöschungen? Alles Fragen, die ich nicht beantworten will, weil die Zeit kosten.

Quelldatei in der DAW öffnen

Klingt einfach, vielleicht einfacher, als es ist. Auch da kann man sicher den einen oder anderen Moment einsparen.
In WaveLab und in einer Arbeitsweise mit Audiomontage heißt das:

  • Neue Montage aus Vorlage erstellen, Master-Preset aus Vorlage laden.
  • Quelldatei in Montage importieren.
  • Quelldatei aus Montage heraus öffnen.

Der letzte Punkt klingt vielleicht etwas seltsam: In der Audiomontage kann ich wunderbar den Anfang abschneiden, Fades machen oder stellenweise Level verändern, ohne was an der Quelle zu tun. Was ich nicht machen kann, sind Analysen, z. B. was R128-Lautheit angeht. Dafür brauche ich die Quelldatei als Audiodatei.

Wo liegt die Quelldatei? Es gibt bei mir für die regelmäßigen Projekte ca. 3 Ordner, wo die immer liegen. Zum Glück hat WaveLab ne recht lange Liste von “letzten Verzeichnissen”. Leider gibt es keine Verzeichnisse als Favoriten – oder ich habs noch nicht gefunden wo. Aber “gleiche Verzeichnisse” ist auch eine Empfehlung.

Und gleich noch eine Empfehlung zu Templates und Presets: Die sollen wenige sein und einfach auszuwählen. Wenn ich ein Montage-Preset habe für Tracks, die nach Bandcamp gehen und eins für die, die danach in Resolve in nem Video verwurstelt werden, weiß ich immer, welches ich brauche. Wenn ich nen Preset für Progressive-Rock und eins für Metal habe, welches verwende ich für Progressive Metal? Besser nur eins für “laute Musik mit Dynamik” oder so.

Templates: für mich sind es insgesamt drei (der Rest sind Factory Presets)

Quelldatei irgendwie analysieren

Die einfachste Sache dabei ist, Dinge einfach zu wissen. Gerade bei den betrachteten “Schnell-Schnell-Produktionen” ist die Erinnerung meistens noch recht frisch, wenn man die Quelldatei selber produziert hat (Mix und/oder Aufnahme). Ansonsten auch da eine Empfehlung: arbeitet mit Notizen. Was ist dem Mix-Engineer aufgefallen? Wie schaut die Instrumentierung aus? Was ist der tiefste Ton? Wo sind mögliche Problemkandidaten?

Bei mir ist bei der Arbeitsweise typischerweise die Quelle was, was ich komplett selber gebaut habe, wo ich dabei war oder wo ich zumindest weiß, was drin ist. Hab’ ich ein klassisches Streichquartett, dann kann ich, wenns nicht grade ne John-Cage-Komposition war, guten Gewissens unterhalb von 60 Hz alles abschneiden. Stand bei nem akustischen Jazzgig mit nem Metaldrummer das einzige Mikrofon in der Nähe der Snare, werde ich da möglicherweise was korrigieren wollen.

Was ich mir (siehe spätere Schritte) immer gern anschaue, ist die Dynamik und zwar in zweierlei Weise. Das Erste ist der aus der Wellenform erkennbare Dynamikverlauf und zwar sowohl makrodynamisch (leise/laute Passagen) als auch mikrodynamisch (hohe Peaks). Dazu nehme ich, wenn vorhanden, (und das schnell geht) ein Analysetool, das mir Peaks und R128-Werte sagt.

In WaveLab geht das sehr schön mit der globalen Analyse, allerdings nur in der Audiodatei – weshalb ich vorher die Quelldatei noch separat geöffnet hatte. Da sind das zwei Tastendrücke und dann weiß ich die maximalen Peaks und den R128-I-Wert.

Zufällig erfüllt der I-Wert die R128-Empfehlung. Meistens wollen wirs aber lauter.

Den Frequenzgang schau’ ich mir abgesehen von möglichen tiefsten Frequenzen (wenn ich die nicht schon weiß, siehe oben) nicht an – das ist ne Sache für die Ohren und die Erinnerung.

Und damit sind wir beim schwierigeren Teil, nämlich analysieren durch anhören. Schwierig deshalb, weil es viel Zeit kosten kann. Vielleicht nicht bei ner kurzen Hardcore-Nummer, aber wenn das Miniprojekt ne 50-Minuten-Ambient-Nummer ist.
Hier gibts (neben “Arbeiten mit Notizen (oder Erinnerung)”) nur die Möglichkeit, aus dem Bild der Wellenformen, ggf. kombiniert mit Erinnerung/Notizen, zu wissen, wo man reinhören muß. Gute Ansätze sind Anfang/Ende, Dynamiksprünge, unterschiedliche Sektionen.

Auch da habe ich aus genannten Gründen noch sehr viel in Erinnerung und meistens schon was im Kopf, was ich tun oder lassen muss bzw. kann. Aber außer “Übung, Übung” kann ich da wenig empfehlen. Was schade ist, weil hier lässt sich viel Zeit sparen. Oder verschwenden.

Was mit Anfang/Ende des Musikstücks machen

Zum Glück geht’s hier eher um einzelne Titel, nicht um Alben, deshalb fällt das Thema Track Gap (und Running Order) weg.
Ein Fade an beiden Enden ist immer gut, um Artefakte zu vermeiden. Und minimaler Platz am Anfang und ausreichender am Ende (vielleicht eine Gedenkpause zum nächsten Titel auf irgend ’ner automatisch generierten Playlist) hilft auch.

Für Fades verwende ich die Sinusoid im Wavelab-Slang, auch als Taper bekannt. Leider lässt sich das meines Wissens nicht als Standard einstellen. Am Anfang lasse ich ca. 10-20 ms Pause (wieviel genau, ist recht egal) und mache dann nen Fade, der sich an der Musik ein wenig orientiert. Wenn der Titel “normal” anfängt ist das sehr kurz (ca. 10 ms) bis zum ersten “Hit”. Am Schluß orientiere ich mich an Hallfahnen und der künstlerisch notwendigen Gedenkpause. In beiden Fällen mache ich das blind (oder eher taub, d. h. ich hörs mir nicht an).
Es gibt freilich auch Titel, die einen Fade-In/Out erfordern. Das kann man sicher auch üben. Mir fehlt da die Erfahrung – da muß ich mir’s anhören. Kommt nicht so häufig vor, deswegen hab’ ich’s bislang noch nicht geübt …

Makrodynamik

Hierbei gehts um die Unterschiede zwischen den leisen und lauten Passagen.
Anfangs und rein qualitativ hilft uns dabei wieder Wissen über die Quelldatei. Ebenso kann ein Blick auf die Wellenformanzeige helfen oder zielorientierte Ansichten der DAW.
Wenn ich eine Anzeige in dB habe, kann ich mich auf die “knapp 10 dB mehr ist gefühlt doppelt so laut”-Erkenntnis beziehen. Doppelt so laut ist schon ne Menge (ebenso halb so laut), d. h. größere Sprünge will ich nur dort haben, wo ich genau diesen Effekt will.

WaveLab bietet dafür die Lautheits-Ansicht, allerdings nicht in der Montage, nur in der Quelldatei – die wir aber schon geöffnet haben. Hierbei werden die M-, S- und I-Werte gemäß R128 über die Zeit angezeigt, ebenso wie der Lautheitsbereich. Uns interessiert hierbei primär der S-Wert – “short-term”, was länger ist als M/”momentary”. Und wenn ich da große Sprünge von mehr als 10 dB sehe, kann ich da drüber nachdenken. Umgekehrt genau so, wenn an einer Stelle, wo ich “Drama” will, der Sprung kaum erkennbar ist.

Der Lautstärkeverlauf sagt recht viel drüber, was man makdrodynmaisch ggf. tun will

Einen Kompressor für die Makrodynamik einzustellen, kann Zeit in Anspruch nehmen, deshalb verwende ich keinen, sondern mach’ sowas mit Hand. Soll heißen: einzelne Teile der Quelle (hier: in der Montage) leiser oder lauter machen.

In WaveLab mache ich dabei an den entsprechenden Stellen einen Schnitt, ziehe ein kurzes Crossfade rüber und ziehe einen der Teile nach oben oder nach unten und zwar um soviel, dass es gefühlsmäßig und im Vergleich zu dem, was ich vorher aus der S-Anzeige wusste, passender ist. Also wenn der Sprung vorher 12 dB war, ich aber eine “klassische Lautstärkestufe” für richtig halte, ziehe ich den leiseren Teil um 6 dB nach oben.

Frequenzgang

“Frequenzgang” ist die erste Stelle, wo ich mit Plug-ins arbeite. Das hat zwei Teile: erstens störende Sachen entfernen, zweitens den Rest so korrigieren, dass es angenehm ist.

“Störende Sachen” entfernen ist dabei einfach ein Lowcut. Ich überlege mir, was die tiefste Frequenz ist, die ich haben will und schneide alles drunter ab. Wenn die Frequenz eher hoch ist, mit 18dB/Okt, wenn die sehr tief ist (30 Hz oder drunter) so steil wie’s geht. Dabei verwende ich einen EQ mit konstanter Gruppenlaufzeit (im Marketingsprech “linear phase”).
Hierbei können Wissen über Frequenzen und Musikinstrumente helfen. Ich verwende dafür, wenn ich die Sachen nicht inzwischen auswendig weiß, immer eine Tabelle.
Generell ist, wenn man nicht weiß, dass man drunter wirklich was braucht, knapp unter 30 Hz nen guter Ansatz für nen Lowcut.

Bei mir ist das Mittel der Wahl Frequency2, bei dem nur das unterste Band eingeschaltet ist und standardmäßig auf 25 Hz mit 96 dB/Okt. Steht. Das schadet im Zweifelsfall nix – d. h. häufig muss ich das nicht mal anfassen, weil bis zu nem ganz tiefen A will ich doch häufig runter. Spart Zeit!

Dann kommt der eigentliche EQ.

Zunächst gelten die üblichen “EQ für Mastering”-Gesichtspunkte. Güte (Q) so 0,3-0,5, Anhebungen/Absenkungen meistens weniger als 1,5 dB und nie mehr als 3 dB, und ähnliche Menge an Absenkung und Anhebung.
Ja, es gibt Fälle, da brauchen wir größere Pegeländerungen oder größere Filtergüte – aber die gehen dann eben nicht schnell-schnell.
Ich verwende hierbei keine Auswahl an Presets, obwohl oder gerade weil die Quellen in meinem Fall recht unterschiedlich sind. Es gibt aber ein Preset und damit sind wir jetzt bei meinem Werkzeug der Wahl.

Mein PassEQ-Preset,. Sämtliche Anhebungen/Absenkungen sind auf null

Das ist im Übrigen auch die erste Stelle, wo ich das Audiomaterial anhöre, und am Schluss auch die, wo ich regelmäßig am meisten Zeit reinstecke. Nicht deshalb, weil es am wichtigsten ist (darüber lässt sich vortrefflich streiten), sondern weil es (für mich) am wenigsten im Blindflug funktioniert. Vielleicht lern’ ich auch das mal.

Aber wie geht man tatsächlich vor?
Zunächst eine generelle Empfehlung: Mit dem, was für den größten Teil des Titels wichtig ist, anfangen, dann das, was (tontechnisch) am schwierigsten ist, noch anschauen. Mehr nicht. Alles andere liegt meistens irgendwo zwischendrin und ist dann halbwegs ok.

Ich fang also mit dem wichtigsten Teilbereich des Titels an, der für die größte Dauer irgendwie klanglich relevant ist. Bei einer Punknummer ist das eigentlich der ganze Song, bei ner klassichen Symphonie eher die Exposition. Hier mach’ ich Einstellungen, die gut passen.
Dann kommt eine Passage, von der ich denke, dass die kritisch sein könnte (siehe die Analyse vorher). Vielleicht bei dem klassichen Werk die Passage mit Pauken, Kontrabässen und Glockenspiel? Hier geh ich jetzt her und schaue ob’s immernoch passt und korrigiere möglicherweise. Dann zurück zur wichtigen Passage und entweder passt’s da weiter oder ich find nen Mittelweg zwischen dem ersten und zweiten Schritt. Im Zweifelsfall gewinnt die wichtige Passage. Und ich hör’ mir nur zwei Passagen an.

Der SQL PassEQ ist ein wenig komisch. Es gibt 3 Anhebungs- und 3 Absenkungsbänder, wobei mit Ausnahme der HF-Anhebung nix parametrisch ist. Mein Preset hat alle Anhebungen/Absenkungen auf null, aber trifft eine Vorauswahl bezüglich der Frequenzen der einzelnen Filterstufen.
Leider hab’ ich da nicht mehr zu sagen als “stimmiges Klangbild”. Übung macht den Meister. Und seltsamerweise krieg ich mit dem PassEQ für mich gute Ergebnisse.

Mikrodynamik und Lautheit

In dem einen Schritt verwende ich nun fast alle verbleibenden Werkzeuge (mit Ausnahme des Dithers), und eigentlich sind es zwei Schritte. Ich möchte dabei die Lautheit in die richtige Richtung kriegen, und das hat häufig noch was mit Reduzierung der Mikrodynamik zu tun, hier in zwei Stufen.
An Plug-ins sind das zwei – der Kompressor und der Limiter. Gedanklich springe ich hier erstmal wild hin und her, wobei viel erstmal ohne Anhören und auf Basis von Wissen über/Notizen über/Analyseergebnisse von der Quelldatei passiert.
Aus der Analyse weiß ich schon ein paar Messwerte (R128-I-Wert, maximale Peaks), wobei sich der I-Wert im Rahmen der Makrodynamik-Bearbeitung möglicherweise verändert hat, der Peak typischerweise nicht (da ich eher leise Passagen lauter/laute Passagen leiser gemacht habe).
Der Limiter ist bei mir ein Brickwall mit sehr kurzer Release-Zeit. Über den Spitzenpegel gibt’s viele Diskussionen, die sich im Lauf der Zeit auch verändert haben. Die -1dB True Peak aus der R128 erscheinen mir dabei aber für das, was ich will, unpraktisch. Einfach deshalb, weil ich damit 1 dB an Headroom verschenke, das ich gerne behalte. Deshalb bin ich in den seltenen YouTube-Fällen bereit, damit zu leben, dass die Plattform da noch ihren eigenen Brickwall draufhaut, da sie sonst die Sachen in Ruhe lässt. (Was ich auf jeden Fall vermeiden will ist, dass die Plattform den Track als Ganzes leiser macht, aber dazu kommen wir später).
Der Limiter soll stets transparent sein. Soll heißen, man hört ihn gar nicht. Er fängt bloß ganz wenige, kurze Pegelspitzen auf. Das passiert zum einen dadurch, dass er nicht mit massiv überkomprimiertem Material beschossen wird. Zum anderen dadurch, dass die maximale Pegelreduzierung in der Größenordnung 2-3 dB bleibt. Ansonsten steht der auf kurzem Release (gerne Auto-Release) und Stereo-Link aus.
Interessant wird’s, was ich sonst noch mache, dazu ein Rechenbeispiel.

Die gezeigte Beispieldatei hatte 0,7 LU, also -22,3 LUFS sowie -3 dB True Peak. Wenn ich damit in die Gegend von K-14, oder etwas unter 9 LU will, muß ich also knapp 8d B nach oben, d. h. meine Peaks wären dann bei 5 dB, was mir 2-3 dB zu viel ist. Da soll der Kompressor noch nen Teil machen, ungefähr genau das.

Im Gegensatz zum Limiter, der bei so geringen Pegelreduktionen und den geschilderten Einstellungen wenn ich den 3dB in die Begrenzung treibe alles 3 dB lauter macht, ist das beim Kompressor nicht 1:1 so.
Mögliche Kompressoreinstellungen sind – je nach genereller Arbeitsweise und genauer Implementierung – recht vielfältig. Tatsächlich will ich hier keinen so vielfältigen, sondern eigentlich einen, der sehr einfach geht. Meine Auswahl ist deshalb eigentlich vollkommen unlogisch – aber der SPL IRON gefällt mir halt.

Beim SPL IRON sind meine Standards Tube Bias mid, Stereo Link on und Germanium 1mF Leistungsdetektor mit Attack 2 oder 3 (entspricht 6-10 ms) und Release 1-3 (entspricht 100-180 ms). Hier in dem Fall würde ich aufgrund der Vorkenntnis des Audiomaterials Attack 2 und Release 1 nehmen – wohl wissend, dass die hohen Pegel nicht so basslastig sind und ich deswegen kein Problem mit Modulation des Kompressors durch die tiefen Töne kriege, trotz der 100 ms-Release-Zeit.

Nun selektiere ich (diesmal in der Montage) eine Loop in einer lauten Passage mit hohen Peaks, drehe erstmal die gewünschte Pegelerhöhung vor dem Kompressor rein, stelle den so ein, dass der die gewünschte Pegelreduktion macht, die ich vorher bestimmt hatte und stelle dann den Gain nach dem Kompressor so ein, dass der Limiter die gewünschten maximalen 2-3 dB Reduktion macht. Abschließend ein Blick auf eine laufende LU-Anzeige (kann auch ersatzweise ein K-Meter sein, die verwenden zumindest die gleichen Frequenzkurven und nicht so unähnliche Zeitkonstanten für S) und schauen obs passt.

In unserem Beispiel hatte ich mich tatsächlich erst verschätzt und landete mit den Einstellungen eher bei so was um die 10 LU bei 1,7d B maximalem Peak. Kein Problem, dann kann ich sogar die Release-Zeit des Kompressors erhöhen auf Stufe drei und dann passt’s mit nem Wert von ziemlich genau 9 LU für die konstante Lautstärke im größten Teil des Titels. So was geht mit ein bisserl Übung in unter einer Minute und sogar ohne zuzuhören. Manierliche Lautheitsziele auf unter +/-0,3 dB hinkriegen, schafft man mit relativ wenig Übung zielgenau. D. h. wenn man 9 LU erreichen will, kann man auf 8,7 LU zielen und ist “safe”.

Optional: Schauen, ob’s passt

Und mit “schauen” mein’ ich hier hauptsächlich kritische Stellen anhören. Hier hilft wieder Wissen über die und Analyse der Quelldatei.

Dafür nehme ich mir recht wenig Zeit.

Wenn genaue Lautheit immanent wichtig ist, kann man jetzt auch nen schnellen Testrender machen (wie unten beschrieben) und dann die Zieldatei analysieren. Das geht meistens schneller als alles, was man mit Hinhören und Pegelanzeigen anschauen machen kann.

Zieldatei erzeugen

Hier sind wir jetzt wieder bei was, was ich ziemlich automatisieren kann. Neben Dateiexportsachen kommt hier noch Dither (wenn verwendet) dazu.
Für Dither verwende ich WaveLabs mitgelieferten MBit+, entweder mit 16 oder 24 Bit. Welchen? Ist in dem Audiomontagentemplate festgelegt. Ebenso wie das Audiodateienzielformat, d. h. das ist wirklich idiotensicher, 16 Bit Datei kriegt immer 16 Bit-Dither und so. Ebenso automatisch kann ich was mit dem Dateinamen machen, z. B. Quelldateiname mit angehängtem “ -Master”. Fürs Zielverzeichnis kann ich nix festlegen, aber das funktioniert mit der Liste der letzten Verzeichnisse.

Und dann heisst’s Rendern drücken und…fertig!

Lohn der Mühe: vorher. ..

… und nachher

ANZEIGE
Fazit

Warum mache ich das Ganze?
Ich nehme an, dass der Artikel für die Profis hier nicht so interessant war – ihr habt ne geeignete Arbeitsweise aus rein wirtschaftlichen Gründen ohnehin etabliert. Aber wie isses für die Hobbyisten, für die die Tätigkeit ansich ja Hobby ist und nicht “möglichst viel pro Zeiteinheit” sein muss?

Für mich ergibt sich der Gewinn aus zweieinhalb Gründen:
Der erste ist, dass ich weniger Zeit mit “blöden Sachen” verbringe. Wenn ich mit Dateinamenvergabe, Dithereinstellungen usw. jedes Mal fünf Minuten einspare, kann ich die fünf Minuten für EQ-Einstellungen nutzen. Oder für nen neuen Track. Oder für was anderes, was mir mehr Spass macht als Dateinamenvergabe.
Der zweite ist Zuverlässigkeit: Arbeite ich nach Schema F, krieg’ ich auch immer Schema F und vergesse nicht irgendwann, den Limiter einzuschalten oder exportiere in 16 Bit, wenn ich 24 Bit wollte.
Und der halbe: manchmal möchte ich einfach doch sehr schnell sein. Und dann sind vielleicht auch die gesparten 5-10 Minuten gut.

ANZEIGE
Forum
  1. Profilbild
    Filterpad AHU 1

    Ok, war mir jetzt etwas befremdlich. Sind wir aber mal ehrlich: Viele im Hobby,-Semibereich versteifen sich zu sehr auf das Mastering. Grund: Weil es viele Artikel darüber gibt und es als der „Heilige Gral“ der Musikproduktion gesehen wird. Aber zu 80% scheitert es oft schon an einem ordentlichen Arrangement und an einfachsten Mixeinstellungen. Das Mastering sollte eigentlich nur das letzte Quäntchen der Kette sein. Stattdessen wird aber der „Murks“ noch extra laut gemacht um einen positiven Eindruck zu schildern, was zugegeben oftmals gelingt. Denn: Laut klingt immet besser! Aber richtig hingehört wird bei vielen Songs oftmals nicht. In der Regel wird Sound und Lautheit bewertet, aber Arrangement und Wirkung bleiben auf der Strecke. Auch viele angebliche „professionelle“ Songs zielen auf mich keine Wirkung ab und dies hat tatsächlich nichts mit Geschmackssache zu tun. Ein spannendes Arrangement, schöne harmonische Hörgewohnheiten und musikalische Wirkung sind oftmals Fehlanzeige. Klingt blöd, ist blöd, aber ist eben so.

    • Profilbild
      moinho AHU

      @Filterpad 1. im Großen und Ganzen „ja“, aber
      2. laut klingt nicht immer besser. Man kann wahre Wunder erleben, wenn man nen schön klingenden Track so lautdreht, daß der bei 83dB SPL liegt, und danach nen lauteren Titel anhört. Sehr empfehlenswert.
      (und ja, 83dB SPL ist nicht mit jeder Wohnsituation kompatibel).

      Und ad 1: Über „Tolle Komposition, spannendes Arrangement und perfekter Mix auf die Schnelle“ habe ich nicht geschrieben, dafür gibts nen Grund ;).

  2. Profilbild
    Flowwater AHU

    Vielen lieben herzlichen mit ganz viel Zucker bestreuten Glanzdank für diesen Artikel. 😃👍

    OK, jetzt da ich den Satz noch mal lese klingt das irgendwie sarkastisch … ist aber nicht im Ansatz so gemeint: Ich meine das wirklich ernst. Ich plage mich bei meinen eigenen Tracks immer sehr beim »Mastering«. Das ist bei mir zwar wesentlich einfacher gestrickt, macht aber trotzdem ein Heidenarbeit. Von daher ist jedes Fitzelchen an Information extrem hilfreich und inspirierend.

    Bei mir gehört zur »tatsächlichen Arbeit« noch der Punkt »Monokompatiblität«, also einmal den Track in Mono hören, ob man auch tatsächlich immer noch alles hört. Die »Makrodynamik« erledige ich dagegen schon im Mix; bei mir sind es ja immer meine eigenen Tracks, die da von mir »gemastert« (hust, hust) werden.

    Kleiner Nebeneffekt bei mir beim Mastering:
    Wenn ich dann soundtechnisch mit dem Endergebnis selber zufrieden bin, habe ich einen Track mit allem Drum und Dran locker über 100 mal gehört (Komposition, Arrangement und Mixing eingeschlossen). Wenn er mir dann nicht mit Karacho zum Hals heraus hängt … dann habe ich vermutlich was richtig gemacht. 😀

    • Profilbild
      moinho AHU

      @Flowwater Danke für Deinen Kommentar, und ich folge Deinem Vorschlag und deute den ersten Satz nicht als „sarkastisch“ ;).

      „Monokompatibilität“ stimmt freilich, die erledigt sich bei mir wiederum schon bei Mix oder Aufnahme. Eine Indikation kann dazu die M/S-Ansicht geben, aber für die wichtigen Aussagen brauch‘ ich dann doch den Korrelationsgrad. Frage in die Runde: gibts da nen Trick, wie man das auch „schnellschnell“ machen kann?

      Gruß & Dank!

      • Profilbild
        TobyB RED

        @moinho Bau dir einen entsprechenden Channelstrip in der DAW und hab ein Auge drauf. Ich habe auf einem Bildschirm immer ein Multimeter und Korrelation nebst Analyzer laufen. Das hilft bei der Aufnahme Phasenschweinereien zu entdecken. Was bei der Arbeit mit Instrumenten Effekten nützlich sein kann. Spart im Nachgang Zeit. Für den Mixdown auf 2 Spuren lass ich alle Dynamik FX weg und bei -6db ist Schluss. So hab ich noch genügend Reserve. Das Mastering mach entweder in Echtzeit als analoge Zweispur und gehe vielleicht noch über Magnetband und nehme mit Hinterband wieder ab und jage das über Buscomp/Finalizer und EQ und Sonic Maximizer wieder in den Rechner. Was ich nicht mache, ist großes rumbasteln am Masterbus. Der ist eingestellt und funktioniert für mich.

  3. Profilbild
    Lapin

    Danke das werde ich beim nächsten Export für Soundcloud als grobe Orientierung hernehmen.

  4. Profilbild
    Stratosphere AHU

    Warum sollte ich ein Stück, an dem Musiker viele Stunden gearbeitet habe, schnell mastern ?
    Es geht hier nach dem Mix um das klangliche Sahnehäubchen, der gewünschten Lautheit und dem Zielformat.

    Eine bewährte Kette von Prozessoren macht Sinn um aus gewonnener Erfahrung die optimalen Einstellungen zu wählen.
    Dazu braucht es aber eine gute Abhöre, sonst klingt es nur am Ort des Masterns gut.
    Hören von bekannten Referenz-Tracks und der Wechsel zwischen Vorher/Nachher ist hilfreich.

    Auch ich schneide unterhalb von etwa 30Hz mit einem steilen Hochpass alle Frequenzen ab.
    Ab etwa 150 Hz senke ich gerne mit 12db/Oktave die Seitensignale ab. Das schafft Klarheit im Bass und verringert Phasenprobleme.
    Die Stereobreite lässt ich recht gut durch leichte Anhebung des Seitensignals bei höheren Frequenzen steuern.

    Komprimiert wird nur leicht (Ratio um die 2) mit Attack bei 50ms und Release um die 100ms.
    Der Limiter arbeitet mit Oversampling, True Peak Limiting und dem zur Abtast Frequenz passenden Dithering.
    Für Wärme und seidige Höhen nutze ich Pulte EQP-1 Simulationen. Wärme alleine können auch Plug Ins wie Saturn liefern.

    Schnell geht da für mich nix, da jeder Song individuelle Einstellungen fordert.
    Zum Schluss zählt das Ergebnis das mich und den Hörer begeistern muss.

  5. Profilbild
    Clueless

    „Für Fades verwende ich … In beiden Fällen mache ich das blind … ich hörs mir nicht an“
    Bei so manchem Fade-Out habe ich mich gefragt, wie man das so schlecht hinbekommt.
    Jetzt weiß ich es.

    • Profilbild
      moinho AHU

      @Clueless Um das Mißverständnis aufzuklären:
      mit der zitierten Passage waren Fades von und nach (nahezu) Stille gemeint. Aus der Sicht des Zuhörers kein wahrgenommenes Fade sondern eher was, was auffällt, wenns fehlt. Für die anderen Fades:
      „Mir fehlt da die Erfahrung – da muß ich mir’s anhören.“

      • Profilbild
        Clueless

        @moinho „mit der zitierten Passage waren Fades von und nach (nahezu) Stille gemeint.“
        Genau darauf bezog ich mich.

  6. Profilbild
    Marco Korda AHU

    Ich kann nur jedem raten, das Mastering den Profis zu überlassen. Es geht nicht darum, nur ein paar dB lauter zu machen. Mastering ist die Sahne, die den Songs letztlich ein paar Prozente Qualität mit einbringt. Übrigens: Seine eigenen Songs zu mastern ist eine heikle Angelegenheit; man hat einfach zu wenig Abstand dazu und dann geht es oft in die verkehrte Richtung. Es bedarf einiges an Erfahrung für diesen Prozess. Und feines Outboard-Gear (nach meiner Meinung, ITB geht auch, erreicht aber nicht die Qualität, die ich mir vorstelle).

    • Profilbild
      oosborne

      @Marco Korda Das nehme ich etwas ambivalenter wahr: Als Homerecorder mache ich alles unprofessionell. Es würde wahrscheinlich alles besser werden, wenn ich Profis beauftrage. An welcher Stelle ich das mache und für welche der 25 Rollen, die es im Rahmen einer Produktion gibt, hängt sehr stark von meinen Fähigkeiten ab. Den Punkt mit der Distanz zum eigenen Produkt sehe ich auch – da kann aber auch der befreundete Hobbymaster helfen.

      • Profilbild
        moinho AHU

        @oosborne Ich hab‘ die Rollen nie nachgezählt, aber „25“ klingt recht zutreffend 😀.
        Dazu kommt neben den Randbedingungen, die Du genannt hast, noch das „will ich das machen?“, „will ich mir die Zeit dafür nehmen?“ und „was ist die finanzielle Situation?“ Der wißbegierige Schüler aus ner normalen Familie, der außer Musik keine Hobbies hat und für die Schule wenig Zeit aufwendet weil er schlau ist wird die Frage u.U. anders beantworten als der archetypische vielgefragte „Blues Lawyer“, der eigentlich nur Gitarre spielen will und das, was der Mastering Engineer fürs ganze Album verlangt, auch mal in einer Stunde E-Stellen-Beisitz oder so verdient.

        Ungekehrt die rein persönliche Sichtweise: wenn ich was „outgesourct“ habe von den technischen Sachen, dann wars der Master. Aber das wäre ein komplett anderer Artikel…

  7. Profilbild
    nfm

    Ja gut, Mastern nach Zahlen… mir ist schon klar, dass hier nicht das bestmögliche Mastering angestrebt wird.
    Nur den Tipp, das low end mit einem phasenstarren EQ zu cutten, halte ich zumindest mal für problematisch.
    Je tiefer und steiler der Filter angesetzt wird, desto mehr neigen phasenstarre EQs zu einem pre-ringing, vereinfacht gesagt versaut das die Transienten im Bass.
    Phasenstarre EQs sind sinnvoll um zB. einzelne Spuren einer Multitrack Schlagzeugaufnahme zu bearbeiten.
    Da man hier erfahrungsgemäß den EQ schon mal kräftiger bedienen muss, kann es von Vorteil sein, wenn man bei drastischen EQ Settings die Phasenlage erhalten kann.
    Aber auf einer Summe macht für mich deren Einsatz eigentlich keinen Sinn.

  8. Profilbild
    zeepastian

    Vielen Dank für diese hilfreiche Einführung!
    Mastering empfinde ich häufig als mystisch und mein Einsteiger-Gehör nimmt bei vielen YouTube-Tutorials kaum A/B-Unterschiede wahr (abgesehen von Lautstärkeveränderungen durch Kompression/Limiter). Entsprechend ist es nur pragmatisch zu überlegen, diese Detailjustagen gleich wegzulassen, als Hobbyist hat man ja meist auch nicht ewig Zeit :)
    Dass man das auch anders sehen kann, ist klar…

Kommentar erstellen

Die AMAZONA.de-Kommentarfunktion ist Ihr Forum, um sich persönlich zu den Inhalten der Artikel auszutauschen. Sich daraus ergebende Diskussionen sollten höflich und sachlich geführt werden. Politische Inhalte und Statements werden durch die Redaktion gelöscht.

Haben Sie eigene Erfahrungen mit einem Produkt gemacht, stellen Sie diese bitte über die Funktion Leser-Story erstellen ein. Für persönliche Nachrichten verwenden Sie bitte die Nachrichtenfunktion im Profil.

X
ANZEIGE X