ANZEIGE
ANZEIGE
ANZEIGE

18. Juli 2022

Redundanz im Tonstudio

Es gibt ein Thema im Studioalltag, das mich schon seit Langem beschäftigt. Die Redundanz.  Darunter verstehe ich das mehrfache Abspeichern gleicher Daten an verschiedenen Orten. Eigentlich versuche ich bereits das Abspeichern an verschiedenen Orten zu vermeiden, das sollte dann eher als verzettelt wie als redundant bezeichnet werden.

ANZEIGE

Dieses Problem tritt ziemlich häufig auf und erschwert vor allem den Langzeitnutzen meiner eingespielten Musikstücke. Ich habe des Öfteren Aufnahmen aus dem letzten Jahrtausend in die Jetztzeit transformiert. Oft für andere Musiker, die nach vielen Jahren ihr Hobby wieder aufnahmen, aber nicht bei null beginnen wollten.

Dabei zeigten sich immer die gleichen Probleme, die Songspur sagte: D50, Wavestation, VFX, aber die Instrumente waren längst verkauft, gingen nicht mehr, oder die dazugehörige Soundbank war unauffindbar. Probleme gibt es auch, wenn der Program Change evtl. mit BankSwitch-Befehl nicht in der Spur mit aufgezeichnet wurde. K2000 sagt heute wenig aus, da der interne Speicher damals schon 999 Sounds aufnehmen konnte, externe, die wurden damals über Diskette oder Harddisk nachgeladen, mal ganz ausgenommen. Bei den genannten Synths wäre es mit einigem Aufwand noch möglich, ein virtuelles Gegenstück oder ein geliehenes Instrument zu verwenden. Spätestens bei eigenen verwendeten Soundbänken ist dann Schluß mit lustig.

Es ist schön und gut im hier und jetzt zu leben, aber bei vielen gibt es noch eine (musikalische) Zukunft, die weit entfernt sein könnte. Dazu habe ich Vorkehrungen getroffen.

So weit wie möglich alle Informationen an einem! Ort speichern. In meinem Fall wäre das die DAW. Dafür muss ich Vorkehrungen treffen.

Alles doppeln, alles beschriften

Jeder aufgenommene Hardwaresynth, auch mitspielende iOS Synths, hat zwei Spuren. Eine gemutete Audioaufnahme des Takes, sowie die MIDI Spur dazu (bei Bedarf auch umgekehrt).

Unter dem Drummer zwei Spuren mit gleichem Inhalt, rot: MIDI, lila: Audio. Für die Arbeit wird eine Spur gemutet.

Ganz wichtig in diesem Zusammenhang: Alle Tracks/Sequenzen genau beschriften.  Also „Wavestation ROM 04, #00 Mr. Terminator“. Das gibt mir zumindest die Chance, das in einem Dutzend Jahren wieder zu rekonstruieren.

Immer mehr alte Schätze erscheinen als virtuelle Instrumente, die immer öfter auch die Soundbänke der Originale akzeptieren. Die Generation ab ca. 85 war zum grössten Teil digital, das lässt sich fast 1:1 in PlugIns übersetzen. Eigene Sounds also am Ende des Tracks als SysEx dumpen und mit dem Song abspeichern. Es gibt SysEx Filter in vielen Programmen und in allen Synthies, achte darauf, diese davor zu deaktivieren. Theoretisch könnten SysEx Dumps auch am Anfang stehen, dann muss ich aber darauf achten, dass alle Dumps fertig gesendet wurden, bevor der Song z.B. bei Takt 15 losgeht. SysEx Daten dürfen nicht durch andere MIDI Daten unterbrochen werden. Am Ende ist daher meist die bessere Wahl.

Sounddesign in der DAW?

Hat der Synth Effekte im Klang eingebaut, deaktiviere ich diese gerne mal und verwende die der DAW, ausser bei sehr gelungenen Soundkreationen, wo der Effekt den eigentlichen Sound macht. Da ist es meist sinnlos, das nachzubauen.

ANZEIGE

Splits/Doubles und Multis gehören nach meiner Vorstellung in die DAW und nicht in den Hardwaresynth. Heute verwende ich ohnehin oft nur noch einen Sound aus einem Tonerzeuger/Instanz. Das ganze gilt natürlich nicht für Livemusiker, da gibt es ganz andere Voraussetzungen.

Sequenzer verwende ich nicht im Instrument, das lohnt sich (für mich) nur in sehr seltenen Fällen. Drumsimulationen wie z.B. BFD (ja, ist nicht mehr so verbreitet, dürfte aber bei Toontracks etc. ähnlich sein, den habe ich aber nicht) verhalten sich für mich so, als gäbe es keine DAWs und bieten alles innerhalb des Programms an. Aber wer, ausser den Vorführern dieser Programme würde die Standalone Version so eines Programms verwenden? Ja, klar, es gibt ein paar da draussen, die machen das auch, gerne. Für mich ist das allerdings Teil der DAW und diese sollte auch die Sequenzen dazu verwalten. Diese lassen sich oft als MIDI Datei exportieren/einbinden.

Das Ganze geht weiter mit dem Sounddesign. Muss nicht, kann aber sehr gut. Möchte ich einen Sound andicken, geht das genauso gut, für mich eher besser in der DAW als im Instrument. Einfach den gleichen Sound nochmal in der Spur darunter. Moduliert, verzögert, detuned, oder alles zusammen, da gibt es kaum Grenzen. Es ist überhaupt kein Problem, einen 7-fach Stack (wer braucht so was?😇) mit einer einzigen Spur zu spielen. Und die Optionen, was ich alles mit einem Sound anstellen kann, gehen hier deutlich weiter, als im Instrument selbst. Meinen SY 77, den ich programmieren kann, ändere ich viel schneller in der DAW, wenn es nur ums Doppeln, Detunen, Splitten etc. geht. Die Instrumente bieten einfach nicht die gleiche Breite und Bequemlichkeit an Eingriffsmöglichkeiten, die ich mit einem 27“ WQHD und einem zweiten FullHD Screen habe. (Mein momentanes Setup, bei Bedarf nehme ich mein iPad Pro als 3. Screen dazu.)

https://youtu.be/GLiA5NoPQL8 zeigt, wie ich mit 4 kostenlosen (fast) PlugIns von u-he einen Stapelklang erzeuge.

Hier sind 4 freie PlugIns von u-he als Stapelklang angeordnet. Ein Tastendruck spielt alle vier gleichzeitig.

Wavesequencing selbst gemacht

Wavesequencing hier mit einer Handvoll Sequenzen, die ich bei Bedarf modifiziere, hier im Beispiel die Reihenfolge der Töne in der letzten Sequenz umdrehe. Interessant auch die Option, die Sequenz zu stauchen/auseinanderziehen, was zusammen mit weiteren Spuren interessante Multi-Rhythmus-Ergebnisse bringen kann.

Eine chromatische Tonfolge steuert verschiedene Sounds an. Im verlinkten Video genauer erklärt.

Wavesequenzing mache ich seit Ende der 80er immer mal wieder mit einer chromatisch ansteigenden Tonfolge, die verschiedene Ziele bei Tonerzeugern ansteuert. (Das hat ReCycle zuerst so umgesetzt, heute ist das gängig). Da gehen auch billige GM Module, vor allem der Drumbereich bietet bei denen oft viel. Sehr variabel und auch zukunftssicher, ich kann ja eine gelungene Sequenz direkt in den (idealerweise Software) -Sampler übernehmen und dort abspeichern. Bei bedarf lasse ich mehrere Wavesequenzen parallel, zeitlich verschoben, was auch immer mir einfällt, nebeneinander laufen. Ich kann die Einzeltöne in eine andere Reihenfolge bringen, kann mehrere verschiedene Bausteine wie Lego umordnen.

YouTube

Mit dem Laden des Videos akzeptieren Sie die Datenschutzerklärung von YouTube.
Mehr erfahren

Video laden

YouTube

Mit dem Laden des Videos akzeptieren Sie die Datenschutzerklärung von YouTube.
Mehr erfahren

Video laden

Die Videos zeigen, wie ich Wavesequenzen auf zwei verschiedene Weisen selbst erstelle.

Ganz wichtig: wer vorausschauend arbeitet, speichert neben der Ausgangsdatei eine zweite Datei ab, bei der jede! Spur an der gleichen Stelle beginnt. Setzt eine Spur erst bei Takt 81 ein, wird das davor mit Stille aufgefüllt. Ausserdem sollten alle Schnitte einer Spur zusammengeklebt werden, so dass eine Spur nur noch aus einem Element besteht. Dann kann ich meine musikalischen Ergüsse jedem anderen weitergeben. Dieser kann einfach jede Spur bei 1 oder 5 oder wo auch immer anlegen – fertig.

Alle Spuren beginnen bei 1. Für den Export ideal. Hier geschnitten, weil es die verschiedenen Songs eines Liveauftritts sind

Die (fast) ideale Version zum Aufbewahren oder weitergeben. Nur Track 20 muss noch geklebt werden, er besteht aus zwei Teilen. Hier nur Audio, ist mit MIDI aber genau so. Jede DAW würde diesen Export ohne Probleme weiterverarbeiten

Ein letztes noch. Einen Computer, der auch mit alten Dateiformen zurecht kommt, würde ich aufbewahren. Bei mir wäre das Ideal als MacUser seit den 80ern bei einem PowerMac G3, der letzte Computer mit SCSI aber gleichzeitig auch IDE oder PATA genannt (ich mache gerade einen Job, konvertieren von Iomega Jaz Dateien, das war eine um die Jahrtausendwende populäre Lösung mit Wechselplatten (1 und 2 TB, das können heute Wegwerf-Sticks) und SCSI). Windows User sollten einen Rechner einlagern, der noch XP, evtl. Sogar noch 98 SE kann UND über eine USB Option verfügt, sonst muss ich Parallel ATA (IDE) Platten in neue Rechner einbinden.

Das Ganze ist jetzt vielleicht nicht so sexy wie ein Haufen rarer, alter Instrumente in einem großzügigen Studio, die gut gewartet, verkabelt, alle einzeln angespielt werden können. Das ist sicher auch eine gangbare, für einige vielleicht auch inspirierendere Arbeitsweise, aber ganz sicher nicht die Nachhaltigste. Aber auch da gelten einige der gemachten Statements. Überhaupt, es gibt nicht nur schwarz und weiss. Wir alle bewegen uns fast ausschliesslich im Graubereich. Ich habe lediglich für mich selbst diese Vorgehensweise gefunden und finde sie sinnvoll. Trotzdem spiele ich ab und an gerne mit dem Sequenzer z.B. in der Odyssey App auf dem iPad (hellgrau). Die ist aber auch besonders gut gelungen.

ANZEIGE
Fazit
Etwas umsichtig mit seinen eigenen Daten umgehen, zahlt sich eigentlich immer aus. Gilt natürlich nicht nur für Musik. Das teilweise Verlagern des Sounddesigns in die DAW ist immer eine Überlegung wert.
ANZEIGE
Forum
  1. Profilbild
    lunatic AHU

    Eine schöne praxisnahe Lektüre zum Wochenstart, danke Gaffer. Ich beschrifte erst seit ein paar Jahren ausführlich, seitdem erspare ich mir viel Chaos und Kopfschmerzen. Fast schon spießig professionell;)

  2. Profilbild
    gaffer AHU

    Das kann ich nachvollziehen Lunatic. Ich gehöre sonst auch eher zur Chaosfraktion. Nur beim Rechner bin ich inzwischen relativ humorlos.

    • Profilbild
      lunatic AHU

      Zugegeben, wenn man schon den Spuren Namen gibt können die auch logisch und ausführlich sein. Kostet nur ein paar Sekunden mehr. Es ist letztlich ein Prozess an den man sich schnell gewöhnt.
      Was ich mir jedes Jahr
      erneut vornehme ist das Beschriften von Kabelenden. Da habe ich richtig richtig Horror vor. Ne Woche plane ich da ein. Aber danach muss es ein Traum sein. Vielleicht dieses Jahr😆

  3. Profilbild
    gaffer AHU

    Exakt, so geht es mir auch. 16 schwarze Kabel kommen aus einem Wirrwarr in den USB Hub, Horror. Wenigstens bei den Netzteilen habe ich es geschafft.

  4. Profilbild
    Django07

    Sehr hilfreicher Artikel. Ich hätte ihn vor 20 Jahren lesen müssen…

    In den letzten Monaten hatte ich versucht auf Song-Projekte aus der Jahrtausendwende zuzugreifen:
    – Das Datenformat war nicht mehr kompatibel: zum Glück jemanden gefunden, der eine Konvertierung gegen Einwurf kleiner Münzen macht
    – Dann: CDR vom Discounter sind nach 20 Jahren nur mit Glück zu lesen. Das bedeutet, die Hälfte der Aufnahmen sind verloren.
    – Alle Synth-Tracks sind verloren: Die Spuren sind nicht oder sinnlos beschriftet: „Spur 1, Sound fett, Holla Doppel…“ Der alte Roland mit den gespeicherten Multis ist natürlich seit mehr als zehn Jahren in anderen Händen.

    Da mir gerade sowieso keine Hits einfallen werde ich die nächsten Tage darauf verwenden, einige der guten Hinweise bei den Projekten umzusetzen, die ich noch unter Kontrolle habe bzw. noch verstehe. Vielen Dank!

    • Profilbild
      gaffer AHU

      Da wünsche ich dir Glück und Spass. Beides sinvoll. Aber ich habe gut reden, glücklicherweise habe ich keine Projekte mehr von damals. Und mein computergestützter Einsatz in der Musik begann 83, also im ersten MIDI Jahr. Dafür habe ich noch Casetten aus noch früherer Zeit.

Kommentar erstellen

Die AMAZONA.de-Kommentarfunktion ist Ihr Forum, um sich persönlich zu den Inhalten der Artikel auszutauschen. Sich daraus ergebende Diskussionen sollten höflich und sachlich geführt werden. Politische Inhalte und Statements werden durch die Redaktion gelöscht.

Haben Sie eigene Erfahrungen mit einem Produkt gemacht, stellen Sie diese bitte über die Funktion Leser-Story erstellen ein. Für persönliche Nachrichten verwenden Sie bitte die Nachrichtenfunktion im Profil.

ANZEIGE