ANZEIGE
ANZEIGE
ANZEIGE

Test: Dreamtonics Synthesizer V, Vocal-Synthesizer

Vocals selbst designen

27. Dezember 2024
dreamtonics synthesizer v test KI tool

Dreamtonics Synthesizer V, Vocal-Synthesizer

Das Erstellen von Musikinstrumenten, zu denen letztlich auch die menschliche Stimme zählt, gehört für mich zu den interessantesten neuen Forschungsfeldern im Rahmen der Auseinandersetzung mit künstlicher Intelligenz. Dreamtonics Synthesizer V aus Japan ist hierbei ein besonders interessantes Tool, mit dem Vocals erschaffen werden können.

ANZEIGE

Was kann Dreamtonics Synthesizer V?

Synthesizer V kann realistisch klingende Stimmen erzeugen, indem man Noten einzeichnet, Text eingibt oder beides selbst einsingt. Dabei sind tiefgehende Edits möglich, um das Ergebnis zu verbessern. Synthesizer V arbeitet mit sogenannter Concatenative Synthesis und Artificial Neural Networks, um Quellsounds zu analysieren und laufend zu verbessern. Auch Yamahas Vocaloid Software benutzt diese Technik, deren Entwicklungsbeginn ich vage auf etwa das Jahr 2000 zurückdatiere.Man kann kostenlos mit einer Free-Version arbeiten, aber auch eine Pro Version sowie weitere Stimmen mit verschiedenen Charakteristiken dazu kaufen. Die gleiche Firma bietet ergänzend und im Bundle mit Synthesizer V das Programm Vocoflex an, um darüber hinaus selbst Stimmmodelle zu erzeugen und Vocals (inklusive beliebiger Gesangsaufnahmen) nachgelagert zu bearbeiten. Dieses wurde bereits hier auf AMAZONA.de getestet.

Übersicht

Eine Übersicht von Synthesizer V im Standalone Mode

Synthesizer V agiert sowohl Standalone als Software-Instrument als auch als Plug-in, zusätzlich gibt es ein ARA (2) Effekt-Plug-in mit verschiedene Ausführungen, Anbindung in unterschiedlichen Formaten und auf verschiedenen Plattformen. Im komplett synchronisierten ARA-Modus ändert sich der Workflow gegenüber der Standalone-Version leicht. Darauf weist das gute und ausführliche, aber nur online und nicht als PDF bereitstehende Manual hin. Im Test konnte ich mit den Stimmen Kevin, Ritchy, Natalie und Mai arbeiten, nur Mai ist kostenlos dabei.

Vorgeschichte und Weiterentwicklung

Ich habe Synthesizer V schon vor etwa eineinhalb Jahren entdeckt und damals auch schon einem Test unterzogen. Mir gefällt es, nach legalen Möglichkeiten von KI zu suchen, die mir als Musiker und Sounddesigner Eingriffsmöglichkeiten geben, um das Ergebnis individuell zu gestalten. Die Firma Dreamtonics vermittelt für mich einen seriösen Eindruck. Anfragen werden präzise, höflich und auch ein wenig förmlich beantwortet. Zudem hat es seitdem eine Reihe von Verbesserungen in Form von Updates sowohl für Synthesizer V als auch für Voices ohne kostenpflichtige Upgrade-Pflichten gegeben. Man kann also von einer guten Produktpflege sprechen. In Synthesizer V wurden zuletzt eine verbesserte ARA2-Integration, Voice-to-MIDI Optionen, Spanisch als neue Sprache, eine AAX-Version und eine optimierte Anbindung an FL Studio (mit FL Studio Link) integriert. Auch durch Analysen von User-Einstellungen werden Synthesizer und die Voice-Models im Hintergrund hier wie dort laufend verbessert. Ob man bereit ist, entsprechende Daten zu senden, lässt sich in Synthesizer V einstellen. Zum Testzeitpunkt und nach einer längeren Nutzungspause konnte ich für all meine vier Voice-Models Updates herunterladen.

Wie arbeitet man mit Synthesizer V?

Ihr könnt auf mehreren Spuren Vocals erzeugen, indem ihr zunächst eine Stimme auswählt, Noten mit Werkzeugen einzeichnet, Text auf verschiedene Weise eingebt oder die zu singende Phrase selbst einsingt. Das Ergebnis lässt sich im Detail justieren und bringt überraschend überzeugende Resultate, wobei ein wenig Künstlichkeit heute in moderneren Genres ja fast schon zu den Hörgewohnheiten gehört. Mir standen im Test die Stimmen Kevin, Ricky (Rap), Mai und Natalie zur Verfügung.

Wie funktioniert das? In meinem ersten Versuchen habe ich zunächst eine Stimme ausgewählt, dann Noten wie bei einer Pianorolle eingezeichnet, Text in die Noten herein geschrieben und sie dann an entsprechende Takt- und Tonhöhenpositionen verschoben. Text wird bei Bedarf an die Länge der Note angepasst. Man arbeitet grundsätzlich ähnlich wie in einem typischem Pianorollen-DAW-Editor.

Noten

Silbentexte in Noten lassen sich per Doppelklick editieren

Alt + Copy & Drag funktioniert allerdings nicht, Selektion + Cmd/ Strg + C  bzw. V zum Kopieren und Einfügen klappt. Ich fühle mich hier ein wenig, als müsste ich eine DAW neu lernen. Das ist insofern gut, als der Hersteller an die Details gedacht und sie meist sinnvoll untergebracht hat. Die Bedienung ist aber auch ein wenig anspruchsvoll. So kann z.B. eine Note mit gehaltener Shift-Taste transponiert werden, ohne zu verrutschen. Aber Vorsicht, das klappt nur, wenn in einem sehr klein dargestellten Flip-Menü kein Snap-Wert zum Einrasten eingestellt ist. Soll eine Wort über zwei Noten gesungen werden, setzt man in die zweite Note ein „+“-Zeichen, um dem Programm dies mitzuteilen. In eine weitere Note lässt sich auch ein „-„-Zeichen einfügen, um etwa einzelne Vokale über mehrere Noten zu verlängern. Das „+“ Zeichen kann darauf folgen, um das Ende des Worts zu markieren.

Damit der Text passend positioniert wird, kann es sinnvoll sein, eine Note der gleichen Tonhöhe in zwei Teile zu zerschneiden. Synthesizer V hilft auch, indem es Lücken aufzeigt und entfernt. Mit der Silbe „br“ lassen sich Atempausen einbauen, auch Buchstabenbetonungen lassen sich ändern. Um Lyrics schneller einzugeben, kann man alles selektieren, dann Cmd/Strg + L drücken und die Funktion „Insert Lyrics“ nutzen. Hierbei ist die korrekte Eingabeform oder Syntax bezüglich der +/- Zeichen und der Eingabe von Leerzeichen zu beachten, durch welche die Zuweisung von Noten erfolgt.

Insert Lyric

Über den Insert Lyric Dialog fällt die Texteingabe leichter

Audio importieren oder einsingen

Es gibt, wie angedeutet, aber auch die Möglichkeit, eine Audiodatei einzusingen oder ein Audiofile zu importieren, um daraus MIDI-Noten zu erzeugen, die die Synthese-Engine ansteuern. Via Rechtsklick auf ein importiertes Audiofile (Synthesizer V bietet Konvertierung von MP3 zu WAV automatisch an) gelangt man an die Option „Extract Notes from Audio“. Dabei lässt sich unter anderem die Empfindlichkeit höher einstellen, um Aufnahmen mit viel Bewegung richtig zu erkennen.

ANZEIGE
Voice to MIDI

So sieht der Voice to MIDI Dialog aus

Die Funktion kann dabei optional nicht nur Noten, sondern auch Text erkennen, wenngleich bezüglich der Syntax hier meist Nachbearbeitungen nötig sind oder manuelle Eingaben besser funktionieren und es noch keine deutsche Version gibt. Kleine Timing-Fehler lassen sich auch durch Selektion aller Noten und Anwendung der Funktion „Smart Quantization“ im Kontext ausbügeln.

Nachfolgend habe ich eine via Headset eingesungene Phrase „Ich singe für Amazona“ mit „Extract Notes from Audio“ bearbeitet. Zuerst hört ihr die Originalaufnahme. Im zweiten Beispiel sind die erkannten Sinustöne zu hören, es muss noch eine Stimme ausgewählt werden. Im dritten Beispiel hat die weibliche AI Mai naturgemäß etwas Probleme mit dem tiefsten Ton. Da „Deutsch“ keine integrierte Sprache ist, kommt auch beim eingegebenen Text teilweise nichts sinnvolles heraus. In Beispiel 4 kommt AI Kevin besser klar, statt „für“ habe ich „feur“ in die Texteingabe geschrieben.

Synthesizer V: Weitere Settings und Beispiele

Andere Bereiche mit Parametern oder das Arrangement lassen sich ein- und ausblenden. Es gibt viele Einstellmöglichkeiten: Pro Note sind z.B. Loudness, Tension, Breathiness, Gender, Tone Shift justierbar. Gender beeinflusst die Formanten. Eine Umschaltung auf Rap verändert den Charakter; das klappt aber natürlich nicht bei langgezogenen Inhalten, sondern eher bei kurzen Noten. Es ist möglich, Vocals durch Nutzung der Vocal Mode Einstellung und Presets kräftiger, sanfter oder emotionaler singen zu lassen. Dabei hängt es von der ausgewählten Stimme ab, welche Parameter zur Verfügung stehen. Diese lassen sich auch unten im Parameter Panel anzeigen bzw. automatisieren.

Hier weitere Beispiele, diesmal mit englischem Text. Zunächst singt die integrierte „Mai“ Stimme, danach „Mai „im Soft-Preset, dann zweimal „Mai“ in verschiedenen Tonhöhen mit Hilfe duplizierter Spuren, dann Rapper Ritchy, anschließend Rapper Ritchy im Singing-Mode und zum Schluss Natalie mit editierten, langezogenen Noten – und einmal auf Spanisch. Jede Stimme kann in jeder der vorhandenen Sprachen Englisch, Spanisch, Japanisch und Chinesisch (Mandarin und Kantonesisch) singen. Versuche mit spanisch überzeugten mich manchmal, aber nicht immer.

Durch Klicken auf die drei Striche oben im Fenster („Add Parameter Panel“) kann man eine Art Automationsansicht für Parameter einfügen. Dabei lassen sich dieselben Parameter wie oben genannt in einem „Parameter Panel“ genannten Editor automatisieren. Hier sind auch Kurven von Pitchverläufen editierbar.

Pitch Var

Im Parameters Bereich lässt sich hier Tonhöhenbewegung editieren, der angezeigte Bereich kann auch größer gemacht werden.

Chöre, Doublings und AI Retakes

Es ist auch möglich, durch Duplizieren von Spuren Chöre zu erstellen. Für einfaches Voice-Doubling reicht es, einen Alternativ-Take („AI Retake“, via ALT/Option T) mit Voices, die diese Funktion unterstützen, zu generieren. Es ist wie so oft, wenn es um den Vergleich von elektronischer und akustischer Musik geht: Während einerseits versucht wird, Ungenauigkeiten aus akustischen Aufnahmen zu beseitigen (z.B. mit VocAlign), ist es im Rahmen der künstlichen Erstellung oder Reproduktion eher die Aufgabe, Ungenauigkeiten ins Material hereinzubringen, damit es für unsere Ohren authentisch, vertraut und nicht zu langweilig oder glattgebügelt klingt.

Ai retake

Das Bild zeigt die AI Retake Option

Arrangw Chor

Das Chor Arrangement wird durch Duplizieren verschiedener Spuren erzeugt.

Nachfolgend wurde in Beispiel 1 Kevin einfach dupliziert, in Beispiel 2 hat eine der zwei Spuren einen AI Retake bekommen, so dass es besser nach Doubling klingt. Beispiel 3 macht dann einen Chor aus duplizierten Stimmen mit verschobenen Noten und Pan-Settings:

Vocoflex, Alternativen und Sonstiges

Ergänzend dazu lässt sich, wie angedeutet, das Programm Vocoflex von Dreamtonics nutzen, um Stimmen in die Richtung der Charakteristik einer anderen Stimme zu bringen. Das ist sogar live in Echtzeit möglich. Auf diese Weise kann ich auch meinen eigenen Gesang verbessern und/oder Synthesizer V und Vocoflex kombiniert einsetzen. Vocoflex und Synthesizer V lassen sich hierfür auch als Bundle kaufen. Wie funktioniert die kombinierte Anwendung? Die Bearbeitung in Vocoflex erfolgt typischerweise nach bzw. hinter Synthesizer V. So könnte Synthesizer V als Instrument und Vocoflex als Effekt eingebunden werden.

Vocoflex

So sieht in Vocoflex ein aus einem Audiofile generiertes Stimmprofil aus

KI-Nutzung erfolgt im kommerziellen Bereich oft eher vorsichtig bis gar nicht, doch ein erfolgreicher Produzent verriet mir zuletzt, dass sich das Einsingen eigener Vocals mit anschließender Verformung zu einer anderen Stimme zur gängigen Praxis etabliert hat. Das geht etwa via lalals.ai und Audimee mit wenigen Klicks. Synthesizer V und Vocoflex sind eine Alternative. In der Praxis hat man evtl. paar befreundete Vocal-Künstler*innen in der Nähe, die das Vorbild singen können. Es werden aber ja immer wieder ganz andere Gesangscharaktere gesucht. Dann hilft es, Stimmmodelle auf Eingesungenes anwenden zu können. Das geht schon in Synthesizer V. Dort gibt es aber nur eine beschränkte Anzahl von Stimmen, die meist noch dazu gekauft werden müssen. Vocoflex erlaubt eine Verfremdung auf Basis eines Vorbilds. In einem XY Koordinatensystem erscheinen Punkte, um Charakteristiken abzubilden. Wie viel mehr Technik genau hinter der relativ einfachen XY Darstellung steckt, darüber lässt sich nur spekulieren. Ganz neu erfunden wird das Rad hier natürlich auch nicht, schließlich gab es auch vorher schon Vocoder oder Harmonizer. Mit ein wenig Geduld kann man hier aber an interessante Ergebnisse kommen und in der Kombination ergänzen sich beide Programme aus meiner Sicht sehr gut.

Im folgenden Beispiel singe ich einmal unsauber und über ein internes Laptopmicro ein, daraus macht Synthesizer V die zwei Fragmente von Kevin und Ritchy – wie schon oben gehört. Diese beiden Fragmente laufen dann beide zuerst durch ein Vocoflex Preset, das aus der ersten, eher schlechten Laptop-Mic-Aufnahme – und danach durch eines, das aus der oben zu hörenden „Originalaufnahme“ mit Headset entstanden ist. Kevin und Ritchy klingen dann also wieder etwas nach mir.

Ein Detail ist mir bei genauerem Hinsehen noch aufgefallen: In Bezug auf Urheberrecht ist zu beachten, dass in der ansonsten benutzerfreundlichen Lizenzvereinbarung mit Dreamtonics noch steht, dass keine Sample CDs mit den Ergebnissen hergestellt werden und Ergebnisse auch nicht zum Füttern anderer KI-Tools verwendet werden sollen, auch wenn ich nicht ganz sicher bin, wie sie das meinen. Letzteres fände ich schade, denn beim Studium all der neuen KI-Tools kommt mir des Öfteren in den Sinn, dass eine übergreifende, kombinierte Nutzung mehrerer KI-Tools mitunter interessante und innovative Möglichkeiten eröffnen würde.

Hier habe ich noch kleine ergänzende Videos begleitend zum Test gemacht (einmal deutsch, einmal englisch):

Sie sehen gerade einen Platzhalterinhalt von YouTube. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.

Mehr Informationen

Sie sehen gerade einen Platzhalterinhalt von YouTube. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.

Mehr Informationen

ANZEIGE
Fazit

Synthesizer V ist ein Programm für Musiker, um sich nach eigenen Detailvorstellungen Vocals für das Arrangement zu erschaffen. Man kann dabei durchaus ein wenig Ahnung von Musik gebrauchen, etwa wenn man Noten mit Tonhöhe und -länge passend einzeichnet. Dreamtonic Synthesizer V ist ein Vocal-Synthesizer mit realistischen Klangeregbnissen, vielen Eingriffsmöglichkeiten und seriöser Produktpflege zu einem fairen Preis mit der weiblichen Voice AI Mai, die auch gut englisch singen kann. Hier lassen sich Vocals komplett aus dem Nichts oder auf der Basis eigenen Gesangs, insbesondere im Rahmen der unterstützen Sprachen Englisch, Spanisch, Japanisch und Chinesisch, völlig frei konfigurierbare Texte erstellen. Im Bundle mit Vocoflex zum Erstellen eigener oder zur Nutzung alternativer Stimmmodelle findet man hier einen üppigen Sounddesign-Baukasten für die Musikproduktion mit Vocals.

Die Übergänge zwischen authentischem Klang und Perfektion und zu viel Künstlichkeit sind fließend. Eine große Stärke von Synthesizer V liegt in der  Editierbarkeit im Detail. Zusätzliche Voices müssen allerdings extra bezahlt oder im Bundle gekauft werden. Man ist nicht an vorderster Front positioniert, was Angebote bezüglich realistischer Nachbildungen von Stimmen angeht. Die zahlreichen Einstellmöglichkeiten erlauben dafür Experimente, Verläufe und Automationen. Je nach Setting können sowohl die Ergebnisse aus Synthesizer V als auch die von Vocoflex durchaus orealistisch klingen – für meine Ohren sogar natürlicher als manche Pitchkorrektur-Bearbeitung echter Stimmen.

Plus

  • Realistische Erzeugung von Vocals ist möglich
  • Detaillierte Eingriffsmöglichkeiten im Editor erlauben präzise Justagen
  • Automationen sind möglich
  • Schnelle Texteingabeoptionen erleichtern die Arbeit
  • Doubling mit AI Retakes ist möglich
  • Mehrspurige Arbeit und Chöre sind möglich
  • Es gibt Plugin und Standalone-Versionen , incl. ARA- Optionen, AAX und FL-Studio Link
  • Zusätzliche Voice-Models können erworben werden
  • Ausführliche und detaillierte Dokumentation
  • Ausführliche Dokumentation

Minus

  • Das Manual ist nicht als .pdf verfügbar
  • Keine deutsche Sprachversion verfügbar

Preis

  • Dreamtonics Synthesizer V Bundle 1: 299,- Euro incl. AI Kevin, AI Natalie, AI Ritchy (+ AI Mai)
  • Dreamtonics Synthesizer V Bundle 2: 499,- Euro incl. AI Kevin, AI Natalie, AI Ritchy, AI Hayden, AI Ninezero, AI Sheena (+ AI Mai)
  • Basic Version (Standalone mit drei Tracks) kostenlos
  • Synthesizer V Studio Pro US$ 89,- incl. AI Mai
  • diverse Voices ca. US$ 79
  • Vocoflex US$ 199,-
  • Dreamtonics Vocal Creation (Synthesizer V + Vocoflex) + 2 Voices Bundle US$ 446,- (399,- Special Offer)
ANZEIGE
Affiliate Links
Dreamtonics Synthesizer V Bundle 1 Download
Dreamtonics Synthesizer V Bundle 1 Download Bisher keine Kundenbewertung verfügbar
Dreamtonics Synthesizer V Bundle 2 Download
Dreamtonics Synthesizer V Bundle 2 Download Bisher keine Kundenbewertung verfügbar
Klangbeispiele
Forum
  1. Profilbild
    Filterpad AHU

    Danke für den Testbericht und nach dem durchlesen bin ich extrem begeistert! Was für ein abgefahrenes Programm! Kaufen werde ich es aber nicht, weil die Entwicklung erst am Anfang steht. In 5 Jahren findet man ähnliches vermutlich in jeder DAW. War bei Programmen für Tonkorrektur oder Chordpads selbiges. Heute in jeder DAW oder sehr günstig zu erwerben. Ich warte noch ab, aber das wird safe Einzug halten sage ich vorraus. Japan-Pipsestimme Hatsune Miku scheint Geschichte zu sein. 😆

    • Profilbild
      Heiner Kruse (TGM) RED

      @Filterpad vielleicht hast Du Recht…aber man weiß es nicht. Tendenziell zahlt man heute ohnehin eher dafür, etwas „früher“ zu haben, wer warten kann, spart oft. Aber im Kontext von Imagepflege, juristischer Absicherung und allem drum & dran kann es auch durchaus sein, dass dieses Programm einzigartig bleibt. Als Alternative muss ich auch noch Yamaha Vocaloid nennen, hier arbeitet man ja schon sehr lange in diese Richtung.

    • Profilbild
      Flowwater AHU

      @Filterpad Klar. Wenn man etwas nicht unbedingt benötigt und nur ausprobieren und/oder experimentieren will … überhaupt kein Thema. 🙂

      Für Profis – die also ihr Geld damit verdienen – kann die Investition aber einfach bares Geld für Aufträge bedeuten. Beispiel, anderes Genre: Ich habe vor der Jahrtausendwende als Kameramann gearbeitet. Da brauchte ich einen Schulter-Camcorder (ca. DM 10.000, was noch sehr billig war) und einen dazu passenden Videorecorder (ca. DM 6.000). Von schnellen Festplatten (25 GByte SCSI für DM 800 das Stück) und den PC für den Schnitt mal ganz abgesehen. Ohne das hätte ich meine Arbeit nur sehr viel schlechter machen können. Heute gibt es unvergleichlich bessere Kameras für EUR 3.000 und einen Recorder braucht man gar nicht mehr, weil man die SD-Karten einfach so in den PC schieben kann. Ich hätte aber meinen Job gar nicht machen können.

      Und heute habe ich – etwas eingerostet – immer noch das KnowHow für Videoschnitt und wie man eine Kamera hält und ein Bild positioniert. Da ich sicherlich mal etwas mit Video auf YouTube und Facebook machen will, kommt mir das sofort zugute.

      • Profilbild
        CDRowell AHU

        @Flowwater Es ist total abgefahren, wie günstig und leistungsfähig das kreative Arbeit geworden ist. Toll, wenn man da noch KnowHow mit einbringen kann. Und seit Vocaloid suche ich nach einer guten Lösung für synthetischen Gesang… Mal sehen, ob es SV wird.😁

        • Profilbild
          Flowwater AHU

          @CDRowell Ja, absolut, das ist der Hammer! Deswegen habe ich auch keine Probleme, mal hundert Euro locker zu machen auch um etwas auszuprobieren (letztens bei mir die Software-Version vom Waldorf »Blofeld«, und ich wollte dieses Jahr echt nix mehr kaufen, inzwischen spiele ich jeden Tag mit dem Blofeld herum). Wenn’s noch teurer wird, dann will das auch bei mir überlegt sein … aber oftmals denke ich mir auch, dass meine Musik sicher von den meisten Käufen profitieren wird … und man nimmt sich selber auch – nicht immer, aber oftmals – ernster, wenn man ganz bewusst in das, was man macht, Geld investiert. 🙂

          • Profilbild
            CDRowell AHU

            @Flowwater 😂👍
            Jetzt, nachdem ich die Try-Version von SV ausprobiert habe, muß ich sagen: das war jetzt der letzt Kauf für dieses Jahr! (Fällt mir nicht schwer…)

            So, nun geht es mal an die Studio-Version von SV…😎

  2. Profilbild
    Gero van Apen

    Ich benutze Synth V seit einiger Zeit und bin extrem begeistert! Man kann sogar eigene Scripte dafür schreiben (in Lua oder Javascript), mit denen man zB die Stimme verändern kann.
    So kann man Solaria auch growlen lassen :-D, siehe hier:
    https://www.youtube.com/watch?v=8Lb08IkOaV8

    Zu vocoflex sei noch gesagt, dass es offenbar nur unter windows 11 läuft und dass Dreamtonics vor dem Kauf verlangt, dass man sich mit einer digitalen Ausweiskopie bei einem Drittanbieter online verifiziert (was datenschutzrechtlich meiner Meinung nach nicht ganz unbedenklich ist).

    • Profilbild
      Flowwater AHU

      @Gero van Apen
      >[…] dass man sich mit einer digitalen Ausweiskopie bei einem Drittanbieter online verifiziert […]

      Ach Gottchen, da hat wieder jemand Angst um seine ach so wertvolle Technologie. Können sie dann gerne behalten.

      • Profilbild
        Mahlzahn

        @Flowwater Damit verhindert die Firma folgendes: „usage of voice samples without the singer’s consent“
        Das geschieht mit Hilfe eines „audio watermark“. Der ist mit dem Benutzer verknüpft.
        Für mich nachvollziehbar.

        • Profilbild
          Gero van Apen

          @Mahlzahn yo, exakt das Gleiche wollte ich auch gerade antworten ;-)
          Für mich auch nachvollziehbar und das würde mich auch nicht daran hindern, Vocoflex zu kaufen. Aber ich bin noch mit windows 10 unterwegs. Hatte mal bei Dreamtonics nachgefragt, ob es auch unter windows 10 laufen würde. Kann nicht garantiert werden… war die Antwort.

    • Profilbild
      Marco Korda AHU

      @Gero van Apen Nein, Vocoflex befindet sich in meinem Besitz und es läuft unter Mac einwandfrei.

      Die Ausweisgeschichte verlief sehr unkompliziert.

  3. Profilbild
    carsten weidenhaupt

    Moin, ich nutze auch schon ewig V-Synthesizer.
    Dies ist mal die Gelegenheit auf zwei meiner Alben hinzuweisen, wo ausschließlich Solaria(Stimme von V-Synthesizer) und Lucy(noch so ein Programm, genannt Emvoice) singen.
    https://www.feiyr.com/x/BTYGE
    https://www.feiyr.com/x/BTHLA

    oder youtube:
    https://youtube.com/channel/UCdwa5DgNUgX18N8w8IwmpfA?si=OTXJmtxyGfN3Hxd0

    Wenn man Sängerinnen und Sänger braucht und nicht die Bude voller verrückter, versoffener und rumträllernder Pseudo-Individualisten haben will, sind V-Synthesizer und Emvoice ok. Schade nur dass es gar keine deutschsingenden Virtuellen gibt. So muss ich weiterhin selbst des Nachts in mein Mikro grummeln und damit die Mitbewohner wecken.
    Aber irgendwie ist es ja auch nicht schlecht, dass es noch das Modulieren mit körpereigenen Teilen gibt und es theoretisch auch mit der eigenen körperlichen Ausstattung möglich wäre, stimmmodulierte Töne zu erzeugen.
    Viele Grüße und guten Rutsch
    Carsten Weidenhaupt (alias Pia Magnet)

    • Profilbild
      CDRowell AHU

      @carsten weidenhaupt Das ist aber auch ne dicke Nummer, eine Datenbank zu erstellen, die dann einigermaßen nach deutscher Sprache klingen kann…🤯

      Da benötigt es neben einer Menge Gedult ein guten Background zum Erstellen der Vorlage für V-Synthesizer.

      Was ich versuche ist, eine Anpassung der Ausdrücke in V-Synthesizer hinzubekommen… Momentan bin ich anscheinend noch zu blöööde!!!😩

      Ich hab mal reingehört. -> Danke für den Tipp! Bringt Spaß!

      Feine App, die wirklich Spaß macht, finde ich.😇

  4. Profilbild
    Armin Bauer AHU 1

    Ich bin da wohl absolut nicht die Zielgruppe, aber mir bleibt der Sinn dieser Software verborgen.
    Nachdem wir fast keine Produktion mehr mit natürlichem Gesang mehr kennen, sondern alle Unzulänglichkeiten mit Autotune u.ä. verschlimmbessert werden, wird es hier noch künstlicher , keine vernünftige Intonation erkennbar und den Asiaten hört man auch permanent durch.
    Das kriegt doch jeder, der auch nur mit einem Fünkchen Begabung gesegnet ist, um Klassen besser hin.
    Aber wie gesagt, mir fehlt dafür das Verständnis, vielleicht muss das ja so.

    • Profilbild
      Markus Galla RED

      @Armin Bauer Genau. Es mag durchaus Genres geben, in denen man das nutzen kann. Wenn es aber um gute Popmusik geht, sollte man eher die Finger davon lassen. Selbst von der Intonation her nicht lupenreiner Gesang ist nicht so seelenlos. Zwar fasziniert mich die Technik, aber ich würde es höchstens als Skizze nutzen. Es gab mal in den späten 80ern oder so den Song „Changing Minds“ mit einem singenden Commodore Amiga, aber für mich war das schon immer eher ein Gag.

      • Profilbild
        Gero van Apen

        @Markus Galla Schon der vierte Kommentar von mir heute… normalerweise bin ich nicht so eine Plaudertasche ;-P

        Also, ihr habt schon Recht… ich habe auch schon viele Beispiele gehört, die schrecklich klangen. Aber ich nutze jetzt „Asterian“ (Bass-Stimme, die bis zum E2 runter geht) für mein Darkwave-Projekt und muss sagen, dass das – gerade im tiefen Bereich – wunderbar funktioniert. Mit ein paar Effekten versehen klingt es sehr gruselig und passt super zur Musik. Insofern ja, es gibt Genres, in denen man Synth V gut nutzen kann!

  5. Profilbild
    MartinM.

    Sehr interessanter Testbericht!
    Ich könnte an dieser Stelle etwas Senf in Form von Erfahrung mit Yamaha Vocaloid beisteuern. Synth V und Vocaloid erscheinen mir sehr ähnlich, leider auch vom Preis her. (Vocaloid 6 aktuell 225 Dollar plus Mehrwertsteuer.) Eigentlich hätte ich erwartet, dass sich ein Konkurrenzprodukt etwas günstiger aufstellt. Bei Vocaloid kann man jeder einzelnen Note Eigenschaften zuweisen, z.B. Timbre, Atem, ansteigende Note … , was aber meist den Gesang unnatürlicher statt natürlicher macht. Die Software ist sehr ausgereift und stabil. Das Angebot an Voicebanks (also Stimmen) für Vocaloid richtet sich mehrheitlich an Japan, China und Korea. Akzentfreies Englisch ist eher wenig zu finden, Deutsch gibt’s auch bei Yamaha nicht.
    Gefühlvolle Stimmen bekommt man mit Vocaloid nicht hin, auch keine kraftvollen, rockigen. In der Beziehung ist dieses teure Instrument der Stimmengeneration einer KI wie Suno.ai hoffnungslos unterlegen. Und das scheint mir auch auf Synth V zuzutreffen. Aber natürlich kann man mit der KI wiederum keine eigenen Noten singen lassen. Zumindest noch nicht.
    Übrigens: So scheußlich wie Hatsune Miku (aus dem Hause Crypton) klingt Vocaloid nur, wenn man es unbedingt will.

  6. Profilbild
    bosurus

    Ich habe kurz mal die Trial-Version angetestet. Angenehm überrascht war ich, daß es auch eine native Linux-Version gibt; in der kurzen Zeit keine Probleme damit festgestellt.
    Nach dem Motto „Ich lese keine Handbücher, ich drücke Knöpfe, bis es klappt“ bin ich recht schnell zu einer Songzeile gekommen, die ich allerdings auch recht schnell mit Drehen an den Parametern kaputt gemacht habe. Also trivial sind Eingriffe nicht. Aber dafür gibt es ja Ctrl-Z.
    Klar, das hat seine klanglichen Beschränkungen, aber für schnell mal einfache Vocals erstellen finde ich es gut. Mich als Software-Fan reizt es schon, aber ich hab schon zuviel gekauft, was dann nur ein Spielzeug blieb; bei dem Preis mal gut überlegen …

  7. Profilbild
    Heiner Kruse (TGM) RED

    ich finde das eine interessante und konstruktive Diskussion mit unterschiedlichen Positionen.
    Ich denke, Synthesizer V ist ein „Tool“, und was rauskommt, hängt stets vom Menschen ab, der damit arbeitet. Wir haben oft in der Musikgeschichte gute neue Musik gehört, wenn solche Tools von Genies ausgereizt und insbesondere anders als ursprünglich gedacht genutzt wurden. Synthesizer V hat für mich das Potenzial dazu. Ich stimme mit User bosurus überein, dass die Optionen hier nicht trivial sind – was auch das Growl Video, dass Gero hier gepostet hat, zeigt. Ich habe hier bestimmt noch nicht alles ausreizen können, was möglich ist.
    Was dann gefällt und was nicht, bleibt Geschmackssache. Ich hätte damals nie gedacht, dass der glattgebügelte Autotune Sound so ein breites Publikum finden würde. Mein Produktionsstil ist das bis heute nicht, ich versuche lieber, Korrekturen mit Melodyne natürlich klingen zu lassen. Dass Synthesizer V nun Vocals auf Basis von Eingesungenem erzeugen kann (ggf. im Zusammenspiel mit Vocoflex), ist aber ein Meilenstein. Für mein Empfinden kann es hier auch mal natürlicher klingen als mit Autotune.

    • Profilbild
      iOwner

      @Heiner Kruse (TGM) Ich denke, die Trial Version würde schon ausreichen, um Vocal Layouts hinzubekommen und dann in sein eigene Projekt zu bringen. Für umsonst. Wer wirklich die Zeit hat in Feinarbeit seinen Wunschsänger zu bauen, soll es gerne machen. Mal eben eine Strophe oder Chorus neu zu programmieren, verschlingt wieder Zeit. Diese Zeit kann man lieber in Gesangsstunden investieren, wenn es dann noch din wenig schief ist, wunderbar, hier hört man, dass es ein Mensch ist und keine KI oder ähnliches. Oder die Stimme entsprechend in der DAW seiner Wahl korrigieren. Der Ansatz dieser SW ist gut, die Umsetzung viel zu umständlich. Wer hat bloss die Zeit, sich in alle schönen Dinge einzuarbeiten. Ausserdem finde ich die Ergebnisse noch viel zu mechanisch bzw künstlich. Deutsche Texte gehen leider auch nicht.

      • Profilbild
        Heiner Kruse (TGM) RED

        @iOwner es stimmt, manches könnte einfacher sein. Dafür fühlen sich Angebot, Preisstruktur und Bedienung fast oldschoolig/ konservativ an, fast im Stile großer DAWs. Das hat auch sein Gutes gegenüber „Klick mich und Du kriegst ein fertiges Ergebnis, wenn Du das Abo abschliesst“-Angeboten, wo man evtl. schneller an eine Ergebnis kommt. Via Try and Error kann da aber auch ne Menge Zeit draufgehen.

  8. Profilbild
    Elphaba of Arendelle

    Danke für den detaillierten Bericht! Das Programm klingt unglaublich vielseitig und hilfreich. Ich denke damit könnte man einiges ausprobieren und hinbekommen, zum Glück arbeite ich eh nur auf Englisch :)

  9. Profilbild
    herw RED

    Als Nicht-Sänger einer Rockband wäre es für mich eine Möglichkeit, eine grobe Skizze für unseren Sänger vorzugeben, so dass er schließlich den Part für sich alleine stemmen kann.
    Es fehlt mir aber bei all den „hingehauchten” künstlichen Stimmen die Rauheit und ein „Kick”, mit dem ein menschliche(r) Sänger(in) seinem Part einen Fingerabdruck seines persönlichen Emfindens zum Ausdruck bringt.
    Und das ist nötig, um auch nur bei einer Skizzenvorgabe den nötigen groove und Klang anzudeuten.
    Aber ich hoffe auch, dass in der Stimmlage und Charkter in verschiedenen Genres etwas verbessert wird.
    Dennoch sollte es nicht so weit gehen, dass man nur noch Künstliches hört.
    Der (menschliche) Sänger sollte nicht ersetzbar sein, sonst gibt es nur noch die Kreativität des Arrangeurs und Notenschreibers, aber nicht die des Sängers.
    Dafür wird es (hoffentlich) immer noch den ausdrucksstarken Vokalisten geben müssen.
    Melodyne ist vielleicht ein mächtiges zusätzliches Werkzeug; ich kenne mich damit aber (noch) nicht genügend aus, so dass dies vielleicht eine Alternative wäre?

    • Profilbild
      Heiner Kruse (TGM) RED

      @herw das stimmt schon, „rauh“ waren die Stimmen, die ich getestet habe, eher nicht.
      Aber ich kenne nicht alle Stimmen, was ich gehört habe, klang auch eher relativ „perfekt“ und etwas „glatt“. Viellleicht lässt sich sowas ja auch mit einer eigenen Stimme doppeln …das wäre einen Versuch wert,

  10. Profilbild
    herw RED

    … übrigens vielen Dank lieber Heiner für deinen eindrucksvollen und intensiven Test. 😎

  11. Profilbild
    Kazimoto AHU

    Vielen dank für den Test! Ich persönlich denke daß wir schon viel weiter sind. Wenn in Hollywood Schauspieler auf die Barrikaden gehen und Vocal-Artists um ihren Job fürchten, dann geschieht das nicht ohne Grund. Da wird es einige exklusive Tools geben, die einen enormen Wettbewerbsvorteil bieten und Kosten senken, ob man es gut findet oder nicht. Für mich lieber das Original. Die letzten Weihnachtskonzerte in Schule und Kirche hatten echte Gänsehautmomente, das erfüllt mich als Mensch so sehr, da kommt einfach nichts ran.

    • Profilbild
      iOwner

      @Kazimoto Da bin ich bei dir. TV Sender, die mit Stimmen Modeling Szenen austauschen und Werbeagenturen, die grösstenteils nur noch mit gemodelten Stimmen arbeiten, gibt es schon und sind schon da. Einschliesslich der KI Systeme, die entsprechend die Songs noch ausgeben. Den Ansatz dieser SW finde ich dennoch gut und lädt zum Spielen ein. Nur ich habe die Zeit dafür leider nicht.

    • Profilbild
      Heiner Kruse (TGM) RED

      @Kazimoto Ja, das verstehe ich. Weihnachtskonzerte in der Kirche geben mir auch eine Menge, ich singe selbst im Chor und hab das auch für mich entdeckt. Ja, soweit ich weiß ist lalals.ai auch oft im kommerziellen Einsatz. Vieles ist aber auch rechtlich noch eine Grauzone.

      Für das Thema echte Vocals verweise ich hier auch nochmal auf meinen Vocal Recording Praxistipps Workshop bei amazona

      https://www.amazona.de/workshop-vocal-recording-optimal-organisieren-tipps-fuer-produzenten/

  12. Profilbild
    slowbee

    Hallo zusammen,
    ich hab mir Synthesizer V vor paar Wochen gekauft und benutze es hauptsächlich dazu, Sing-alongs für unseren Chor zu erstellen – sprich: mir die aus Noten (Sibelius) gemachten Midis für SATB (z.B.) von Kevin, Solaria etc. vorsingen zu lassen. Das klappt auch schon ganz gut, nur schaffe ich es bisher nicht, dies als Plugin(s) in meine DAW (Studio One, Cakewalk…) zu bekommen. Hat jemand Erfahrung konkret mit dieser Kombi und kann mir eine verständliche Step-by-step-Anleitung empfehlen? Würde mich richtig freuen.
    Schöne Grüße

  13. Mehr anzeigen
Kommentar erstellen

Die AMAZONA.de-Kommentarfunktion ist Ihr Forum, um sich persönlich zu den Inhalten der Artikel auszutauschen. Sich daraus ergebende Diskussionen sollten höflich und sachlich geführt werden. Es besteht kein Anspruch auf Veröffentlichung. Wir behalten uns die Löschung von Inhalten vor. Dies gilt insbesondere für Inhalte, die nach unserer Einschätzung gesetzliche Vorschriften oder Rechte Dritter verletzen oder Diffamierungen, Diskriminierungen, Beleidigungen, Hass, Bedrohungen, politische Inhalte oder Werbung enthalten.

Haben Sie eigene Erfahrungen mit einem Produkt gemacht, stellen Sie diese bitte über die Funktion Leser-Story erstellen ein. Für persönliche Nachrichten verwenden Sie bitte die Nachrichtenfunktion im Profil.

ANZEIGE
ANZEIGE
ANZEIGE
ANZEIGE
X
ANZEIGE X