ANZEIGE
ANZEIGE
ANZEIGE

Workshop: Vocals mit Hilfe von KI produzieren

KI Vocals erstellen – die besten Tools 2025

15. Dezember 2025
Vocals mit KI produzieren

Workshop: Vocals mit Hilfe von KI produzieren

Du willst Vocals mit Hilfe von KI produzieren? Dieser Workshop zeigt einige aktuelle Möglichkeiten und Software-Tools, die mit Hilfe von künstlicher Intelligenz Vocals und Gesang realisieren und verbessern können. Es liegt in der Natur der Sache, dass es durch ständige Weiterentwicklungen hier laufend Veränderungen gibt.

Kurz & knapp
Worum geht es? Ein kompakter Workshop über aktuelle Möglichkeiten, Vocals mit KI zu erstellen, zu bearbeiten und in die eigene Produktion einzubinden.
  • Arbeitsbereiche: KI kann beim Texten, bei Melodien, beim Voice Modeling, Timing, Intonation und Mix unterstützen.
  • Vocal-Modelle: Zahlreiche Plattformen bieten Stimmen an, jedoch oft mit unklarer Herkunft und rechtlicher Unsicherheit.
  • Voice Cloning: Eigene Stimmen lassen sich legal klonen und flexibel einsetzen.
  • Mix & Master: Tools wie Neutron, Ozone oder Soothe optimieren KI- und reale Stimmen.

ANZEIGE

KI Vocals produzieren: welche Möglichkeiten gibt es?

Betrachten wir zunächst verschiedene Arbeitsschritte, die es braucht, um gute Vocals zu produzieren, so dass wir später die Anbieter und ihre Angebote einordnen können. Spätestens als ich die dritte DAW erlernen musste, wurde mir klar, dass es zwar schwierig ist, mit unterschiedlichen Werkzeugen zu arbeiten, sich aber dadurch an den Zielen nichts ändert.

Generell ist es wichtig, nicht nur das große Ziel zu definieren, sondern auch die Wege dorthin zu kennen und Zwischenziele festzulegen. Das gilt sicher auch für die Nutzung von AI-Tools für die Vocal-Produktion.

KI als Komplett- oder Teillösung?

Freilich kann die KI auch komplett alles übernehmen. Die Aufgabenstellung besteht dann vor allem in der Formulierung eines Prompts. Das geht oder ging beispielsweise bei Suno oder Udio. Allerdings erwartet uns hierbei einige Unsicherheit bezüglich der Urheberrechtssituation. Möglicherweise verlangen auch Streaming-Plattformen zukünftig stärkere Kennzeichnungen von KI-Inhalten. Außerdem ist das unter ethischen Gesichtspunkten zu kritisieren, wenn Resultate auf Basis von Werken entstehen, deren Urheber nicht honoriert werden.

Udio hat Anfang November eine Einigung mit Universal Music erzielt, die dazu führt, dass auf diese Weise erstellte komplette Songs zunächst nicht mehr heruntergeladen werden können, bis ein neues Konzept realisiert ist (Link zum Artikel). Gleichwohl lassen sich die Tracks noch generieren und anhören, zudem gibt es nun auch bei Udio einen neuen „Voice Control“-Bereich zum Erstellen von Vocals und Texten.

Kurz darauf erschien die Meldung, dass Suno und Warner Music ebenfalls einen Deal gemacht haben (Link zum Artikel). Auf Suno ist es aber nach wie vor möglich, Inhalte herunterzuladen. Möglicherweise bahnt sich hier Rechtssicherheit an, allerdings klagt die GEMA derzeit gegen Udio und Suno (Link zur GEMA Mitteilung)

Udio bietet neue Vocal Control Funktionen an

Udio bietet neue Vocal Control Funktionen an

Bevor man die KI komplett ablehnt oder zu sehr in den Himmel lobt, lohnt es sich, genauer auf die Details zu schauen. Neue Musiktechnologie hat uns schon oft neue Genres und Tracks beschert. Es gibt allerhand Chancen, die KI nur teilweise, wie ein gutes Werkzeug oder wie ein Instrument zu nutzen, das von einem Mensch gespielt wird und im klanglichen Ergebnis dessen Wirken ausdrückt.

A propos Instrument: Die Stimme ist ein solches, doch immer öfter bieten die für Vocal-Bearbeitung geeigneten KI-Plattformen auch die Realisation von anderen Instrumentalparts (z. B. Violine, Trompete) an, für die sich „Modelle“ ähnlich wie Stimmen nutzen lassen (z. B. in lalals.com, Suno.com, ACE Studio oder Audimee). Zudem ist es möglich, Ideen für Leads einzusingen und die Melodie dann von einem Instrument spielen zu lassen (z. B. von einer Trompete in Suno Studio).

Interessant ist auch die kombinierte Nutzung von mehreren KI-Tools. So kann man z. B. zuerst Gesang von einem Vocal-Synthesizer wie Synthesizer V erstellen und dann von Voice-Models via Audimee, lalals.com, Sonarworks oder IK Multimedia ReSing singen lassen. Suno erlaubt auch den Export von Stems von dort erzeugten Songs und nach meinem ersten Eindruck bekommt man dabei Inhalte von generierten Layern ohne Artefakte (also auch Vocals) – und nicht nachträglich separiertes Material.

ANZEIGE

Andererseits ist ein Trend zu erkennen, der Musikmachen in die Richtung von Gaming oder Musikkonsum bringt. Vielleicht fragt ja Spotify demnächst, welche Stimmung die Musik haben soll, die du hören willst und bietet an, die Musik dafür gleich neu „herzustellen“.

Streaming Plattformen wollen grundsätzlich mehr Interaktion, Social Media Plattformen wollen auch Streaming-Services sein – und vielleicht wollen alle am Ende die KI-Musikgeneratoren auch noch beides dazu haben. Die Kombination aus diesen drei Leistungen scheint das anvisierte Zukunftsangebot zu sein.

Auch ACE Studio bietet die Generation von Vocals an

Auch ACE Studio bietet die Generation von Vocals an

Übersicht: Arbeitsschritte und Ziele

Betrachten wir zunächst Ziele und wichtige Komponenten:

Als Ziel schwebt uns für Vocals meist ein bestimmter Stil vor, z. B. bezüglich Genre, Alter, Geschlecht und Stimmung. Dieser beeinflusst unsere Entscheidungen, wenn wir Zwischenziele realisieren.

  1. Gute Vocals brauchen einen guten Text
  2. Gute Vocals brauchen eine gute Melodie
  3. Gute Vocals brauchen eine ausdrucksstarke Gesangsperformance
  4. Gute Vocals brauchen eine passende Stimme
  5. Gute Vocals brauchen gutes Timing und gute Intonation
  6. Gute Vocals brauchen eine gute Abmischung
  7. Gute Vocals brauchen vielleicht noch Adlibs, Dopplungen, Harmonien oder Background Vocals

Wie kann KI beim Produzieren von Vocals helfen?

Text:  Gute Vocal Artists haben meist eigene gute Texte bei der Hand. Aber auch die KI kann Texte für dich schreiben. Dafür gibt es viele Möglichkeiten, z. B. Chat GPT, Suno AI, Google Gemini 3, Claude AI und jetzt auch Udio. Wobei z. B. Suno natürlich auch direkt mehrere Aufgaben gleichzeitig leisten und komplette Vocal-Parts hinzufügen kann.

Selbst in FL Studio kann die „hauseigene“ integrierte KI-Engine Texte schreiben. Ein weiteres bekanntes Tool zum Schreiben kreativer fiktionaler Texte heißt Sudowrite. Du kannst Texte auch mit Hilfe der AI Chatbots übersetzen und später in einer neuen Sprache singen lassen.

Auch in Suno kann man KI Vocals oder auch nur Text erstellen lassen.

In Suno kann man KI Vocals oder auch nur Text, aber auch ganze Songs erstellen lassen

Aber auch hier ist Vorsicht geboten. Zuletzt war ChatGPT-Betreiber OpenAI der GEMA vor Gericht unterlegen. Das Landgericht München sieht eine Verletzung deutschen Urheberrechts, wenn eine KI Liedtexte nutzt, ohne dafür eine Lizenz zu besitzen (Link zum Artikel).

Melodie: Die Melodie muss mit den Texten zusammengehen, doch die KI kann auch Melodien für dich erfinden. Hierbei können Suno, Udio , LANDR und Co., aber z. B. auch Apple Logics Session Player (Piano) helfen.

Oft lässt sich Text auch in zuvor gespielten oder generierten Noten eingeben. Auf der Basis von MIDI entsteht dann Musik. Beispiele hierfür sind die hier getestete Dreamtonics Synthesizer V Plattform, das brandneue Cubase 15 Omnivocal-Tool von Yamaha oder ACE-Studio. Man spricht hierbei auch von Vocal-Synthesizern.

Es gibt auch die Möglichkeit, Text in Audiodateien umzuwandeln (z. B. mit Hilfe von Uberduck oder dem Sprachgenerator von Apple Computern und diese dann manuell mit Hilfe von Autotune, Melodyne, Waves Tune sowie mit Hilfe von Vocal-Synthesizern in Gesangsmelodien umzuwandeln. Synthesizer V oder Melodyne können auch MIDI-Noten aus Audiodateien herauslesen, die sich anschließend auf passende Tonhöhen verschieben lassen. So habe ich z. B. schon 2003 einen Track produziert („Mr. One“, der vom Tübinger Label Santorin auf Vinyl veröffentlicht wurde und kürzlich einen „Digital“ Rmx bekam).

Dreamtonics Synthesizer V2 kann Audioaufnahmen zu Noten konvertieren und Text den Noten zuordnen

Dreamtonics Synthesizer V2 kann Audioaufnahmen zu Noten konvertieren und Text den Noten zuordnen

Das neue Cubase 15 Omnivocals Beta Tool von Yamaha

Das neue Cubase 15 Omnivocals Beta Tool von Yamaha

Performance: Eine von mehreren Möglichkeiten besteht darin zu versuchen, mit deiner eigenen oder der Stimme eines Sängers/Sängerin ausdrucksstarken Gesang aufzunehmen, der dann mit Hilfe von KI von einer anderen Stimme gesungen wird.

Die Adaption kann dabei den Stil und Ausdruck der Originalstimme übernehmen. So wird tatsächlich in manchen Tonstudios gearbeitet, wenn z. B. ein Duo aus Vocalist und Produzent regelmäßig alle möglichen Aufgabenstellungen realisieren muss (z. B. für Werbemusik-Pitches).

Die Adaption kann auch Stil und Ausdruck der neuen Stimme übernehmen und so als Performance besser werden (etwa wenn die Stimme eher laienhaft eingesungen oder mit Hilfe eines Vocal Synthesizers generiert wurde).

Wie gut und in welche Richtung die Adaption funktioniert, ist hier der zentrale Punkt. Oft kommt es hier auf den Einzelfall oder Trial-and-Error Experimente an. Die hier beschriebene Funktionalität wird von vielen Plattformen angeboten, z. B. von lalals.ai, Audimee, IK Multimedia ReSing oder auch Suno. Nachbearbeitungen von Vibrato und Pitch-Drift sind auch in Tools wie Melodyne, Autotune und Co. möglich.

Manche Tools bieten Stem-Separation und die Separierung einer Vocal-Spur auch vor allem deshalb an, um diese bzw. eine sehr professionelle Performance als Ausdrucksmuster nutzen zu können. Natürlich sollte der singende Mensch zuvor um Erlaubnis gefragt werden.

Stimme: In Bezug auf die passende Stimme kannst du dich schon in vorherigen Arbeitsschritten mit einer Stimme angefreundet haben. Künstlich klingende, robotische Stimmen hast du vielleicht schon in Text-to Speech Tools oder Vocal Synthesizern gefunden oder mit Hilfe von Vocodern realisiert.

Die Startseite von lalals.com sieht vielversprechend aus

Die Startseite von lalals.com sieht vielversprechend aus

Schwieriger wird es, wenn du Vocals außerhalb von Pop/Rock und Mainstream suchst. Zudem ist wichtig zu beachten, dass die Vocals von echten Menschen stammen, mit denen Verträge abgeschlossen wurden oder ob sie aus Vocal-Stems generiert wurden.

Die Grenzen der Legalität verschwimmen spätestens, wenn mehrere Vocal-Modelle, die auf diese Weise gewonnen wurden, zu einer neuen Stimme fusionieren.

In Audimee kann man Vocals einsingen und von anderen Stimmen nachsingen lassen oder ein eigenes Voice Clone Modell erstellen.

In Audimee kann man Vocals einsingen und von anderen Stimmen nachsingen lassen oder ein eigenes Voice Clone Modell erstellen

Wo Vocal-Modelle herkommen, weiß man oft nicht genau. Zudem kann man nicht alle Stimmen kennen. Es kann also vorkommen, das jemand sagt: „Aber das ist 100%ig Drake“ – doch man selbst merkt es nicht, weil man nur selten den eigentlich sehr bekannten Rapper Drake hört und wenn, dann unbewusst.

Manche Plattformen kommunizieren die Entstehung der Vocal-Modelle einigermaßen klar. Hierzu gehören lalals.com oder IK Multimedia (ReSing). Auch Sonarworks reklamiert für sich, dass die Stimmen Royalty-free sind. Während IK Multimedia nur eigene Modelle bietet und von fairen Verträgen spricht, bietet lalals.com sowohl selbst entwickelte lalals AI Voices bzw. Modelle als auch von bekannten Persönlichkeiten inspirierte Modelle an.

Voice Cloning: Zudem kann man die eigene Stimme als Voice-Model klonen. Das klappt typischerweise auf Basis von 10- bis 60-minütigen Aufnahmen der eigenen Stimme, möglichst in verschiedenen Tonlagen und Intensitäten. Das geht z. B. bei Audimee, Suno und lalals.com. Verwirrend ist, dass es auch noch eine lalal.ai Webseite gibt, die Voice-Cloning anbietet, vermutlich aber von anderen Inhabern betrieben wird.

Wenn du deine eigene Stimme trainierst, hast du keine rechtlichen Probleme, solange die Trainingsdaten ausschließlich von dir stammen. Ein Vocal-Modell auf der Basis eigener Aufnahmen zu generieren, ist nicht zuletzt dann interessant, wenn man eine bestimmte Stimme besonders gut findet.

Timing und Intonation: Eine Optimierung von Timing und Intonation wird oft en passant von der KI  mit übernommen. Andererseits sind es diese beiden Aufgabenfelder, in denen in den vergangenen Jahrzehnten ausgereifte Werkzeuge für die Bearbeitung von nicht ganz so perfekten menschlichen Aufnahmen entstanden sind, um diese professioneller klingend zu gestalten (z. B. mit Hilfe von Celemony Melodyne, Waves Tune, oder Antares Autotune).

Mit diesen kannst du auch jede KI-Stimme bearbeiten. Möglicherweise kann diese danach, so absurd es klingen mag, authentischer künstlich klingen. Diese Tools können helfen, fast, aber nicht komplett gelungene KI-Versuche auf den Punkt zu bringen.

Abmischung: Bei der Vocal-Abmischung einzelner Spuren kann die KI heute (meist auf der Basis von Vorlagen) komplexe Verbesserungen realisieren. Im Fall von iZotope Neutron 5 ist es dabei möglich, mehrstufige Bearbeitungen in einzelnen Tools zu sezieren und Nachjustierungen vorzunehmen. Weil Neutron auf Mixing und nicht auf Mastering ausgerichtet ist, finden sich auch Voreinstellungen für Vocals und Dialoge.

Izotope Neutron 5

Izotope Neutron 5

Izotope Neutron 5 kann intelligent bei der Vocal-Abmischung helfen

Izotope Neutron 5 kann nicht nur intelligent bei der Vocal-Abmischung helfen, es sind auch nachträgliche Detailjustagen möglich

Auch Sound Theory Gulfoss oder Soothe EQ können intelligente dynamische Mixbearbeitungen vornehmen, die teilweise auf der Nutzung neuronaler Netze fußen. Auch Sonarworks bietet Hilfe beim Mixing an, dabei geht es besonders um Berücksichtigung der Hörumgebung. Zusätzliche KI-Tools aus iZotope Ozone und LANDR können mit dem Mastering helfen.

Das neue Ozone 12 Advanced bietet nun sogar ein „Unlimiter“-Tool, um zu stark zusammengestauchtes Material (was bei AI Vocals durchaus vorkommen kann) zu „dekomprimieren“ und dynamischer klingen zu lassen. Zudem ist in Ozone 12 die separate Bearbeitung von Vocals im Mix per Stem-Separation möglich, ohne dass eine solche Auftrennung zuvor mühsam angelegt werden muss. Dabei werden die Stimmen separat analysiert und bearbeitet.

Schnell greifbare Vocal-Einstellungen in Ozone 12 für den via KI optimierten Mix

Schnell greifbare Vocal-Einstellungen in Ozone 12 für den via KI optimierten Mix

Die KI Prozedur in Ozone 12 ist eine aufwändige Analyse und erfordert viel CPU und Speicher

Die KI Prozedur in Ozone 12 ist eine aufwändige Analyse und erfordert viel CPU und Speicher. Wie in Neutron sind aber nachträglich detaillierte Bearbeitungen möglich

"Unlimiting" in Ozone 12

„Unlimiting“ in Ozone 12

Harmonien, Adlibs, Arrangements und Backings: AI-Vocals eignen sich generell gut, um zusätzliche Stimmen oder Chöre zu erzeugen. Wenn es nicht ganz so perfekt klingt, fällt das hier meist nicht so auf. Sonarworks bewirbt speziell diesen Anwendungsfall und bietet ein in die DAW integriertes Plug-in.

Für ein anteiliges oder insgesamt automatisches Arrangieren von selbst erstellten Inhalten fand ich noch keine überzeugende Lösung. Kennt ihr selbst Tools, die hier fehlen? Schreibt sie gern unten in die Kommentare!

Sonarworks hat verschiedene Angebote - sowohl für die Mixoptimierung als auch für Vocals.

Sonarworks hat verschiedene Angebote – sowohl für die Mixoptimierung als auch für Vocals

Produkte und Tests von KI-Tools

Bei KI-Angeboten gibt es einerseits zahlreiche Anbieter, andererseits nutzen diese teilweise die gleichen Engines, z. B. Chat GPT/Claude für Texte oder Kling AI/Veo für Videos. Nicht immer, aber manchmal,  wird das transparent dargestellt und ist schon bei Angeboten zu erkennen. Andere, z. B. FL Studio, bieten proprietäre bzw. selbst erstellte KI-Engines.

Im Folgenden nun zahlreiche Links zu KI Tools, sonstigen Vocal-Tools und zu auf AMAZONA.de erschienenen Tests und News-Meldungen:

  • Google (Gemini) und Open AI (Chat GPT) bieten Texttools an. Google AI bietet zudem weitere Text-to-Speech oder Video-Erstellungsangebote.
  • AI Pro ist eine typische Plattform, die gleich mehrere KI Modelle anbietet. Bei einem Abo kann man hier z. B. zwischen Chat GPT und Claude umschalten. Ich habe das ausprobiert und bei größeren Textmengen (z. B. beim Versuch einer Übersetzung) hatte ich hier meine Tokens wesentlich schneller verbraucht als mit Chat GPT. Andererseits kann man hier auch mal Video Engines wie Kling AI ausprobieren.
  • Dreamtonic Synthesizer V: Test des Vocal Synthesizer
  • Dreamtonics Vocoflex Vocal Transforming Plug-in: Test von Vocoflex
  • Test: Cubase 15 (mit Yamaha Omnivocal als Vocal Synth)
  • Test: FL Studio 2025 – mit integrierter KI, die auch texten kann
  • LANDR bietet ein Komplettpaket mit vielen Optionen. Hierzu gehören auch ein AI Composing Tool, Tools für Online-Kollaborationen, Plug-Ins und Mastering.
  • lalals.com, Audimee: Plattformen für Vocal Models, für Stem Separation und zum Erstellen eigener Vocal Modelle.
  • IK Multimedia bietet mit ReSing ein Tool mit Vocal Modellen an
  • Test: Audimee
  • lalal.ai bietet u. a. ein Erstellen eines Voice-Models gegen eine einmalige Gebühr und Stem-Separation bzw. das Ersetzen eines Vocal-Parts an.
  • Auch ACE Studio bietet ein komplexes Gesamtangebot aus Vocal Synths, Voice Modeling. Stem Separation und mehr.
  • Ähnliches gilt für Sonarworks, wo man in seiner DAW im Bereich Vocal KI ein Plug-in nutzen kann, aber auch noch Mixing-Tools findet..
  • Suno.ai: Eine Plattform zum Erstellen von kompletten Songs mit Hilfe von Prompts, die auch Arbeiten an Details zulässt und Stem Separation (oder Ausgabe hochqualitativer einzelner Stems von neuen Stücken) oder innovative Umwandlungen von Ideen in andere Instrumente ermöglicht.
  • Udio ist eine weitere Plattform zum Erstellen von kompletten Songs mit Hilfe von Prompts. Udio bietet aber auch Tools zum Erstellen von Vocals und Texten
  • Elevenlabs ist eine Plattform wo man zusätzlich Beispiele kostenfrei herunterladen und nutzen kann.
  • Celemony Melodyne: Allround-Werkzeug zur professionellen und artefaktarmen (Offline-) Tonhöhen- und Timingkorrektur sowie zum Extrahieren von MIDI aus Audio, einzelnen Noten aus Chören oder zum Erstellen von Chören und Background-Vocals auf Basis von Audioaufnahmen.
  • Antares Autotune: Besteht aus vielen Komponenten und beherrscht unter anderem Echtzeit-Tonhöhenkorrektur mit einer berühmt gewordenen Soundcharakteristik sowie in größeren Versionen auch detaillierte Offline-Editing-Tools oder Harmonizing-Tools.
  • iZotope Neutron bietet eine automatisierte Abmischung von Vocals.
  • iZotope Ozone 12 – Mix- und Mastering-Software.

ANZEIGE
ANZEIGE
Affiliate Links
Celemony Melodyne 5 assistant Download
Celemony Melodyne 5 assistant Download
Kundenbewertung:
(18)
Celemony Melodyne 5 editor Download
Celemony Melodyne 5 editor Download
Kundenbewertung:
(10)
Celemony Melodyne 5 studio Download
Celemony Melodyne 5 studio Download
Kundenbewertung:
(6)
iZotope Ozone 12 Advanced Download
iZotope Ozone 12 Advanced Download Bisher keine Kundenbewertung verfügbar
iZotope Neutron 5 Download
iZotope Neutron 5 Download
Kundenbewertung:
(3)
Dreamtonics Synthesizer V Studio2 Pro 6Voc Download
Dreamtonics Synthesizer V Studio2 Pro 6Voc Download
Kundenbewertung:
(1)
Dreamtonics Synthesizer V Studio2 Pro 3Voc Download
Dreamtonics Synthesizer V Studio2 Pro 3Voc Download Bisher keine Kundenbewertung verfügbar
Waves Tune Real-Time Download
Waves Tune Real-Time Download
Kundenbewertung:
(286)
Image-Line FL Studio Producer Edition Download
Image-Line FL Studio Producer Edition Download
Kundenbewertung:
(450)
Image-Line FL Studio Signature Bundle Download
Image-Line FL Studio Signature Bundle Download
Kundenbewertung:
(125)
Image-Line FL Studio All Plugins Edition Download
Image-Line FL Studio All Plugins Edition Download
Kundenbewertung:
(35)
Steinberg Cubase Pro 15 Download
Steinberg Cubase Pro 15 Download Bisher keine Kundenbewertung verfügbar
IK Multimedia ReSing Download
IK Multimedia ReSing Download Bisher keine Kundenbewertung verfügbar
IK Multimedia ReSing MAX Download
IK Multimedia ReSing MAX Download Bisher keine Kundenbewertung verfügbar
Forum
  1. Profilbild
    Mixit

    Meine Gedanken zu KI – Teil 1:

    Seit Jahren ist AMAZONA einer meiner ersten Anlaufstellen, wenn es um Recherche zu PlugIns oder Hardware geht, und das wir sicher auch weiterhin so bleiben. Für dieses Engagement bin ich allen im Team dankbar.

    Machmal gibt es jedoch auch Trends, die nicht nur die Sonnenseite des Hochglanzprospektes haben, und dazu gehört KI.

    Wer selbst miterlebt hat, wie schwer es ist, KI-Content wieder loszuwerden, nachdem er verwendet wird, um unter Anwendung von Namensmissbruch realer Künster deren Hörerschaft gezielt auf KI-Konten Links zu leiten, der weiß was das Bedeutet.

    Wenn in Analysepattformen zu Musik die Werke realer Künstler mit KI-Slop vermischt werden kann ein Lied davon singen, wie es sich anfühlt über viele Monate hinweg gegen Windmühlen anzulaufen das wieder zu bereinigen und das nur weil KI es möglich gemacht hat.

    KI eröffnet eine Welt, in der es möglich ist, ohne musikalische Skills Kontent zu produzieren, der auf der Arbeit anderer beruht um diesen in Massen in die Welt zu schütten. Ganz ohne Authentizität, ohne Fanbindung ohne Emotion, ohne Story, was zählt ist der reine Profit – auf Kosten anderer. Das ist eben auch Realität von KI. Nur wird darüber nicht gerne berichtet.

    • Profilbild
      teofilo

      @Mixit Ja, aber: für welche Produkte gilt nicht „…ist es möglich, ohne Skills zu produzieren“?
      Musik ist Schönheit und Bedürfnis und Musik ist auch Produkt und Konsum.
      Wer Musik macht als „Produzierender“ wird es (aufgrund des „wissenschaftlich-technischen Fortschritts“ weiterhin zunehmend) genau so schwer haben, wie die Produzenten anderer Produkte.

      • Profilbild
        Mixit

        @teofilo Wenn KI der neue Standard wird, dann werden auch die Skills schwinden und somit die Qualität und das Hörerlebnis.

        Eine gute Produktion baut auf Erfahrung, Interaktion und Austauscht, das kann KI nicht ersetzen. KI wird nie in der Lage sein neue Trands zu setzen, weil KI immer nur Statistik aus der Vergangenheit ist.

        Und ja – mag sein, dass es schwieriger wird, doch ich bleibe meinem Anspruch treu.

        • Profilbild
          mort76 AHU

          @Mixit Neue Trends basieren aber meistens auch auf Trends der Vergangenheit. Wirklich neu ist wenig. Erst recht in der Musik.

          Ich sehe bei KI nicht völlig schwarz. Es ist doch schon lange so, daß es IMMER viele Menschen gibt, denen Konservenmusik reicht- entweder lieblos und langweilig nach Schema F produziert, oder irgendwas kopierend, was halt schonmal funktioniert hat. Deutsche Popmusik ist da ja ein gutes Beispiel: Die Texte und die Künstler sind extrem austauschbar.

          Ich würde sagen: DIE Menschen, die einen höheren Anspruch haben, werden trotzdem nicht aussterben. Musiker wie Matt Bellamy oder Björk produzieren nicht einfach nur Musik. Es geht auch um den Künstler als solchen, und DAS kann keine KI ersetzen!

          Wir werden auch nicht von Michael Jackson/Tupac-Hologrammen arbeitslos gemacht. Sowas sind Gimmicks. Tatsächliche Musikliebhaber sind nicht zufrieden mit sowas…

        • Profilbild
          liquid orange AHU

          @Mixit „KI wird nie in der Lage sein neue Trands zu setzen, weil KI immer nur Statistik aus der Vergangenheit ist.“
          Das ist jetzt schon nicht mehr richtig. Es gibt bereits faszinierende oder auch beängstigende Ansätze von extrapolierender KI die komplett neues erarbeiten kann. Sie nutzt dazu eine Analyse der Unterschiede die über die Zeit produziert wurden und extrapoliert diese in die Zukunft. Da sie auch die Geschmacksanpassungen über die Zeit analysieren kann, kann sie auch abschätzen, wie weit diese Extrapolation innerhalb einer definierten Zeitspanne gehen darf. Nicht dass sie zu schräges produziert.

          Und by the way: Wie viel Neues in der Musik gibt es denn seit den letzten Jahrzehnten? Nicht gerade beeindruckend…

          • Profilbild
            Mixit

            @liquid orange Was die KI in Zukunft kann und macht, kann ja jeder für sich einordnen. Es kann sein, dass KI morgen selbst entscheiden kann, ich muss sie zum Glück dennoch nicht nutzen, wenn ich das nicht möchte. das macht mich vielleicht morgen (noch) als Mensch aus.

            Und Musik muss auch nicht immer neu erfunden werden, wer verlangt das? Einfach ein schönes Stück machen reicht doch völlig aus.

            Regen wir uns denn auf wenn das Schnitzel nicht jedes mal anders schmeckt oder freuen wir uns nicht einfach, weil es einfach gut ist?!

  2. Profilbild
    Mixit

    Meine Gedanken zu KI – Teil 2:

    Innerhalb von 12 Monaten wurden allein auf Spotify 7.5 Millionen KI-Track gelöscht. Das zeigt das Ausmaß der Problematik und das ist sicher nur die Spitze des Eisberges. KI Kontent gehört daher eindeutig gekennzeichnet.

    KI mag hilfreich sein, wenn es bei Mix & Mastering schnell gehen muss, weil Zeit Geld bedeutet. KI verleitet jedoch vielleicht auch zu schnellen Ergebnissen, die auf einem analysierten Mittelwert beruhen, es klingt dann halt alles gleich.

    KI denkt nicht, KI ist Statistik, also das was in Vergangenheit stattgefunden hat. Ich würde lieber in eine gute Abhöre investieren anstatt in KI.

    KI im Mix einzusetzen finde ich soweit hilfreich, um Schwächen aufzuzeigen, sofern das vergeschlagene Ergebnis einem zusagt. Danach das KI-PlugIn wieder abschalten und zurück in den Mix wäre ein akzeptabler Weg. Mit dem Mastering wäre das wohl ähnlich zu sehen. Vergleichhören mit hochwertigen Produktionen scheint jedoch weiterhin ein sehr guter Weg zu sein, um seine eigenen Skills zu erweitern.

    Vielen ist das sicher auch egal oder nicht bewusst, was KI anrichten kann, das respektiere ich. Ich schätze und respektiere die Arbeit anderer und wenn mir ein Werk gut gefällt versuche ich immer noch die CD zu kaufen oder auf ein Konzert zu gehen anstatt DSPs zu nutzen. Eine bessere Würdigung dem Künstler gegenüber gibt es m.E. nicht.

    • Profilbild
      TomH AHU

      @Mixit Ich kann nur zustimmen. Vor allem zu KI denkt nicht. KI = Keine Inteligenz. Gut auf dem Punkt gebracht von der Maus, ja diese Kindersendung, in wie schreib eine KI Texte:
      https://www.ardmediathek.de/video/die-maus/wie-schreibt-eine-ki-texte/wdr/Y3JpZDovL3dkci5kZS9CZWl0cmFnLXNvcGhvcmEtMTI0MWQ0Y2ItM2NhMC00MDA4LTg1OWQtMjAzZTFlZTc4NmU4?isChildContent

      Meine Entschedung ist eher von der radikalen Art.
      Musik ab 2025/2026 lieber mal nicht, es gibt genug altes Material das mir gefällt.
      Neues, nur wenn sichergestellt ist es wurde von Künstlern erstellt.

      Schon der Sample Sumpf der letzten Jahre nervt nur.
      Ach las x mit y, mischen und dann wird bestimmt die Kasse klingeln. So kommt es mir heute vor.
      Und jetzt noch mit KI „verbessert“?

      Und Tschüß
      Wie wärs mit Unplugged Sessions, da trennt sich dann die Spreu vom Weizen.

      P.S. Digital ist nicht das Übel, sondern nur wenn dann alles verschnipselt und der Wiederverwendung zugeführt wird.

    • Profilbild
      Dizzy

      @Mixit Das sehe ich genauso!
      Egal ob im beruflichen oder privaten Umfeld: KI ist inzwischen ein ständiger Begleiter (in meinem Job nutze ich viele verschiedene Modelle sehr intensiv). In diesen Anwendungen ist KI auch sehr gut einsetzbar und bringt an der ein oder anderen Stelle hohe Zeitersparnisse mit sich.
      Im künstlerischen Bereich bin ich allerdings hin und her gerissen: Für viele Aufgaben ist KI hier ebenfalls ein super Hilfsmittel. Ich vergleiche das immer gerne mit der Zusammenarbeit mit einer Kollegin oder einem Kollegen: Diese lebt vom Austausch, von Diskussionen etc. Das heißt: Man hat ein gewissen Vertrauen, glaubt aber auch nicht alles blind/taub.
      Allerdings hat KI kein Gewissen, keine Meinung, keine Gefühle. Genau darum sind vollständig KI-generierte Inhalte meine persönliche Grenze, ab der ich „nicht mehr dabei bin“.

  3. Profilbild
    Mixit

    P.S. Ich finde es sollte auch mal über die Schatttenseiten berichtet werden, was KI anrichten kann und wohin die Reise geht, wenn wir nicht aufpassen.

  4. Profilbild
    Heiner Kruse (TGM) RED

    Ich frage mich, wo die Grenze zu ziehen ist.
    Am Freitag sah ich bei einem Studenten eine Produktion, die halb aus KI, halb aus eigenen Elementen bestand. Wir verbieten ja auch nicht die Nutzung von Samplelibraries.
    Als Musiker habe ich vor allem Bekanntheit im Bereich Jungle/ Drum & Bass erlangt. Zuletzt habe ich mal probeweise ein Stück via Prompt erzeugt. Das Ergebnis hat nicht viel mit der Musik zu tun, die ich sonst mache, aber hat eine Nähe zum mittlerweile allgemein gängigen und gefragten Format, die authentisch wirkt. Diese Musik will mittlerweile oft modern und robotisch klingen und es gibt tausende Tracks, die ähnlich klingen – da scheint es mir, obwohl es mir selbst vielleicht das Wasser abgräbt und ich den Verlust der menschlichen Komponente und die Depressionen, unter denen Newcomer und Musiker heute anscheinend oft leiden, nicht herunterspielen will, nicht unpassend, Tracks von KI zuzulassen. Im Gegenteil, es ist fast im Sinne der ursprünglichen Idee von Genres wie Neurofunk, weil hier immer die allerneueste Technik bis ins letzte Detail ausgereizt wurde. Die Abgeltung der Nutzung von Inhalten, mit denen die KI gefüttert wurde, ist eine andere Geschichte. Aber sicher wird hier am Ende wieder nur Geld auf den bereits größten Haufen drauf gelegt.

    • Profilbild
      Mixit

      @Heiner Kruse (TGM) Da stimme ich dir zu. Wo die Grenze zu ziehen sind, muss jeder für sich selbst entscheiden. Jeder hat das Recht KI zu nutzen.

      Nur sollten wir uns nicht darüber beschweren, wenn es Außmaße annimmt, mit deren Ergebnis wir nicht mehr einverstanden sind.

      Es war als Newcommer schon immer schwer mit Musik Geld zu verdienen, früher sogar noch schwerer als heute, da wir durch die Socials heute viel mehr Reichtweite aufbauen können.

      Damals musste man auf die Bühne oder brauchte eine Label, heute reicht ein Laptop, Internet und ein Distributor. Worüber beschwert sich die Jugend? Dass es so viele gibt? Dann muss man halt besser werden als andere.

      Auch die Technik erleichtert heute vieles, es gab noch nie so viele gute Analysetools wie heute. Eigentlich müssten die Newcommer von Heute Jubelschübe haben. Woher die heutigen Depressionen kommen weiß ich nicht, die Gründe sind vielleicht auch nicht in der Musik zu suchen.

      KI kann in der Harmonielehre beim Arrange oder im Mix unterstützend sein, ob man es braucht mag dahingestellt sein. Alle mir bekannten „Evergreens oder zeitlosen Tracks“ kamen ohne KI aus.

      Wer heute noch einen wirklichen Footprint setzen will, braucht vielleicht sogar noch mehr Skills als damals, um sich abheben zu können.

      Wie gesagt kann jeder KI nutzen, nur mit dem Ergebnis sollte sich derjenige dann auch arrangieren.

      Vielleicht hilft es mit einem Vergleich aus dem Handwerk, eine App kann einen erlenten Handwerksberuf nicht ersetzen.

      • Profilbild
        Heiner Kruse (TGM) RED

        @Mixit Die Depressionen kommen von der Tretmühle, die Leichtigkeit geht verloren.
        Die Ruhe und Muße, einen Sound zu designen, ist nicht gefragt, stattdessen funktionieren wie ein Roboter, Content generieren und vermarkten, auf Social Media präsent sein. Die Zeit des Musik machens wird dir, überspitzt gesagt, auch noch weggenommen, du sollst sie nur noch vermarkten.
        Aber speziell im Vocal-Bereich kann man als Produzent mit Ideen nun Sachen realisieren, die vorher nicht möglich waren. Aber wenn dann für die ganze Mühe statt Lohn noch Bashing droht, während Facebook und Co weiter dran verdienen, hilft man damit den Menschen nicht unbedingt.
        Im positiven Sinne kann die KI, gerade auch bei Vocals, Leuten helfen, sich verständlich zu machen und auszudrücken, die eine Sprache nicht beherrschen.

        • Profilbild
          Mixit

          @Heiner Kruse (TGM) Der Druck Kontent absetzen zu müssen kommt von uns selbst, generiert durch die Erwartungshaltung die durch die Socials getriggert wird. Ich kann jedem nur raten sich nicht vor diesen Karren spannen zu lassen, das kann nur für wenige gut sein und das ist in den meisten Fällen nicht der Künstler.

          Wie die Socials die Gereration heute verbiegen ist erschreckend, das hat nichts mehr mit Community zu tun. Der ganze KI-Slop der die Medien zumüllt ist Wahnsinn, der Konsum von diesem Zeug produziert dann die emotionalen Zustände und die Kognitive Leistung fällt in den Keller.

          Ich kann mir diese KI-Kurzvideos oder inhaltlose Selbstdarstellung nicht länger als 1 Minute ansehen. Nur wenige Reels zeigen guten Inhalt.

          Digital Detox wäre da sicher sehr gut, zugegeben jedoch sehr schwer der Generation vermittelbar, die damit aufgewachsen ist.

          Was es bedeutet durch selbst gemachte Musik eigene Zufriedenheit zu erfahren ist wesentlich wichtiger und sollte verstärkt vermittelt werden.

          Das fördert auch das Selbstbwusstsein und die Erkenntnis, dass es nicht die Masse von hochgeladenem Content ist, die Zufriedenheit bringt sondern das eigene Werk das einen mit Freude erfüllt.

          Nur wer mit sich und seiner Musik zufrieden und im reinen ist, sollte im Anschluss den Schritt zum Release ansgehen. Alle folgenden Schritte sind dann auch authentischer.

            • Profilbild
              Mixit

              @Heiner Kruse (TGM) Ich kann auch gut nachvollziehen was deine Argumente anbetrifft. Software zu nutzen um sich ausdrücken zu können, dagegen spricht auch nichts.

          • Profilbild
            mort76 AHU

            @Mixit „Ich kann jedem nur raten sich nicht vor diesen Karren spannen zu lassen…“

            Dafür war man früher ständig mit der Band unterwegs, um präsent zu sein, in der Hoffnung, irgendwann würde mal der richtige zusehn.

            Ich würde eher sagen: Von nix kommt nix. Irgendwas muß man den Leuten schon geben.

            ICH probiere es mal mit einer Form der Wohnzimmerkonzerte, nur etwas weiterentwickelt…ich habe einen Raum unterm Dach zu einer Bühne mit Kamera- und Lichttechnik umgebaut. DAS macht so jetzt erstmal sonst keiner…

  5. Profilbild
    Filterpad AHU

    Eine bislang sehr gute Diskussionkultur zum Thema. Eine Kennzeichnungspflicht jeglicher Benutzung von KI bei Musik ist für mich das Nonplusultra. Gilt für alles was Gesang und Melodien betrifft. Durch das neue Cubas 15 besitze ebenfalls Omnivocal. Aber veröffentlichen werde ich damit keine Nummer. Durch eine Kennzeichnung wird sich die Spreu vom Weizen trennen und ehrliche Musik Anerkennung finden.

    • Profilbild
      Mixit

      @Filterpad Sehe ich auch so, die Kennzeichnungspflicht wird zeigen wer sein musikalisches „Handwerk“ versteht und wer nicht.

      Und sollte es nicht zur Kennzeichnungspflicht kommen, dann setze ich mich für ein selbstverpflichtendes Gütesiegel ein, wie z.B. „Musik von Menschen für Menschen“.

      • Profilbild
        Filterpad AHU

        @Mixit Ja, man möchte schon wissen wer eine (einfache) Melodie kreieren kann und ob überhaupt noch ein Mensch im Track singt oder eine Maschine. Da erscheinen plötzlich die Magix-Music-Maker Loopschubser auf einmal eher harmlos dagegen. Selbstverständlich habe ich Omnivocal ausprobiert, nachdem ich Cubase 15 erhalten habe. Aber ich möchte es weder verwenden inkl. Kennzeichnung noch wegen fehlender Kennzeichnung die Leute grundlegend veräppeln. Aus diesem Grund werde ich eine Veröffentlichung damit vermeiden. Privat hingegen werde ich meinen Spaß damit haben.

        • Profilbild
          Mixit

          @Filterpad Da stimme ich dir zu. Keiner ewartet anspruchsvolle Kompositionen, ein Instrument in Perfektion zu beherrschen oder eine HighEnd Produktion.

          Mann sollte jedoch die Skills haben, einen einfacheren Song produzieren zu können oder holt sich eben noch etwas Hilfe von jemandem, das ist ja auch OK. Man sollte es jedoch vermeiden Mit KI etwas zu suggerieren, was man nicht bedienen kann.

          @ „Magix-Music-Maker Loopschubser“, da musste ich schmunzeln 😄

      • Profilbild
        Markus Galla RED

        @Mixit So sehr ich den Ruf nach einer KI-Kennzeichnungspflicht verstehen kann, möchte ich doch zu bedenken geben, wie heutige Vocal-Tracks entstehen:

        Hunderte Schnipsel aus ebenso vielen Takes werden zum ultimativen Track zusammengeschnitten, der so nie gesungen wurde. Dazu dann Autotune und Melodyne für die perfekten Vocals. Und das geht schon seit Jahren so. Ich habe mal ein Interview mit einer Sängerin gelesen, es war, meine ich Beyonce, die damals gesagt hat, dass sie nach der VÖ des Albums erst einmal die Songs hören und lernen musste, weil sie so nie gesungen wurden. Wer ist dann der Künstler? Der Techniker oder Produzent?

        Auf TikTok gibt es ebenfalls einen Trend: Dort spielen Gitarristen Tracks Ton für Ton langsam ein, lassen diesen dann schneller laufen, damit es virtuos klingt. Anschließend stellen sie sich vor die Kamera, lassen den Track laufen und mimen zum Playback.

        Geklaut wurde schon immer, getrickst wurde schon immer – selbst im analogen Zeitalter. Da wurde dann halt das Band geschnitten. Jeder Musiker wird Zeit seines Lebens von anderen inspiriert und baut unbewusst (oder bewusst) diese Einflüsse in seine Songs ein. Manchmal fällt es auf (siehe Plagiatsprozesse), manchmal nicht (oder es stört die Urheber des Originals nicht). Ab wann etwas „originell“ ist, liegt auch im Auge des Betrachters.

        KI-Kennzeichnung wird Leute nicht davon abhalten, etwas zu mögen und zu hören. Am Ende wird es kaum jemanden interessieren, wenn die Musik gut gemacht ist.

        • Profilbild
          Numitron AHU

          @Markus Galla ist aber trotzdem ein Unterschied zu ki.
          da sitzt nur noch ein Nerd und alle anderen sind Arbeitslos.

        • Profilbild
          Mixit

          @Markus Galla Das sehe ich nicht so, KI gehört gekennzeichnet zum Schutz derer, die der Ki gehlofen haben, dass diese überhaupt etwas von sich zu geben kann.

          KI ist die Erstellung eines algorithmischen Mittelwertes von musikalischem Gut, das von Menschen erschaffen wurde ohne diese zuvor gefragt zu haben, ob man das jetz nun wahrhaben will oder nicht, so ist es nun mal.

          Wenn jemand 1.000 Schipsel benötigt um die Vocalspur erstellen hat vielleicht etwas nicht verstanden oder sollte mal darüber nachdenken, ob das wirklich hilfreich ist. Nur weil andere aus 1.000 Stücken etwas formen wollen, was es so nicht gibt, bedeutet noch lange nicht, dass wir das in Zukunft auch so machen müssen oder als Standard definieren.

          Wenn ein Musikstar so etwas mit sich machern lässt ist das schlimm genug.

          Ich kenne es noch, dass vielleicht 20 Takes im schlimmsten Fall erforderlich waren. Vielleicht konnten die Leute die sich damals vors Mikrofon trauten damals einfach noch besser singen.

          @ TikTok: Es wäre vielleicht grundsätzlich zu empfehlen nachzulesen, was hinter dem Konzept der Socials wirklich steckt. Sicher nicht weil sie alle so lieb haben.

          Bevor ich meine Selbstachtung zur Musik verliere und dem was sie mir bedeutet, mache ich nur noch Musik für mich selbst und kündige das Internet.

          Die Diskussion wäre noch von 15 Jahre undenkbar gewesen. Wahnsinn wie schnell das in unseren Köpfen die Welt verändert und dem was für normal ansehen.

          • Profilbild
            Round Robin AHU

            @Mixit Sorry, aber da liegst du komplett falsch.
            Es ist absoluter Studio-Alltag, viele Takes einzusingen und anschließend die besten Stellen zusammenzuschneiden („Comping“). Das ist kein Zeichen von Unverständnis, sondern von professionellem Arbeiten.

            In einer typischen Session werden:

            – mehrere komplette Vocal-Takes aufgenommen
            – zusätzlich Punch-Ins für einzelne Wörter, Silben oder Betonungen gemacht
            – verschiedene Interpretationen ausprobiert (Timing, Emotion, Artikulation)
            – mehrfach Chorusse, Doubles, Harmonien und Ad-Libs eingesungen

            Am Ende besteht eine Vocalspur fast immer aus sehr vielen Einzelteilen. Das Ziel ist nicht, etwas „Künstliches zu erschaffen“, sondern die beste mögliche Performance zu bauen – so, wie sie der Künstler in seinem Kopf hört.

            Das hat nichts mit Unfähigkeit zu tun, sondern mit Qualitätsanspruch. Selbst extrem gute Sänger liefern selten einen kompletten Song in einem perfekten Take – und wenn doch, wird trotzdem weiter aufgenommen, weil Alternativen Gold wert sind.

            Kurz gesagt:

            Viele Schnipsel bedeuten nicht „Fake“, sondern Sorgfalt, Erfahrung und Professionalität.

            • Profilbild
              Mixit

              @Round Robin Da stimme ich dir vollstänig zu. Ich hatte mich vielleicht etwas unverständlich ausgedrückt, ich habe mich auf die „1.000“ Schnipsel bezogen.

              Dass im Studio mehrere Takes eingesungen oder eingespielt werden ist Standard, völlig korrekt. Die besten Parts aus den jeweiligen Takes werden dann für die Vocal oder Instrument Spur verwendet, so wird es nun mal gemacht.

              „Dass viele Schnipsel Fake bedeuten“, habe ich weder geschreiben noch behauptet. Das möchte ich hiermit klarstellen.

              Was ich geschreiben habe ist, dass es ab einer gewissen Anzahl von „Schnipseln“ vielleicht nicht mehr sinnvoll ist.

              Ich erinnere mich selbst an Tage an denen wir zu viele Takes aufgenommen haben und das Zusammenstellen eine brauchbaren Spur kaum noch möglich war. Derjenige der das zusammenbasteln muss ist dann auch nicht zu beneiden.

              • Profilbild
                Round Robin AHU

                @Mixit Ich würde empfehlen, nicht jedes Wort auf die Goldwaage zu legen. Mir war gut verständlich, was Herr Galla zum Ausdruck bringen wollte.

                Deinen Unmut gegenüber KI-gestützter Musikproduktion kann ich nachvollziehen. Gleichzeitig bedeutet das aber auch, dass du deinen bisherigen Workflow nicht verändern musst – niemand ist verpflichtet, KI zu nutzen. Andere probieren es aus und machen sich ihre eigenen Erfahrungen damit.

                Ich selbst habe KI ebenfalls getestet und bin zu dem Schluss gekommen: Wenn man Vocals oder andere Elemente wirklich präzise und auf den Punkt haben möchte, ist das mit KI nach wie vor sehr anspruchsvoll. Ohne eigenes Können und kreative Ideen entstehen auch mit KI keine brauchbaren Ergebnisse. Ein beliebiges Resultat reicht für die eigene Produktion oft einfach nicht aus.

                • Profilbild
                  Heiner Kruse (TGM) RED

                  @Round Robin ja, diese Details finde ich im Kontext des Artikels interessant. Im professionellen Bereich wird schon auch mal hochqualitatives Material aufgenommen, bevor es evtl. in eine andere Stimme umgewandelt wird. Aber allzuviele machen das hier vermutlich (noch) nicht, zumindest wird bislang wenig darüber diskutiert, bei wem das evtl. besser klingt als anderswo. Würde man hier über Sample-Libraries diskutieren, sähe das wohl anders aus.

          • Profilbild
            Round Robin AHU

            @Mixit PS: In professionellen Sessions ist es Standard, mehrere Full Takes plus gezielte Punch-Ins aufzunehmen. Daraus wird per Vocal-Comping die finale Lead zusammengestellt. Zusätzlich kommen Doubles, Stackings, Harmonien und Ad-Libs, die jeweils wieder aus mehreren Takes bestehen. Die hohe Clip-Anzahl entsteht durch Mikro-Timing-Korrekturen, konsistente Artikulation, saubere Transienten, kontrollierte Sibilanten und eine Performance, die sich im Mix durchsetzt. Das hat nichts mit „Unfähigkeit“ zu tun, sondern mit Produktionsästhetik, Editierbarkeit und Mix-Kompatibilität. Studioarbeit ist ein iterativer Prozess – Ziel ist die bestmögliche Performance, nicht ein Live-One-Take. -Peace-

            • Profilbild
              Mixit

              @Round Robin Einzelne Takes mit AdLips, Backings usw. zu ergänzen ist ebenfalls abloluter Standard, ja selbstverständlich.

              Ich habe auch nichts gegenteiliges behauptet, wie kommst Du darauf?

              Ein Live-One-Take wird es wohl auch nur in Ausnahmefälle geben, völlig korrekt. Aber darum geht es hier auch nicht.

        • Profilbild
          MadMac AHU

          @Markus Galla Das ist alles soweit richtig. Ich frage mich während der ganzen Diskussionen, die wir in der letzten Zeit zum Thema KI immer wieder führen, was passiert wenn man dann am Ende mit der Musik auf die Bühne muss? Oder werden dann Liveauftritte in der Zukunft obsolet? Eine KI kann (noch nicht) nicht live auftreten.

          • Profilbild
            Heiner Kruse (TGM) RED

            @MadMac Die Live-Auftritte sehe ich als Gegenpol. Das könnte der Gegentrend sein. Wegen KI werden vermutlich echte Live-Auftritte an Bedeutung gewinnen.

          • Profilbild
            liquid orange AHU

            @MadMac Scheint auch so zu gehen…
            https://www.deutschlandfunkkultur.de/abba-als-avatare-100.html

            Oder eine Show, alla Kraftwerk, die Musiker sind da einfach zu ersetzen. Und wie war das bei „In the flesh“ von Pink Floyd? Da standen andere Musiker auf der Bühne. Oder Boney M, oder Milli Vanilli, alles Showtime mit Schauspielern.

            Nicht das ich das gut finde, ich liebe es auch noch die echten Bands krachend zu hören. Aber der Masse wird das egal sein, wer die Musik macht, die sind sich schon von DJs gewohnt das die Musik nicht unbedingt von den Personen die auf der Bühne sind gespielt wird.

            • Profilbild
              mort76 AHU

              @liquid orange Das hatte bei Pink Floyd aber eben auch eine ganz bestimmte Aussage- die „Surrogate Band“ als solche mit ihren Pink Floyd-Masken SOLLTE etwas bestimmtes ausdrücken…das war ja kein Betrug.
              Das würde ich wirklich nicht mit Milli Vanilli und Co. in einen Topf werfen…

  6. Profilbild
    Tai AHU

    Mein Sohn sagte, er habe einen Song in KI gebaut, das Ergebnis wäre genau das, was er immer gerne hätte hören wollen. Also scheint es da verschiedene Ansätze und Bewertungen zu geben. Etwas so, wie in der Werbung: XYZ jetzt mit 40% mehr Bass. Dass da Musiker, TonIngs und Produzenten Tage lang zusammensassen um das genau so klingen zu lassen, wie sie es sich vorstellten, ist in diesem Fall völlig schnurz. Die neue Ästhetik wird einfach neu definiert. Urheberrechte etc. sind da ein ganz eigenes Thema, könnten aber auch einfach unter die Räder kommen.

  7. Profilbild
    Heiner Kruse (TGM) RED

    man könnte es auch als der DJ Perspektive sehen, da ist die Aufgabe eine Selection und das wird gewertschätzt. Ähnliches leistet der Promptoser ;-)

  8. Profilbild
    MrKatz

    Ich denke die Kennzeichnungspflicht macht keinen Sinn. Dafür gibt es mittlerweile viel zu viele sehr gute KI Modelle die man lokal laufen lassen kann.

    Mit generierter Musik alla UDIO kann ich persönlich nichts anfangen, aber ich denke es ist absehbar dass die Generation die damit aufwächst ihren ganz eigenen Umgang damit finden wird, den wir „Alten“ nie verstehen werden 😅

    Interessant finde ich Tools wie Dreamtonics Synthesizer V. Also die Möglichkeit Gesangsspuren per PianoRoll einzuzeichnen.

    • Profilbild
      Heiner Kruse (TGM) RED

      @astral_body Danke! Die Perspektive kann sich bei jedem von uns von Woche zu Woche wieder verändern angesichts dessen, was auf uns einströmt. Ab und an interessiert mich allerdings auch Feedback zu den technischen Deingen und Detailerfahrungen auch im Hinblick uf die Anbieter…

    • Profilbild
      astral_body

      @astral_body Damit dürften viele Probleme gelöst sein:

      – Wer als Mensch ein Werk (ohne KI!) schafft, der ist Urheber und im gehört das Werk

      – Wenn eine KI (oder mit Hilfe von KI) ein Werk entsteht, dann ist das nicht schutzwürdig.

      Zum einen ist eine KI keine natürliche Person und kann nicht die Rechte wie ein Mensch an seinem Werk besitzten (z.B. Kopplung Dauer des Urheberschutzes an die Lebensdauer der Person).
      Zum anderen hat die KI menschliche Werke als „Kopiervorlage“ genutzt und nur zufällig neu angeordnet ist somit kein Autor.

      • Profilbild
        Mixit

        @astral_body Dass ein rein KI basierter Inhalt keine Urheberrechte hat, ist bereits in der EU so geregelt, auch in den in den USA wurde das bereits gerichtlich bestätigt.

        Nur die persönliche geistige Schöpfungen eines Menschen genießt Urheberrecht.

        Den Erschaffern von reinem KI Kontent geht es auch nicht um Urheberrechte, sondern um Klicks . Nach 30 Sekunden wird i.d.R. ein Track von den DSPs vergütet. Darum geht es. Mit einer gewissen Masse an Kontent kommen große Summen zusammen. Es geht nicht ums musikmachen, sodern nur um Tantiejemen durch Klicks zu generieren.

  9. Profilbild
    Mixit

    Man muss bei der Thematik zu KI zwischen rein KI generiertem Kontent und KI unterstützen Tools unterscheiden, das ist wohl wichtig zu betonen.

    Für mich ist rein KI generierter Kontent keine Musik in Form von Kunst, sondern eine Kopie dessen, was andere bereits geleistet haben. Daher ist aus meiner Sicht rein KI generierter Kontent Kennzeichnungspflichtig und die Künstler gehören gefragt und/oder beteiligt.

    Dann gibt es die KI unterstützten Tools für Mixing, Mastering, usw. Hier kann jeder selbst entscheiden, ob er die Tools einsetzen möchte oder nicht. Sie generieren ja nichts selbst sondern vereinfachen bestenfalls den Alltag. Die Ki-Vorschläge basieren so wie ich es verstanden habe statistischen auf Mittwelwerten oder auf Analyse dessen was gerade bearbeitet wird. Die analysierten Aufälligkeiten werden dargestellt mit Vorschägen zur Korrektur.

    Bei Vocal -Tools kann ebenfalls jeder frei entscheiden, ob er das möchte. Ich würde lieber mit einem Menschen am Mikrofon etwas erschaffen, was mit der Musik interagiert. Auch das ist nur meine Sichtweise.

    • Profilbild
      mort76 AHU

      @Mixit Da könnte man aber auch verlangen, daß Mick Jagger ziemlich viele Bluesmusiker bitte mal auszahlen sollte…und so weiter.
      „Eine Kopie dessen, was andere bereits geleistet haben“ ist unsere meistens nicht wirklich wahnsinnig originelle „handgemachte“ Musik AUCH.

  10. Profilbild
    zm33

    Hier nur ein kurzer Kommentar von mir zu einem komplexen Thema:
    KI wird das komplette „Denken“ zukünftiger Generationen grundlegend verändern.
    Die sogenannte KI wird nicht auf der Basis von Skills „trainiert“. Die verwendeten analytischen Methoden dürfen absolut willkürlich sein, reine abstrakte Mustererkennung, unter Verwendung von unvorstellbaren Mengen von Abfragen an den Input (Daten). Jenseits irgendeiner Form von Körperlichkeit sind Skills auch nicht mehr notwendig, der Erwerb von Fähigkeiten nicht erforderlich. Es reicht eine Bitte an die Maschine, zB „mach mal eine andere Stimme“, „veränder den Text“ u.ä., die dann auch prompt ;-) erfüllt wird.
    Und alles über die Massenverblödungsmaschine Telefon, sorry wegen der persönlichen Entgleisung, ich nutze das Klugscheißergerät auch.
    Es gibt natürlich auch Gegenbewegungen, darauf baue ich :-) vorläufig ….

  11. Mehr anzeigen
Kommentar erstellen

Die AMAZONA.de-Kommentarfunktion ist Ihr Forum, um sich persönlich zu den Inhalten der Artikel auszutauschen. Sich daraus ergebende Diskussionen sollten höflich und sachlich geführt werden. Es besteht kein Anspruch auf Veröffentlichung. Wir behalten uns die Löschung von Inhalten vor. Dies gilt insbesondere für Inhalte, die nach unserer Einschätzung gesetzliche Vorschriften oder Rechte Dritter verletzen oder Diffamierungen, Diskriminierungen, Beleidigungen, Hass, Bedrohungen, politische Inhalte oder Werbung enthalten.

Haben Sie eigene Erfahrungen mit einem Produkt gemacht, stellen Sie diese bitte über die Funktion Leser-Story erstellen ein. Für persönliche Nachrichten verwenden Sie bitte die Nachrichtenfunktion im Profil.

ANZEIGE
ANZEIGE
ANZEIGE
ANZEIGE
X
ANZEIGE X
ANZEIGE X