ANZEIGE
ANZEIGE

Test: SUNO, KI-basierte DAW

KI Musikproduktion im Test

2. März 2026
suno studio test

Test: SUNO, KI-basierte DAW

SUNO ist eine der führenden KI-Plattformen zur Erschaffung von Musik bzw. Teilen einer Musikproduktion. Möglicherweise könnte Suno, das aktuell nur über ein teures Abonnement erhältlich ist, in Konkurrenz zu etablierten DAWs treten. Dabei will ich mich im folgenden Test, abgesehen von der Einleitung, mehr den Details zur eigentlichen Musikproduktion mit Suno als der allgemeinen Diskussion widmen.

Kurz & knapp

Was ist es? SUNO, KI-Plattform und Browser-basierte Musikproduktionsumgebung zur Erstellung und Bearbeitung von Songs, Stems und Arrangements per Text-Prompt.

  • KI-Musikproduktion: Erzeugt Songs, Lyrics, Sounds und Arrangements per Prompt, inklusive Stem-Export und kommerzieller Nutzung (Pro/Premier).
  • SUNO Studio: Browser-basierte DAW mit Remix-, Cover-, Sample- und Persona-Funktionen sowie Warp-Markern und Odd-Meter-Unterstützung.
  • Workflow: Viele neue und einzigartige kreative Optionen, aber teils träge Reaktionen, Trial-and-Error-Charakter und eingeschränkter Komfort gegenüber klassischen DAWs.
  • Klang & Praxis: Viele Genres, insbesondere moderne EDM, gelingen oft überzeugend. Cover-Versionen sind oft inspirierend, die gezielte Detailsteuerung bleibt schwierig.
  • Fazit: Flexibles, leistungsfähiges KI-Tool mit offenem rechtlichem Rahmen, das kreative Möglichkeiten erweitert, aber nicht jede Produktionsanforderung präzise erfüllt.
Bewertung

Suno Suno und Suno Studio

Finger WegUngenügendBefriedigendGutSehr GutBest BuyNicht bewertet
Bewertung des Autors
Leser
Finger WegUngenügendBefriedigendGutSehr GutBest BuyNicht bewertet
Jetzt anmelden und dieses Produkt bewerten.

ANZEIGE

SUNO: Einleitung, Registrierung und Abonnement

SUNO erlaubt das Erzeugen von Musik, Texten und Songkomponenten auf der Basis von Text-Prompts und gehört aktuell zu den Marktführern in diesem Bereich. Durch die Kooperation mit Warner, die Ende 2025 bekannt wurde, sollen legal via KI Musikstücke veröffentlicht werden und Komponisten und Künstler, deren Material Pate stand, entlohnt werden.

Ob das alles klappt, steht aktuell allerdings noch in den Sternen, denn es sind noch viele Details offen und zu klären. So ist bspw. eine Klage der Gema gegen SUNI Inc. anhängig. Doch von Sunos Seite wird die kommerzielle Nutzung der erstellten Musik erlaubt. Andererseits gibt man beim Hochladen von Audiomaterial möglicherweise mehr Rechte ab, als man möchte oder einem bewusst ist (siehe Video), ohne dass ich hier ein AGB-Studium leisten kann. Doch eine entsprechende Passage habe ich zumindest gefunden.

Suno Startscreen

Der SUNO Startscreen hat einen Schwerpunkt auf dem Streaming-Angebot

Für diesen Test wollte ich wissen, was Suno Studio leisten kann, nachdem ich ein Video mit dem überzeugenden Produktmanager Henry Phipps gesehen hatte, in dem eine Idee eingesungen und in eine Trompete gewandelt wurde.  Wie viel manuelle Bearbeitung in Kombination mit den KI-Features ist bei SUNO möglich? Zudem interessierte mich, ob Suno aus Entwürfen automatisch Arrangements erstellen kann. Und natürlich wollte ich Suno Studio kennenlernen und mich überraschen lassen.

Was kostet SUNO Studio?

Bei der ersten Anmeldung kann man sich via Apple-, Discord-, Google-, Facebook-, Microsoft-Account oder mit Hilfe einer Telefonnummer registrieren. Grundsätzlich gibt es, neben dem kostenlosen Free-Plan, zwei Tarife: Pro und Premier, die jeweils monatlich oder mit 20 % Rabatt jährlich angeboten werden. Bereits im Dezember hatte ich während des Black Friday Angebots den kleineren Pro-Plan für ein Jahr gebucht. Für diesen Test habe ich dagegen den Premier-Tarif genutzt und hierfür einen neuen Account angelegt.

Die Preise für SUNO unterscheiden sie sich bei monatlichem und jährlicher Zahlung. Aus einem Free Account heraus lag das Angebot bei jährlicher Zahlung/Kündigungsfrist zuletzt bei folgenden Beträgen (jeweils zuzüglich 19 % MwSt (Betrag in Klammern): 7,20 Euro monatlich (86,40 jährlich, Pro) bzw. 22,- Euro monatlich (314, 64 jährlich, Premier). Bei monatlicher Zahlung/Kündigungsfrist kostet SUNO 9,- Euro (10,71 monatlich, Pro) bzw. 28,- Euro (33,32 Euro monatlich, Premier).

Der Premier-Account bietet Zugang zu Sunos Studio und 10.000 monatliche Credits für bis zu 2000 Songs anstelle von 2.500 Credits für bis zu 500 Songs im Pro-Plan.

Die kostenlose Variante von SUNO bietet 50 tägliche Credits für bis zu zehn Songs, die nur für nicht-kommerzielle Zwecke genutzt werden dürfen. Ergebnisse aus den Pro- und Premier-Plänen lassen sich hingegen laut SUNO kommerziell veröffentlichen und monetarisieren. Zudem erhält man die Möglichkeit, eigenes Audiomaterial hochzuladen und bekommt Priorität bei der Berechnung.

Basics und Songs der günstigeren Pro Variante

Grundsätzlich geht es bei SUNO an vielen Stellen darum, Prompts vor dem Klick auf „Create“ gut zu formulieren.

ANZEIGE
Suno Create

In SUNO geht alles um den Create-Button

Dabei kann man Lyrics unabhängig von der Musik erstellen bzw. prompten. Auch ist es möglich, einen ganzen Songtext auf Basis eines Prompts zu erstellen. Grundsätzlich liefert Suno immer zwei Vorschläge, egal ob man Lyrics, Sounds oder ganze Songs via „Create“ erzeugen lässt, die daraufhin hin in der Library landen.

Suno Create Ansicht

SUNOS Create Ansicht, die auch Pro- und Free-Usern zur Verfügung steht

Vieles lässt sich via Klick auf einen Magic Button verfeinern.

Suno Magic

Oben rechts im Bereich Lyrics und Style von SUNO sind die Magic-Buttons zu sehen

So wird im Bereich „Styles“ aus „Synthesizer-Musik melancholisch im Stil der späten 70er Jahre“ dann:

„Ein melancholisches Synthesizer-Stück im Stil der späten 70er startet mit flächigen analog Synth-Pads, leisen Arpeggien und sanftem Bass. Drums setzen weich im Midtempo ein, während melancholische Lead-Melodien zum nostalgischen Text über verloren gegangene Träume führen.“

Die Ergebnisse klingen für meine Ohren allerdings nicht authentisch, sondern eher nach moderner Pop-Musik. Das gilt auch für die 70er Synth-Ballade.

Mit Drum and Bass klappt es besser. Hier kenne ich mich gut aus und Versuche, auf der Basis von Prompts neue Drum & Bass Stücke zu erzielen, überzeugten mich. Die Musik klingt wie moderne Musik des Genres und oft sind sehr gute Strukturen oder Vocals dabei.

Ich kann nicht leugnen, dass ich diese Art der Musik-Entstehung zu manchen dieser Subgenres passend finde, wo ohnehin eine moderne technische Ästhetik das Ziel ist. Freilich verfestigt diese Prozedur eher die bestehende Formel. Innovation und Andersartigkeit sind weniger zu erwarten. Hier ein Beispiel:

Auch für andere Genres lassen sich gute Stücke generieren. Manchmal sticht für mich die Qualität des Gesangs hervor. Versuche, orchestrale oder soulige Stücke zu generieren, wirkten im Test allerdings nicht perfekt, aber auch nicht schlecht und sicher gut genug, um als Sample für weitere Produktionen zu dienen.

Spaß-Versuche, Kölsche Karnevalsmusik zu generieren, klingen im Gesangsbereich mit einer konstruierten Sprache („Drissdäähk“ sollte Dienstag bedeuten) eher unerträglich, während die Musik durchaus passend rüberkommt.

Manche SUNO-Ergebnisse klingen wie altbekannte Songs, so dass man kaum sicher sein kann, dass  Copyright-Probleme ausgeschlossen sind. Daher halte ich mich hier auch mit Audiobeispielen ein wenig zurück oder kürze sie, ein paar mehr gibt es in meinem weiter unten verlinkten Video.

Mit der Pro-Variante von SUNO (im Test in V5 Beta) erzeugte Stücke sind, wie in der großen Premier-Abovariante, als Stems exportierbar. Das klingt im Test über kleine Speaker manchmal so gut, dass ich mich gefragt habe, ob die Stem Separation auf der Basis eines fertigen Stücks geschah oder ob ich hier die Einzelteile geliefert bekomme, aus denen das Stück zusammengesetzt ist. Nach genauerem Hinhören wurde jedoch schnell klar, dass Ersteres der Fall ist.

Hier scheiden sich freilich die Geister. Manche Mastering-Leute finden die Qualität in Debatten zu schlecht für eine Weiterbearbeitung. Ich denke, dass sie zumindest genug gut genug ist, um mit Kreativität etwas Gutes anderes daraus machen zu können.

Übrigens, einige Wochen nach meinem ersten Test funktionierte die Stem-Extraction auf einmal anders. Statt sechs konnte ich nur noch zwei oder deutlich mehr (z. B. 12) Stems für 10 bzw. 50 Credits exportieren, für meinen Geschmack ist das eine Verschlechterung.

SUNO Editor

Die Pro-Variante von SUNO verfügt über einen Editor, der eine Art Light-Version von SUNO Studio ist. Man kann hier Song-Edits vornehmen, neue Sektionen erstellen, von einer Aufteilung in Sektionen profitieren, eine Sektion selektieren oder Alternativen mit Hilfe des Replace-Funktion erzeugen. Im Replace-Modus gibt es dazu die Optionen Classic (besser für lange Parts), Fixed (besser für kurze Parts) und Smart (mit automatischer Anpassung).

Suno Editor

Sunos einfacher Song-Editor

SUNO Studio 1.2 in der Premier-Version

In SUNO Studio gibt es deutlich mehr Optionen als im Editor und man nähert sich langsam tatsächlich einer DAW an.

Im Testverlauf erschien ein Update zu SUNO Studio 1.2. Neu ist: Stems können von Effekten befreit werden, Warp Marker wurden eingeführt und Odd Meter wie 7/8 und 11/4 sind nun möglich. Zudem lassen sich nun Alternate-Takes verwalten – ein Feature, das ich in Logic und Pro Tools besonders oft nutze. Mit einem „Pfeil nach oben“-Button aktiviert man diese in der Spur – ähnlich wie in Logic und komfortabler als in Ableton Live.

Suno Studio Ansicht 2

SUNO Studio-Ansicht

SUNO Studio erschien während des Tests als Webseiten-Option und stand nur im Browser, nicht als App zur Verfügung. Nach dem Öffnen wird zunächst ein kurzes Demovideo gezeigt, das zum Upload von eigenem Audiomaterial auffordert. Zudem werden links mögliche Arbeitsschritte sichtbar: Import Audio, Record Audio, Extract Stems, Add Instruments, Remix Selection und Export. Doch erst bei einem zweiten Öffnen des Tabs lassen sich Audiodateien auch wirklich hier hereinziehen.

Grundsätzlich ermöglicht SUNO Studio etwas differenziertere Prompts und Einstellungen. Oben links wird zwischen den Optionen Simple, Custom und Sounds unterschieden. Erstellte Inhalte oder Stems kann man genauso wie eigene Audiodateien in den Arrangier-Bereich ziehen.

Im Custom-Tab erscheinen zunächst die Tabs Audio, Persona und Inspo sowie Advanced Options. Bei Bezugnahme auf ein Audiofile oder einen Suno-Track erscheinen im Custom Tab dann Remix-Optionen. Diese heißen: Cover, Add Instrumental, Add Vocals, Use Style & Lyrics.

Suno Studio

Optionen in Suno Studio

Optionen in SUNO Studio bezogen auf Audio

Zu beachten ist, dass die Option Remix hier zunächst „Cover“ als Unteroption nutzt.

Suno Remix Untermenü

SUNIS Remix – Untermenü

Vocal-Stimmen heißen in SUNO „Persona“. Man kann diese mit Beschreibungen erschaffen und konsistent in einem Album und oder mehreren Tracks einsetzen. Man hat nicht das Gefühl einer begrenzten Stimmenauswahl und erschaffene Persona können optional öffentlich verfügbar gemacht werden.

Suno Persona

SUNO Persona Dialog

Ein wenig irritiert war ich, dass immer Bezug auf einen Song genommen werden musste, sonst konnte die Persona nicht erstellt werden. Im Test klappt es zwar auch mit Bezug auf ein Instrumental. Hätte ich mich hier auch auf einen Upload beziehen können? Nein, diese Option erschien nur ausgegraut mit einem Hinweis, dass aktuell Personas nicht aus Uploads generiert werden können.

Mit Inspo ist ein Track gemeint, der als Inspiration eingesetzt werden kann. Das Ergebnis klingt meist aber ziemlich anders.

Im Sounds-Tab lassen sich Sounds anstatt Stücke erstellen. Wenn ich dabei via „Create“ einen Basssound erzeugen will, gibt es die Optionen One Shot und Loop. Doch auch im ersten Fall kam im Test kein einzelner Ton, sondern eine Art Riff heraus.

In der Pro-Variante gibt es nur die Option, ganze Stücke zu erstellen. Wollte ich während des Tests per Prompt einen Solo-Sound erstellen, kam ein fertiges Stück heraus, dass dann immerhin mit einem Solo losging. Das war allerdings, vielleicht als Ausdruck der „Ausproduziertheit“, stark verhallt. Hier habe ich Audiomaterial direkt von SUNO heruntergeladen, weshalb noch ein Cover dabei ist.

Rohes Audiomaterial hochladen? Praxis und Tempoprobleme.

Beim ersten völlig unvorbereiteten Upload einer ungeschnittenen Synthesizer-Aufnahme in den  Projektbereich erfolgt überraschenderweise eine Tempoanpassung. SUNO scheint, zumindest bezogen auf meinen noch unangepassten Arbeitsstil, Probleme mit Tempoannpassungen zu haben. BPM-Tempoangaben in Prompts für eine Cover-Version werden oft ignoriert, aber das scheint zum Konzept zu gehören (siehe unten),

Zieht man sauber geschnittenes Audiomaterial hinein oder arbeitet im (von SUNO angegebenen) Tempo, klappen die Dinge dagegen besser.

So mit Suno Studio arbeiten, wie es zur App passt

Eine angefertigte „Cover“-Version eines hochgeladenen und bereits veröffentlichten Stücks von mir klingt harmonisch wie das Vorbild, aber ist völlig anders instrumentiert und arrangiert. Während das einerseits ein überraschendes und inspirierendes Ergebnis sist, hätte ich mir andererseits mehr Bezug zum Audiomaterial des Originals gewünscht. Zu beachten ist zwar, dass Audio Slider und Style Slider gegeneinander wirken, doch eine Gewichtung zugunsten von Audio bedeutet nicht, dass das Sample verwendet wird. Auch in der realen Welt verwenden nur Remixes und nicht Coverversionen, Audiomaterial des Originals.

Suno Studio Advanced Settings

SUNO Studio Advanced Settings

Positiv halte ich fest, dass der musizierende Mensch hier lernen kann, aus Schemata stilistisch auszubrechen. Einen klassischen Remix bietet SUNO zunächst nicht an – aber die Optionen Mashup (aus zwei Stücken) und Sample (Beta). Letzteres lässt uns ein ausgewähltes Sample für ein neues Stück verwenden und wir können der „Remix“-Idee näher kommen.

Im Test kam es aber vor, dass es SUNO nicht gelang, irgendetwas dazu zu komponieren. In anderen Fällen klangen die gesampelten Inhalte in den via „Create“ erzeugten Ergebnisse passend bzw. leicht anders.

Details und weitere Praxisaspekte

Gegenüber einer typischen DAW fehlen in SUNO Menüeinträge, Plug-ins (außer einem EQ) und vieles mehr. An einiges kann man sich aber gewöhnen, zumal Producing im Browser durchaus ein interessanter Zukunftsansatz ist, den auch Image Line mit FL Studio Web gerade überzeugend vorgestellt hat.

Suno Studio mit Audioeditor

SUNO Studio mit Audio-Editor

Die Transporttasten sind sehr klein dargestellt, hier findet man auch eine Tempoeinstellung und eine Zoom-Funktion (+/-).

Suno Transport

SUNO Transport

In einer Spur kann man bei Bedarf einen Audio-Input selektieren, um nach Spurscharfschaltung in das Arrangement direkt aufnehmen zu können. Die Reaktion der Online-DAW fiel aber im Praxistest trotz schneller Internetverbindung oft träger als bei einer typischen App-DAW aus. Die Aufnahme muss erst hochgeladen werden, zudem sind kleine manuelle Korrekturen des Latenzversatzes nötig.

Suno Wahl des Audio- Interfaces 2

SUNO und die Wahl des Audiointerfaces in der Spur

Eine Aufnahme kann als Basis einer Komposition, z. B. via „Cover“-Methode, dienen. So lässt sich aus einem eingesungenem Part auch ein Orchesterarrangement erzeugen, wie Henry Phipps in einem anderen Video zeigt:

Sie sehen gerade einen Platzhalterinhalt von YouTube. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.

Mehr Informationen

Klickt man in SUNO Studio auf ein erzeugtes Ergebnis, werden Stems verfügbar und man kann z. B. nur die Drums des bisherigen Arrangements austauschen. In diesem Kontext ist es natürlich sinnvoll, dass „Cover“-Varianten das gleiche Tempo haben.

Es gibt auch ein paar Shortcuts. Command+E zum Schneiden, verschieben mit gehaltener Command-Taste deaktiviert ein Grid. Die Dokumentation ist aber spärlich. Am besten klickt man sich durch die Videos auf SUNOs YouTube-Kanal. Andere wie CMD + Shift + S, die Henry Phipps im Video nutzt, greift mein Browser nicht so klaglos auf. Eine zuvor geschnittene Region wieder zu verlängern, gelingt mir im Test nicht (nur via „Undo“, Undo/Redo gibt es als anklickbare Symbole).

Suno Clip Param

SUNO Clip Parameter

Man kann einen leeren Bereich einer Spur selektieren, ein Instrument auswählen, den Style beschreiben, Parameter einstellen und für diesen Bereich eine neue „Einspielung“ als Audiofile bekommen. Mit dieser Option hebt sich SUNO Studio von anderen DAWs deutlich ab.

Um aber aus dem eigenen Gesang eine Trompete zu generieren, so wie Phipps das im oben erwähnten Video macht, müssen zunächst mehrere Vocal-Regionen in den Audiobereich gezogen, neu intepretiert und dann per Prompt in eine Solo-Trompete transformiert werden. Diese werden als Stem extrahiert und ins Arrangement gezogen – mit einem tollen Ergebnis. Und doch ist das irgendwie „von hinten durch die Brust ins Auge“. Qualitätsverlust via Stem-Extraction scheint bei diesem Workflow kein Thema, aber sicher kommt es darauf an, wie gut man hinhört.

Konkurrenz zu SUNO – und was meint ihr?

Konkurrent Udio kooperiert mit Universal und erlaubt aktuell keine Veröffentlichungen.

In Bezug auf das Erstellen von Vocals gibt es anderswo mehr Optionen, etwa um aus eigenen Uploads Vocals zu generieren. Ich verweise auf meine Artikel über Audimee, Dreamtonics Synthesizer V und V2 und über das Produzieren von Vocals mit KI. Eine weiter hier getestete Alternative heißt ACE Studio.

Eine Remaster-Option und eine einfache Videoerstellung (mit einem Cover-Bild) sind ab der Pro-Variante vorhanden. Zudem entwickelt sich die SUNO-Website selbst zur Social Media Plattform, in der KI Ergebnisse im Tiktok-Stil durchblättert werden können (im Bereich „Hook“).

SUNO ist zugleich auch Streaming-Plattform, über die man neue und genre-spezifische Musik entdecken und hören kann. Mit dem SUNO Account lässt sich ein Künstlerprofil verbinden, allerdings fand ich im Test nur wenige verknüpfte Spotify Accounts wirklich belebt.

Was meint ihr? Macht es Spaß, als „Promptoser“ mit SUNO zu produzieren und sind die Ergebnisse befriedigend? Wie geht man künstlerisch, ethisch und praktisch damit um? Wird es eines Tages normal sein, die KI für Parts zu nutzen, so wie man sich an die Nutzung von Samples gewöhnt hat? Oder werden Künstler, die KI ganz oder teilweise nutzen, stark kritisiert werden? Ist SUNO das optimale Tool für DJs und gewinnt der Begriff „Selector“ eine neue Bedeutung?

Sie sehen gerade einen Platzhalterinhalt von YouTube. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.

Mehr Informationen

Sie sehen gerade einen Platzhalterinhalt von YouTube. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.

Mehr Informationen

 

ANZEIGE
Klangbeispiele
Fazit

SUNO Studio ist ein sehr flexibles Tool, das auf verschiedenste Weisen genutzt werden kann und ist mit einer Browser-basierten DAW vergleichbar. SUNO (auch ohne Studio) ermöglicht auch absoluten Laien, gut klingende Stücke zu erstellen und als Pro- oder Premier-Subscriber zu veröffentlichen. Edits und Anpassungen sind sowohl in SUNO Studio als auch dem neuen Editor möglich. Vom Workflow-Komfort her bevorzuge ich aber den Export von Daten aus Suno zur Weiterverarbeitung in einer anderen DAW. Mal eben ein neues Arrangement aus einem Sample zu erzeugen, klappte nach meinen Vorstellungen eher weniger, erzeugte Cover-Versionen ohne Original-Samples fand ich dagegen oft überzeugend.

Der größter Nachteil ist die mitunter starke Trägheit der Reaktion von SUNO Studio, z. B. bei der Auswahl einer Audioquelle und Edits oder beim Warten auf die KI. Zudem sind manche Workflows unstrukturiert, vieles ist „Trial and Error“. Meist finde ich das wenig inspirierend.

Andererseits bekommt man viel Gutes an die Hand, was im Arbeitsalltag auch Sample-Librarys ersetzen könnte. Und man kann oft Dinge realisieren, die bislang nicht oder nur sehr aufwändig möglich waren.

Rechtlich und ethisch bleiben Fragen offen. Wie in konventioneller Musikproduktion ist es besonders schwer, Ergebnisse genau auf einen anvisierten Punkt zu bringen, während es leichter wird, alles Mögliche als halbwegs brauchbare Variante zu realisieren.

Plus

  • Revolution der Musikproduktion
  • Zugriff auf Instrumente aller Art
  • zunehmend DAW-ähnliche Funktionen in Suno Studio
  • Erstellung von musikalischen Fragmenten in Suno Studio möglich
  • Erstellung von Remixes auf Basis von Audiodateien manchmal möglich
  • Erstellen von Cover-Versionen und Remixes auf Basis von Audiomaterial möglich, dabei bleibt das Tempo gleich
  • gute Stem-Separation
  • separate Möglichkeit zum Erzeugen von Lyrics

Minus

  • Workflows im Browser und im Allgemeinen sind oft träge und nicht sehr gut strukturiert
  • möglicherweise unbewusste Abgabe von Rechten an Suno
  • ungeklärte Urheberrechtsfragen

Preis

  • Free Version: kostenlos
  • Pro Version: ca. 9,- Euro monatlich (Rabatt bei jährlichem Abonnement)
  • Premier Version: ca. 28,- Euro monatlich (Rabatt bei jährlichem Abonnement)
ANZEIGE
Über den Autor
Profilbild

Heiner Kruse (TGM) RED

Ich liebe Sound und Musik, veröffentliche vor allem D&B/Jungle als The Green Man (TGM), betreibe das Label Basswerk, mache aber auch gern filmische oder langsamere Sachen.
In vielen neuen Geräten und Modulen finde ich Innovationsgeist, ähnlich wie damals bei Jungle, und das interessiert mich. Ich habe 19 Jahre Erfahrung als Dozent und Coach. Mein neuestes Buch über modulare Synthesizer ist im Frühjahr erschienen, wo ich, wie auch in vorherigen Büchern über Reason oder Logic ...

Klangbeispiele
Forum
  1. Profilbild
    manomym

    Gleich mal vorweg: mein Verhältnis zu KI ist zwiespältig, weil ich mir voll bewusst bin, dass sie mich im Beruf demnächst fast gänzlich ersetzen wird….
    Aber da ich diese Entwicklung nicht aufhalten kann, habe ich mich jetzt doch mal dazu entschlossen Suno zu testen und mit KI Spaß zu haben.
    Ich habe 2000 hobbymäßig ein tolles Stück geschrieben, das ich immer gerne mit Orchester und Chor gehört hätte, aber für eine Hobbyaufnahme 5000 Euro auszugeben hätte sich wohl eher nicht rentiert. Jetzt habe ich das Stück in Suno eingespeist (mit entsprechendem Prompt) und beim Ergebnis sind mir fast die Tränen vor Rührung gekommen, weil es praktisch genau so klang, wie ich mir das 25 Jahre lang vorgestellt hatte – absolut gigantisch.
    (da ist es mir dann auch egal, ob suno meine Uploads wiederum zum Training benutzt, die klingen nämlich eh alle schlecht :) )

    • Profilbild
      Heiner Kruse (TGM) RED

      @manomym ein interessanter Kommentar, der viele Aspekte aufgreift. Allerdings kann es sein, wenn Du das Kleimngedruckte liest, dass Suno das nicht nur zum Training benutzt, sondern die erstellte Musik auch nutzen und weiterlizensieren kann.

  2. Profilbild
    Andreas AHU

    Bei KI bin ich auch etwas „Zweigespalten“. Auf der Arbeit haben wir eine „eigene“ KI vom der Zentrale gestellt und die ist wirklich super um mich bei der täglichen Arbeit zu unterstützen, wenn es z.B. darum geht komplexe Excel-VBA Code zu erstellen und es ist vor allen Dingen sehr viel angenehmer, als sich in irgendwelchen Foren von „Fachleuten“ anpöbeln zu lassen, weil sie nicht verstehen, was ich will. :D

    Bei der Musik – bzw. Kreativem generell – bin ich der KI eher kritisch eingestellt. Wenn die KI alles für mich macht – so toll es eigentlich ist – frage ich mich, wo da noch meine Kreativität gefordert wird?
    Zwei Bandmitglieder hatten sich kürzlich einen Spaß draus gemacht einen neuen Song von einer KI überarbeiten zu lassen (kann sein, dass es sogar Suno war). Das Ergebnis war erstaunlich. Ein Super Song. Sogar die Gesangsstimme. Elendig genial. Fertig abgemischt, direkt fürs Radio gemacht. Um Längen besser als alles, was wir selber überhaupt machen.
    Das ist doch frustrierend? Wenn ich feststelle, dass eine KI besser ist als ich. Besser „singt“ als unsere Sängerin. Und nun spielen wir nach, was eine KI uns „vorgeschlagen“ hat. Ich hasse das Lied, das glaubt ihr gar nicht, denn es sind nur die Akkorde von uns (eigentlich nicht mal die, aber das ist eine andere Geschichte).
    Wenn man sich irgendwann nicht mehr drauf verlassen kann, dass ein Mensch hinter der Musik steht, ist das schon schlimm..

    • Profilbild
      Heiner Kruse (TGM) RED

      @Andreas auch das trifft den Nagel auf den Punkt. Ich bin zuletzt immer öfter mit der Thematik konfrontiert worden, dass Studenten der Musikproduktion über dieses Thema wirklich Depressionen bekommen. Die „Lösung“ kann für mich eigentlich nur darin bestehen, dass das Musik machen aus einem inneren Drang heraus und nicht nur aus kommerziellen Gründen geschehen muss, damit das nicht passiert. Dann kann die Freude über neue Möglichkeiten überwiegen, die man erforschen und bei Bedarf nutzen kann.

    • Profilbild
      Viertelnote AHU

      @Andreas KI hat auch gesehen das du geweint hast?
      Spaß freude so sagt man Schweiß Jubel Umarmung weil
      ihr etwas geschaffen habt. Gefühl das habt
      ihr – nur KI wird tot bleiben.

  3. Profilbild
    Filterpad AHU

    Von dem kölsche Ding bin ich echt überrascht, auch wenn ich persönlich keinen Bezug zum Kölsche Allaaf habe. Hier den (falschen) Gesang raus und durch einen anderen (KI-Gesang) ersetzen, fertig ist man für nächstes Jahr Heumarkt 11.11 – 11Uhr 11. und dem Motto 2027: „Morje es, wat do drus mähs!“ Unglaublich dieses authentische Ergebnis für so ein spezielles Genre! Ich persönlich werde mich von KI bezüglich Musik allerdings raushalten, denn ich möchte ehrliche Musik machen, anstatt Fremdmaterial einzusetzen und sich dann als Musiker zu definieren. Viele möchten Musiker sein, nur ein sehr geringer Teil ist es tatsächlich.

    • Profilbild
      Trichter

      @Filterpad Ja, das Kölsche Karnevalslied ist verrückt. Nach dem 10. Kölsch ist es aber auch egal ob der Text Sinn ergibt oder nicht. ;)

      Bei der Verwendung von KI muss man als Mensch in Zukunft genau aufpassen, wofür diese Systeme eingesetzt werden … will ich damit langweilige Aufgaben automatisieren oder ersetze ich damit mich selbst bei Tätigkeiten, die mir Spaß machen?

  4. Profilbild
    Olaf Strassen AHU

    Suno ist genial und für Produzenten ein feuchter Traum. Mit „unehrlicher“ Musik hat das – je nach Nutzung – nichts zu tun. Für viele Audiojobs muss ich nicht mehr tief in den Geldbeutel greifen: Statt 400 € für einen Nachmittag mit Percussionist oder Cellist gebe ich Wunschmelodie und Eigenschaften ein und erhalte innert max. 30 Minuten ein ausgezeichnetes Resultat. Spätere Änderungen in der Postproduktion? Kein Problem. Main-Vocals bleiben bei mir aus mehreren Gründen weiterhin menschlich, für Backing-Vocals und dergleichen ist es jedoch wahnsinnig zeitsparend.

    Ob Suno meine hochgeladene Musik irgendwie nutzt, ist für mich zweitrangig; Negativbeispiele sind mir jedenfalls (noch) nicht bekannt. Dass KI Jobs verdrängt, schon eher. KI mischt die Berufswelt neu. Klagen hilft nicht, der Wandel ist längst im Gang. Die Gewinner werden in meinen Augen jene sein, die das Beste aus beiden Welten zu vereinen wissen.

    Wenn man das Werk ins Zentrum stellt und keinen Anspruch auf Autorschaft, Originalität oder „menschliche Reinheit“ erhebt, relativiert sich vieles. Das Problem ist weniger die KI als unser Bedürfnis, Wert und Identität an Personen statt an Ergebnisse zu knüpfen. Hier werden wir eben umdenken müssen.

  5. Profilbild
    Mixit

    Mir fällt dazu nur noch ein, wie Menschen auf einem Oberdeck versammelt sind, vermeindlich leckeres Eis essen, nach vorne schauen und sehend Kurs auf einen Eisberg haben.

    Zitat:“ ……die erstellte Musik auch nutzen und weiterlizensieren kann….“

    Da fällt mir nichts mehr ein ausser: selber Schuld, wer so etwas verwendet.

    KI wird die Musikwelt weiter verändern, und wenn die Massen vom KI-Slop die Nase voll haben, kommen diejenigen wieder nach vorne, die in der ganzen Zeit „Created by a human being“ als Motto hatten.

    Weshalb man auch noch für diesen Form der „Geschäftsidee“ regelmäßig Werbung machen muss, ist die eigentliche Frage. Es hat nichts mehr mit Musik zu tun, nur noch Copy & Paste, gib mir deine Daten und zahle, was ich will.

    Na dann, viel Spaß damit 😜

  6. Profilbild
    Basicnoise AHU

    Ich finde es aus Sicht eines Hobbymusikers komplett witzlos. Habe auch (ist schon etwas her) mal mit Suno etwas herumprobiert und die Ergebnisse waren durchaus interessant. Aber was mach ich dann damit? Ich will doch selbst Musik machen, und tüftlen und Schrauben und herumprobieren bis ich etwas geil finde. Sich das alles zu nehmen und mit einem Promt zu ersetzen ist doch unbefriedigend.

    Ich kann mir vorstellen, dass es für Leute, die zb Musik für Werbung oder Ähnliches produzieren interessant sein kann. Also wenn es um darum geht, schnell und viel zu produzieren um Geld zu verdienen. Auf der anderen Seite wählt man so einen Job ja auch nicht, weil man Programmierer sein will. Dazu komtm die schon angesprochene Rechtefrage.

    Von mir aus könnte alles KI wieder weg. Alles.
    Leute nutzen ChatGPT inzwischen für die banalsten Dinge. Etwa um Google Rezensionen zu erstellen.

    Bescheuert :D

    • Profilbild
      Mixit

      @Basicnoise Schön auf den Punkt gebracht, es hat nichts mehr mit Musikmachen zu tun. Die Beschäftigung mit Klängen, Rythmik und Harmonien ist doch das, was Freude macht.

      Auch aus meiner Sicht kann das gesamte KI-Gedöns wieder verschwinden, die besten Songs dieser Welt der letzten Jahrzente wurde ohne gemacht und das hat vielleicht auch seinen Grund.

  7. Profilbild
    TobyB RED

    Danke Heiner das du dir die Mühe gemacht hast. Ich find KI Tools ganz nützlich, wenn es um Routineaufgaben geht. Wenn ich die aber benötige um das 70ssynth Thema rauszuhauen läuft grundsätzlich was falsch. Oder um es in meinen Worten zu sagen, sowas mach ich Sonntags nach dem Mittagessen. Antonus Stepbrother angeworfen. Linndrum oder LM-Drum, Beat einklopfen. Grundton und Tempo am Stepbrother einstellen, BARP oder PRO-3 Basslauf. Einmal durch das FX Gedöns. Laufen lassen, in der Zwischenzeit Lead und Padsound raussuchen und mit dem Erae Touch probieren. Irgendwas von Korg, Oberheim, Sequential oder Roland passt immer.

    Das die Urheberrechtsfragen ungeklärt ist nicht mehr aktuell. Die GEMA hatte das im letzten Jahr grundsätzlich klären lassen. Es ging in einem Verfahren um die Memorisierung und in einem anderen ob KI ohne Lizenz geschützte Werke zu Trainingszwecken nutzen darf und um die Vergütung. Beide Verfahren gingen zu Gunsten der GEMA aus. Zum anderen ist es gelebte Praxis, dass Label dir eine entsprechende Klausel zur KI Nutzung in den Vertrag legen. Gar nicht zu sprechen vom ökologischen und sozialen Fussabdruck den KI hinterlässt.

      • Profilbild
        TobyB RED

        @Heiner Kruse (TGM) , das Verfahren am 09.03.2026 da gehts „nur“ noch um die Vergütung, die wesentlichen Verfahren sind im letzten Jahr schon entschieden worden. Stand auch so im letzten Mitgliederblatt. Aber machen wir uns nichts vor, das ist der Anfang.

  8. Profilbild
    liquid orange AHU

    Selbst wenn die KI wesentlich bessere Songs macht als viele meiner Lieblingsmusiker oder gar als ich (was gar nicht schwer ist), das ist doch OK. Es gibt auch viele Köche die besser kochen als die Restaurants in die ich gehe oder wenn wir selber kochen. Trotzdem machen wir das, weil es eben geil ist was selbst zu machen und weil es ebenfalls geil ist von einer Band die Musik um die Löffel geklatscht zu bekommen und zu sehen, wie Band und Publikum interagieren. Oder weil es super geil ist ein tolles Cover in Händen zu halten und eine Platte aufzulegen. Musik ist nicht nur ein Datenstrom, da steckt mehr dahinter.
    Lasst doch die KI ihre Songs selber hören, wenn sie das Zeugs schon produziert. Wir müssen da ja nichts damit zu tun haben. Wir müssen aber aufhören unsere Songs auf Billig-Plattformen zur Verfügung zu stellen und da Musik zu hören.

  9. Profilbild
    Polysix

    Vielleicht etwas Off-Topic, was den Test angeht. Aber ich muss es loswerden.

    In der Wissenschaft ist die Sprach-KI im Grunde der ultimative, kostenlose Ghostwriter. Da Ghostwriting in akademischen Arbeiten von Studenten seit Jahrzehnten ein (schwer nachweisbares) Massenphänomen ist, reagiert das System so träge. Es ist „nur“ eine Fortsetzung der alten Täuschung mit neuen Mitteln. 

    In der Musik hingegen greift die KI die Kernsubstanz an: den Sound und das Timbre. Sobald die KI die Hürde nimmt, dass Tools den Unterschied nicht mehr messen können, geschweige denn, dass es geschulte Ohren hören können, bricht das Geschäftsmodell der Streaming-Anbieter zusammen, die für „Human Content“ werben.

    Die Industrie hat mit dem Streaming-Modell etwas geschaffen, das auf Masse setzt. Das war und ist für den „echten“ Musiker auch ohne KI ein Problem. 10.000 Plays generieren oft nur zwischen 30 und 40 Euro, je nach Land und Abo-Status der Hörer. Streaming hat Musik von einem wertvollen Gut (Album/CD) zu einem flüchtigen Gebrauchsgegenstand gemacht, der jederzeit und fast kostenlos verfügbar ist. Die KI liefert nun den unendlichen Nachschub für diesen Billigmarkt. Sie wirkt wie ein Brandbeschleuniger.

    Die Musikindustrie versucht gerade verzweifelt, die „Büchse der Pandora“ mit Filtern zuzuhalten, während die Wissenschaft sie längst weit geöffnet hat, weil sie keine andere Wahl hat.

    • Profilbild
      Viertelnote AHU

      @Polysix KI in der Medicin.
      Sehr großer Themencomplex btw.
      Ophthalmology / Augenheilkunde die Anwendung da sehr interessant ist.

      Okay OT- back to music🙂

  10. Profilbild
    Deboir

    Ich experimentiere etwas mit Ki, anstatt es komplett zu verteufeln, da ich bisher nie eine Band zusammentrommeln konnte und hier Abhilfe geschaffen wird, um dennoch eigene Stücke zu kreieren.

    Bei Suno stört mich allerdings, dass mir bisher kein authentisches Ergebnis für Musikgenres wie Black Metal, Atmopheric Black Metal und Shoegaze/Blackgaze gelungen ist. Alles was da herauskommt, klingt wie eine moderne Metalcoremischung, was mit den genannten Stilen rein garnichts zu tun hat.

    Bei Udio hingegen klingt es tatsächlich so authentisch, als hätte man es wie in den 90er in ner Garage aufgenommen inkl. realistischer highpitched screaming.
    Gelingt es vielleicht mit der Suno Pro Version oder wenn man von Udio kurze Audioschnipsel via DAW/Recorder aufnimmt und Suno damit füttert, um in genau diesem Ton/Style weiterzumachen?

    Da ich Texte selber schreibe und gerade Screaming erlerne, würde ich als Experiment den Ki gnerierten Gesang durch eigenen ersetzen. Im Grunde ist es wie ein modernes Karaoke, allerdings so im Mix platziert, dass ein CD-tauglicher Track entsteht.

    Kann jeder drüber lästern wie er mag, die Katze ist ausm Sack und lässt sich nicht mehr verbannen, wieso also dann nicht selbst kreativ nutzen 👍 um eventuell live aufzutreten, werden sessionmusiker bezahlt, dh da würde keiner leer ausgehen.

    • Profilbild
      Heiner Kruse (TGM) RED

      @Deboir interessant. Ich finde viele Debatten zu allgemein, solche Details interessieren mich. Ich habe ja im Test auch bemerkt, dass Suno einiges kann, anderes nicht. Das beweist für mich vor allem, dass nur dann was Gutes rauskommt. wenn die KI mit entsprechendem, vo0n Menschenhand gemachtem Material gefüttert wurde.
      Ich habe Udio auch schon mal ausprobiert, aber die Sachen sind ja jetzt nicht mehr offiziell nutzbar.
      Zudem hatte ich da den Eindruck, dass der KI ein wenig der Saft ausgeht und die Ergebnisse immer schlechter wurden. Aber da offiziell was qualifiziertes zu schreiben, was morgen nicht schon wieder obsolet ist, ist gar nicht so leicht. Findest Du oder jemand anders bei Udio auch Schwächen in Bezug auf manche Genres?

  11. Profilbild
    Olaf Strassen AHU

    1/2: Das eine ist das Erzeugen von Musik per Mausklick und Texteingabe. Unbestritten: In diesem Moment komponiert kein Mensch in unserem Sinn, auch wenn das Formulieren präziser Prompts nach einigen frustrierenden Stunden durchaus an „künstlerische Leistung“ grenzen kann. ;) Zudem zeigt sich schon heute, dass KI-generierte Musik kaum Einbussen in ihrer emotionalen Wirkung oder dem gefühlten „kreativen Reichtum“ aufweisen muss.

    Ein zentrales Problem vieler KI-Kritiker ist ja: Wie können wir in Zukunft noch erkennen, welche Songs künstlicher oder menschlicher Natur sind? ;)

    Zusatzfrage: Und wo liegt die gesunde Grenze zwischen authentisch-menschlicher Kreativität und den längst zahlreichen vorhandenen Produktivitätstools (die oft sogar neue Genres ermöglicht haben)? Zum anderen wird KI nämlich überall dort zum Einsatz kommen, wo seit Jahrzehnten schon Drumcomputer (statt echte Drummer), spezialisierte VST-Plugins (statt etwa eines Rhythmusgitarristen), Splice-Libraries (statt selbst programmierter Percussion-Loops) oder Chord-Generatoren (ebenfalls für Ungeduldige) genutzt werden. In dieser Funktion ist KI vor allem ein weiteres Werkzeug, kein Ersatz für künstlerische Identität. Richtig eingesetzt bietet sie uns neue Möglichkeiten, ohne uns die Urheberschaft zu nehmen.

    • Profilbild
      Olaf Strassen AHU

      @Olaf Strassen 2/2: Dass offenbar recht viele Musikschaffende ohne berufliche Abhängigkeit dem Thema mit Skepsis begegnen, ist für mich nicht so recht nachvollziehbar. Denkt man diese Befürchtungen konsequent weiter, müsste man annehmen, KI werde menschliche Kreativität oder das Interesse an uns Menschen einschränken. Das ist jedoch unvorstellbar: Kreativität und Bewunderung sind zutiefst menschlich und nie abschaltbar. Also: Go for it! Ein neues, weiteres Werkzeug ist da. Tadaa! Wir werden daneben lediglich (und nicht nur heimlich) auch rein KI-generierte Musik lieben, das ist alles.

      Wirtschaftlich hingegen sind KI und der Fortschritt beziehungsweise die Industrie dahinter dabei, viele Existenzen herauszufordern. Rasanter Wandel ist leider selten bequem. Das ist allerdings kein spezifisches Musikerthema, sondern ein gesellschaftspolitisches.

      • Profilbild
        Heiner Kruse (TGM) RED

        @Olaf Strassen es stimmt, aber die Werke anderer werden ausgenutzt und was über die Abgeltung dafür herauszufinden ist, überzeugt noch nicht. Ich finde, dass die Kombination aus Sounddesign und Komposition den Schutz braucht, mit GEMA Notenregistrierung kommt man hier nicht weit. Andererseits sind banale Inhalte, die mit Presets geschaffen wurden, eben auch keine so große Leistung.

      • Profilbild
        Viertelnote AHU

        @Olaf Strassen habe ich es so richtig verstanden, also, ein Algorithm / Algorithmus
        greift auf eine Datenbank vorhandener Songs und man hat einen
        match? das paßt also dann zu meinen fragment oder notitz.
        Weil es geht ja über Harmoniesierung hinaus KI weiß ja nicht wohin
        mich die Melodie trägt. oder ich bin faul und lasse das für mich beenden.
        Kreativ geht verloren und ich gebe mich also zufrieden nur das ich ein
        Ergebnis habe. MAssware könnte ich mir da nur denken. Voraussetzung ich gebe mich hin und möchte das.Soweit richtig?

        danke!

        • Profilbild
          Olaf Strassen AHU

          @Viertelnote Nicht ganz so. Die KI matcht keine bestehenden Songs, sondern erzeugt neue Muster aus dem, was sie gelernt hat. Ob daraus nur ein schnelles Ergebnis oder etwas wirklich Kreatives entsteht, hängt letztlich vom Menschen ab.

  12. Profilbild
    maga

    Ich war anfänglich extrem skeptisch was KI angeht, generell.
    Letztlich musste ich mich damit auch beruflich auseinander setzen. Mittlerweile wurde es zum hilfreichen Werkzeug….

    Als Hobbymusiker haben sich bei mir die letzten Jahre/gar Jahrzehnte zahlreiche Songs angesammelt. Teilweise auch aufgenommen mit damaligen Bands, teilweise unvollendet,
    teilweise Songfetzen…..
    Immer mal den Gedanken gehegt ein teures Studio zu mieten und Studiomusiker gleich mit….. letztlich nicht machbar….
    Letzten Oktober zeigte mir dann ein befreundeter Musiker und Studiobesitzer das Suno Studio und ich war total geplättet!
    Mittlerweile konnte ich damit schon einige Songs umsetzen. Die fehlenden Spuren liefern mir die „virtuellen“ Studiomusiker, so als hätte ich mich irgendwo eingemietet.
    Da Text, Komposition, Arrangement meinem Hirn entspringen, sehe ich mich als Urheber im klassischen Sinne. Ob ich mal was davon veröffentliche? Keine Ahnung, wer weiss….

    Würde ich nur prompten oder einfach auf „create“ klicken (was ich manchmal aus Spass auch mache) und das dann auf Spotify jagen täte (was ich nicht mache) sähe die Sache m.E. anders aus. Wo wäre das die „geistige Schöpfung“?

    Wie bei vielem hat jede neue Technologie Licht und Schatten.
    Aber die KI gibt es. Sie wird „Alltag“ werden. In allen Bereichen des Lebens.
    Da beisst die Maus kein Faden ab.

    Kritisch sehe ich das trainieren der KI. Hier sollten Lizenzmodelle her……
    Sehr komplexe Geschichte.

      • Profilbild
        maga

        @Heiner Kruse (TGM) „Zackig“ ist was anderes…… Zeitversatz, Latenzen, manchmal hängt das Ganze. Ist halt browserbasiert. Am besten man zieht sich die STEMS in die DAW und kann dann eigene Spuren ergänzen.
        Eine direkte Integration in eine DAW wäre viel praktischer.
        Ich denke das wird früher oder später (eher früher) so kommen.
        Logic, Cubase etc. gehen ja schon in die Richtung.
        Gerade Apple sitzt ja eigentlich „and der Quelle“….

        • Profilbild
          Heiner Kruse (TGM) RED

          @maga sieht im Moment so aus – aber wer weiß? Vor 25 Jahren hätte ich auch im Traum nicht gedacht, dass die Entwicklung von Hardware-Samplern a la S-1000/ E4 in der Sackgasse landet. Und Apple hinkt mit KI und Qualität von Diktierfunktionen zum Teil weit hinter dem her, was andere Programme bieten. Cubase hat gerade mal mit einer Stem Separation in absoluter Basic Qualität angefangen.

  13. Profilbild
    dr noetigenfallz

    meine Frau hört manchmal irgendwelche Youtube-country-playlisten oder worship. In den letzten Monaten gibt´s da ständig KI-Playlists. Die klingen gut – die Stimmen fast zu gut – es ist perfekt, aber ich merke es, weil irgendetwas anders ist.
    Ich denke, die Zukunft für menschliche Musiker kann nur Authentizität sein. Du singst Songs aus deinem Leben, mit deinen Erfahrungen, Ecken, Kanten und schiefen Tönen. Die Leute werden das Echte suchen – nicht die perfekte Musik oder die perfekten Menschen. Ich weiß, Authentizität kann auch gefaked werden – aber auf lange Sicht wird sie hoffentlich sichtbar. Ich kann mir vorstellen, dass so etwas wie Liedermacher, aber mit persönlichen Texten, ein großes Ding werden wird. So etwas wie Oliver Anthony (Rich Men North Of Richmond). Oder musikalische Gemeinschaftserlebnisse, wie Jacob Collier mit seinem Publikum zelebriert.
    Ein bisschen philosophisch dieser Text, aber ich denke, dass könnte die Zukunft menschlicher Musik sein.

  14. Profilbild
    Axel Ritt RED

    Knapp 70% aller Musikhörer können eine verzerrte E-Gitarre nicht von einem dreckig gespielten Tenorsaxophon unterscheiden.

    Was glaubt ihr, wie wichtig diesen Leuten der Fakt ist, wer oder was welchen Klang erzeugt hat?

    Genauso wie es dem überwiegenden Teil der Konzertbesucher mittlerweile völlig egal, ob die Künstler auf der Bühne zum Backingtrack hampeln, so ist es auch dem überwiegenden Teil der Musikhörer auch egal, ob es KI oder ein „echter“ Musiker ist. Nur sagen darf man es ihnen nicht, dann wird dir jeder bestätigen, dass er natürlich „echte“ Musiker vorzieht.

    Es gibt nur eine Lösung, welche das Leid von Berufsmusikern mindert. Entsprechende Erkennungssoftware, welche heraus rechnet, von welchem Song die KI das Arrangement gestohlen hat und dann die Original Urheber entsprechend entlohnen.

    • Profilbild
      Ebi

      @Axel Ritt Machen wir es vielleicht nicht der KI deshalb so leicht, weil unsere eigene Musik so unoriginell (geworden) ist? Auch der Mensch komponiert und arrangiert jedenfalls nicht im luftleerem Raum, sondern baut auf dem auf, was da ist. Und das alles bei westlicher „Pop-Musik“ in einem sehr abgesteckten Terrain mit 12 Tönen und zumeist nur 4 Taktschlägen. Ich vermute mal, dass eine Erkennungssoftware, ließe man sie auf handgemachte Musik los, ebenso oft anschlüge wie auf KI-Musik, Vielleicht auch auf das von dir komponierte „The Devil is a Gambler“ dessen Intro doch stark an „You’ve Got Another Coming“ erinnert… Interessanterweise war das im Barock alles wohl noch kein Thema, J.S. Bach hatte sich bei all seinem Genie munter bei den besten seiner Zeit bedient. Für mich gilt: Wenn es KI schafft, mir mit einem Song eine Gänsehaut zu verschaffen und/oder mich Bauklötzchen staunen zu lassen (wie z.B. beim erstmaligen Hören von „Eruption“), soll es mir recht sein, bisher war es noch nicht soweit.

      • Profilbild
        Heiner Kruse (TGM) RED

        @Ebi da ist was dran. Die Beispiele hier zu DnB und Karnevalsmusik funktionieren deshalb so gut, weil es hier eben eine bekannte Formel gibt, welche von verdammt vielen ständig wiederholt wird. Abgesehen davon gibt es auch gernreübergreifende Formeln wie den 4 Chord Song/ die Let it be Kadenz

        • Profilbild
          Ebi

          @Heiner Kruse (TGM) … der Teufel (bzw. der Mensch) steckt dann im Detail, an dem sich auch die KI wohl noch eine zeitlang die Zähne ausbeißen dürfte. Beispiel AC/DC: Für einen Anfänger zu leicht und für einen Profi zu schwer zu spielen. Hinter dem Songwriting, der Performance und dem Sound von AC/DC steckt eine enorm hohe Musikalität und eine riesige Detailversessenheit, die die KI „übersehen“ dürfte. Anderes Beispiel: Welche KI würde sich die Stimme von Randy Newman ausdenken? (geschweige denn seine Texte – oder kann KI schon (Selbst-) Ironie?)

          • Profilbild
            Heiner Kruse (TGM) RED

            @Ebi „Leider“ kopiert die KI manchmal durchaus gut Details.
            Am Schlimmsten finde ich bei der KI den Kontrollverlust und das ewige Warten auf Ergebnisse via Trial and Error. Das hat dann wenig mit einem Fließen von eigener Energie zu tun. Das geht mir so als jemand, der Musikproduktion von der Pike auf gelernt und unterrichtet hat – und der es nun hier wieder neu lernen soll. Und der schon mal erlebt hat, wie man mit Logic oder Pro Tools abgehen kann, wenn man das Programm oder die Shortcuts beherrscht. Aber mit einem besseren Interface könnte sich das ändern. Nicht zu vergessen: Es gab auch vorher schon gute Sample Libraries, aber insbesondere im Bereich Gesang und der Instrumente, die man nicht so gut via Keyboard spielen kann, werden nun die Karten neu gemischt, weil Dinge möglich sind, die zuvor nicht gingen.

      • Profilbild
        Axel Ritt RED

        @Ebi Interessant.

        Nenne mir mal bitte die Gemeinsamkeiten der beiden Titel.

        Tempo, Tonart und Sound kann es ja nicht sein und dass eine Gitarre 8-tel Palm Muted auf einem Powerchords spielt ist wohl kaum ein Alleinstellungsmerkmal.

        Dann hätten Priest ja bei Saxon und die wieder bei Accept usw.

        • Profilbild
          Ebi

          @Axel Ritt Dallas 1PM? Ja, vielleicht, ich liebe beide Lieder, vielleicht ein Argument dafür, nicht immer ganz so streng zu sein

    • Profilbild
      Olaf Strassen AHU

      @Axel Ritt «Es gibt nur eine Lösung, welche das Leid von Berufsmusikern mindert. Entsprechende Erkennungssoftware, welche heraus rechnet, von welchem Song die KI das Arrangement gestohlen hat und dann die Original Urheber entsprechend entlohnen.»

      Diese Sichtweise würde implizieren, dass KI dir den Erfolg deiner Songs wegnimmt oder deine Musik „klaut“. Das halte ich für Unsinn. Die eigentlichen Probleme von Berufsmusikern liegen ganz woanders: bei miserablen Streaming-Vergütungen (z. B. bei Spotify), algorithmischer Sichtbarkeit statt Qualität, der Macht von Playlists und Plattformen sowie einer massiv ungleichen Verteilung der Einnahmen.

      Wann hat dir als Profi schon einmal KI konkret geschadet? Von rund 55.000 professionellen Musikern in Deutschland können nur etwa 15.000–20.000 allein von ihrer Musik leben – und die meisten kämpfen mit ganz anderen Problemen als „KI als Konkurrenz“.

      Und die rund 16 Mio Hobbymusiker? Die machen Musik aus Freude, nicht fürs Einkommen. Ihnen kann KI weder Geld noch Motivation wegnehmen – höchstens neue Werkzeuge geben.

      • Profilbild
        Axel Ritt RED

        @Olaf Strassen KI Generatoren wie Suno beziehen ihre Arrangements aus bereits produzierten und veröffentlichten Titeln, ohne dass sie (bis auf jetzt einige Ausnahmen) irgendwelche Lizenzrechte besitzen.

        Wenn Suno Einkommen mit diesem Material generiert, muss es Selbiges zumindest anteilig an die Rechteinhaber ausschütten, unabhängig davon ob es sich um ein Bezahlmodell oder „For Free“ handelt.

        Wenn Suno weiterhin ein Free Modell anbietet, muss es halt wie einige Streaming Dienste mit Werbung arbeiten und diese Einnahmen anteilig weiterreichen.

        Es ist in diesem Zusammen unerheblich, ob die monitäre Situation für Musiker eine Katatstrophe ist, siehe https://www.amazona.de/feature-leben-von-musik-no-way/
        es geht darum dass die Situation nicht auch noch in diesem Bereich einmal mehr ausschließlich zu Lasten der Kreativen geht.

        Auch wenn die Leistung der Software in höchtem Maße beeindruckend ist, so sind selbige Companies ohne entsprechende Beteiligung der ursprünglichen Urheber oder der Rechteinhaber nichts anderes als Parasiten, die sich ohne Gegenleistung an dem Können Dritter bedienen.

        • Profilbild
          Olaf Strassen AHU

          @Axel Ritt Es werden keine konkreten Arrangements oder Songs direkt übernommen, sondern statistische Muster (Harmonik, Rhythmik, Klangstrukturen) gelernt. Ob und in welchem Umfang dafür Lizenzrechte nötig sind, ist derzeit Gegenstand juristischer Auseinandersetzungen.

          Denken wir es einmal zu Ende: Angenommen, Künstler würden für das KI-Training mit ihrer Musik entlöhnt. Modelle wie Suno oder Udio werden mit Millionen bis Milliarden Songs oder Audiofragmenten trainiert. Würde ein Trainingsbudget auf so viele Werke verteilt, bliebe pro Künstler kaum etwas übrig. Vermutlich ähnlich wie beim Streaming: Auf Spotify verdient weniger als ein Prozent der Musiker wirklich relevant Geld.

          Den Kampf um faire Rechte kann und soll man natürlich führen. Viel erwarten würde ich davon finanziell jedoch nicht. Kommt hinzu: Das Training eines Modells passiert wahrscheinlich nur einmal oder in grösseren Abständen.

          Dem gegenüber steht die verständliche Sorge vieler Musiker, dass ihre musikalische Handschrift, Songfragmente, Lyrics oder sogar Stimmen durch KI kopiert oder geklont werden könnten. Das wäre tatsächlich heikel. Allerdings betrifft dieses Problem weniger das Training selbst als vielmehr die konkrete Imitation eines bestimmten Künstlers – also wenn eine KI bewusst im Stil oder mit der Stimme einer realen Person erzeugt wird. Genau dort wird die rechtliche und ethische Debatte in Zukunft vermutlich am stärksten geführt werden.

  15. Profilbild
    jan1973

    Funktioniert Benn Jordans eigene KI zur Erkennung von KI-Musik eigentlich noch?

    Vor einem Jahr hatte die bei Suno ein Trefferrate von 100%. Da Suno und die anderen KI-Musikgeneratoren hauptsächlich mit komprimiertem Material (Youtube, Streaming, etc.) trainiert worden sind und es damals nicht geschafft haben die Kompressionsartefakte korrekt zu imitieren, konnte Benn Jordan eine eigene KI trainieren, die genau diese kaputten bzw. falschen Artefakte erkennt.

    https://www.youtube.com/watch?v=QVXfcIb3OKo&t=305s

  16. Profilbild
    Mixit

    KI – ein Thema, was uns noch lange beschäftigen wird. Einen Wehrmutstropfen hat es ja dennoch:

    KI kann nicht denken, sie kann nur interpretieren bzw. kopieren was an Datensätzen gesammelt und dem Programm zur Verfügung gestellt wurde.

    Das schöne daran ist ja, dass all diejenigen, die nicht sehr genretypisch arbeiten in Zukunft die vielleicht besseren Chanchen haben weil das, was sie liefern für eine KI nicht „vorhersehbar“ ist.

    Gegen Kreativität ist KI chancenlos, diese setzt Denken und ein Gefühl für Dinge voraus, die zueinander passen.

    Vielleicht entsteht ja so auch wieder etwas „frisches“ in der Musikwelt. 🙂

  17. Profilbild
    WOK

    Youtube und diverse Streamingdienste sind ja jetzt schon bis zum Erbrechen vollgestopft mit diesem KI-Zeugs – das wird wohl immer schlimmer werden – bis man das endlich optional wegfiltern kann (statt dessen hat Youtube kürzlich sogar die Option weggenommen, nach Uploaddatum zu sortieren).

    Mit Textprompts Musikstücke zu erstellen erinnert mit an die Konstruktion-Kits, bei denen man Musikschnipsel zusammenklebt, die von anderen Musikern gemacht wurden – mit Musik machen hat das ungefähr soviel zu tun wie „Malen nach Zahlen“ mit Kunst…..

  18. Profilbild
    vaikl

    Wie bei den meisten momentan verfügbaren AI-Produkten, auch abseits der LLM-Hypes: Gääähn…

  19. Profilbild
    TimeActor AHU 1

    Seit Anfang der 80er Jahre träume ich davon das ich nach einem arbeitsreichen Leben mehr Zeit mit meinen geliebten Synthesizern im Studio verbringen darf. Ist nicht mehr so lange bis dahin und nun „soll“ ich mir selbst den Fun nehmen um mit KI Tote Musik zu erstellen?

    Für mich überhaupt kein Thema!

    Dann bevorzuge ich lieber meine „unperfekte“ Musik die teilweise mit im 1. Take eingespielten Improvisierungen um Natürlichkeit (Human Feel) wie früher die „alten“ Künstler auch zu erhalten. Als Beispiel dient mir eine meiner absoluten Lieblings Alben von Tangerine Dream. Das Iive Album „Encore“. Einfach mega und nicht glatt, künstlich wie eine KI. Man hört genau den immensen Human Feel – Edgar Froeses Gitarrenspiel z.B. trotz des hohen Anteils der Analog Sequenzer. Wahrscheinlich waren die nicht so tight im positiven Sinn wie heutige Digitale Klang Wiederholer ;-).
    Da es genau genommen nicht wirklich neues geben kann, wird KI Musik ganz sicher schnell langweilig werden…vielleicht erledigt sich das bei kompletten Songs ganz von selbst!?
    Bandcamp lässt gar keine KI Musik auf deren Plattform zu – ein guter Anfang!

    • Profilbild
      Heiner Kruse (TGM) RED

      @TimeActor ha, man ist oft verleitet zu denken, es kann nichts mehr viel Neues geben, aber das stimmt nie…
      Aber es ist natürlich völlig richtig, sich von niemand einreden zu lassen, sich selbst den Spaß zu nehmen….

      • Profilbild
        Viertelnote AHU

        @Heiner Kruse (TGM) so wir fliegen immer noch durch das all
        als winziges Atom…hat gar nichts so mit den
        Thema zu tun… aber irgendwie stranden wir stetig auf neuen Gebiet.🙂

      • Profilbild
        TimeActor AHU 1

        @Heiner Kruse (TGM) Nehmen wir an, es gibt keine neue von echten Musikern/Künstlern gemachte Musik mehr. Meine These ist dann das nichts neues mehr durch KI entstehen kann da der Input fehlt und sich die KI Algorithmen ständig selbst wiederholen…oder aber einfach ein Mischmasch aus allem vorhandenen entsteht (vielleicht neu aber unbrauchbar im Sinne von Hörgenuss) – so hatte ich das gemeint.
        Ziemlich ödes Szenario m.M.n.

  20. Profilbild
    bluebell AHU

    Es ist ein schleichender Prozess. Am Anfang musste man alles selber machen. Dann kamen Drum-Plugins, die selber Fills konnten. Dann haben Rapper fertige Beats/Loops genommen, und nur noch ihr Text und ihre Vocal-Performance war handgemacht. Dann kamen Vocals-Generatoren. Und „intelligente“ EQs. Und AI-Mastering.

    Nun komponiert, textet, performt, mixt und mastert der Computer auf Wunsch. Es kommt lediglich alles zusammen, was vorher in Teilen entstand.

    Sollte einen eigentlich nicht überraschen. Aber irgendwie wollte man das nicht wahrhaben.

    • Profilbild
      Viertelnote AHU

      @bluebell okay …wenn ich es richtig verstehe Du
      vergleichst sagen wir DanceEjay oder DanceMAchine mit Genres
      also Baukasten Okay das kann man sehen wie man will – Ich arbeite selten mit Software
      nur diese süßen Klötzchen schieben macht sogar mir Spaß.
      Wir sind so im Maß auch etwas zu streng und so ich
      denke haben wir auch Angst vor unbekannten oder neuen Dingen
      Alt hat sich bewährt – okay – neu ist ungewohnt unsicher aber es lohnt sich oder kann sich lohnen
      wenn man sich einläst darauf.

  21. Mehr anzeigen
Kommentar erstellen

Die AMAZONA.de-Kommentarfunktion ist Ihr Forum, um sich persönlich zu den Inhalten der Artikel auszutauschen. Sich daraus ergebende Diskussionen sollten höflich und sachlich geführt werden. Es besteht kein Anspruch auf Veröffentlichung. Wir behalten uns die Löschung von Inhalten vor. Dies gilt insbesondere für Inhalte, die nach unserer Einschätzung gesetzliche Vorschriften oder Rechte Dritter verletzen oder Diffamierungen, Diskriminierungen, Beleidigungen, Hass, Bedrohungen, politische Inhalte oder Werbung enthalten.

Haben Sie eigene Erfahrungen mit einem Produkt gemacht, stellen Sie diese bitte über die Funktion Leser-Story erstellen ein. Für persönliche Nachrichten verwenden Sie bitte die Nachrichtenfunktion im Profil.

ANZEIGE
ANZEIGE
ANZEIGE
ANZEIGE
X
ANZEIGE X
ANZEIGE X