Ist das Musik - oder kann das weg?
In unserem Vergleichstest vergleichen wir MIDI-Generatoren, die mit künstlicher Intelligenz MIDI-Spuren bzw. Songs erzeugen können. Im Gegensatz zum letzen Vergleichstest, bei denen die KI-Musik-Services SUNO und UDIO im Fokus standen, handelt es sich hier um die reine Erzeugung von MIDI-Daten. Es können zwar auch komplette Songs erstellt werden, jedoch ohne Vocals und immer basierend auf MIDI-Daten, nicht auf Audiodaten. Dieser WOW-Effekt bleibt also aus und KI MIDI-Generatoren sind schon eher ein Angebot, das sich an Musiker wendet.
Inhaltsverzeichnis
Verschaffen wir uns einen Überblick, was die KI-MIDI-Generatoren können und wie sich der Arbeitsfluss mit den einzelnen Werkzeugen darstellt. Zum Schluss müssen wir uns dann noch ein paar Ergebnisse anhören, um die Qualität beurteilen zu können. Alle drei Tools sind dabei etwas anders aufgestellt. Allen gemeinsam ist aber, dass sie wie eine DAW im Browser funktionieren. Nur für AIVA gibt es auch eine Standalone-Version. Ich möchte mich zudem auf die KI-Funktionen beschränken und nicht den kompletten Umfang der KI-MIDI-Generatoren darstellen, die teilweise komplette DAWS mit Effekten und Instrumenten darstellen. Alle KI-MIDI-Generatoren können übrigens über Web-MIDI über den Browser mit eurer Hardware kommunizieren.
Neben diesem Bericht haben wir bei AMAZONA.de weitere Artikel zum Thema Einsatz von künstlicher Intelligenz im Tonstudio, beispielsweise in Form von DAWs, Plug-ins, Software und Audio-Tools:
- Der Einsatz von Künstlicher Intelligenz in der Musikproduktion
- DAW KI: Plug-ins mit künstlicher Intelligenz – Marktübersicht
- Workshop: KI im Tonstudio, smarte EQs und intelligente Reverbs
- Künstliche Intelligenz in der Musikproduktion: Interview Daniel Knoll, Markus Wegmann
- Test: Hit’n’Mix RipX DAW Pro, Software mit künstlicher Intelligenz
- Künstliche Intelligenz in der Musikproduktion, Tools für Melodien und Kompositionen
KI MIDI-Generatoren – Preise
Ohne ein Abonnement ist aber keines der Programme nutzbar, ob nun im Browser oder nicht. Die Preise bewegen sich dabei bis 20,- $ pro Monat, je nachdem welche Version abonniert wird.
Nur in der höchsten Preiskategorie beim jeweiligen Bewerber in unserem KI-MIDI-Generatoren Vergleich sind auch alle Funktionen freigeschaltet. Jeder Kandidat besitzt zudem eine freie „Schnupper-Variante“, mit dem das Angebot ausgetestet werden kann, wobei sich Staccato hier unvorteilhaft anstellt. Die 10 freien Credits gehen für jeden noch so kleinen Schritt weg und eine Beurteilung des Services ist so kaum möglich.
Vergleichstest: MIDI-Generatoren mit KI – AIVA
Beginnen wir bei unseren KI-MIDI-Generatoren mit dem dienstältesten Service AIVA. Es verwendet in erster Linie die Deep Neural Network (DNN)-Technologie, wodurch es in die Lage versetzt wird, Originalkompositionen zu generieren, die die Stile verschiedener Musikgenres und Komponisten nachahmen. Der Prozess beginnt normalerweise mit der Auswahl des Musikstils oderdes Genres, das ihr erstellen möchtet, z. B. Klassik, Pop, Jazz oder EDM. Nutzer können verschiedene Parameter wie die Länge der Komposition, das Tempo, die Tonart und die Instrumentierung festlegen. Sobald diese festgelegt sind, generiert AIVA auf Basis dieser Eingabekriterien ein Musikstück.
Derzeit unterstützt AIVA keine direkten Textaufforderungen zum Erstellen von Musikideen. Damit unterscheidet es sich von den beiden anderen Services in unserem KI-MIDI-Generatoren Vergleich – diese haben beide die Möglichkeit, aus Text-Prompts (in englischer Sprache) Spuren, Noten und Instrumentation zu erzeugen.
Stattdessen ist die Interaktion bei AIVA strukturierter, da Nutzer entsprechende Optionen und Einstellungen aus Menüs auswählen kann. Derzeit können die Richtung und das Gefühl der Kompositionen (dargestellt durch Emojis) über die verfügbaren Einstellungen und Anpassungstools beeinflusst werden.
Die Gesamtheit dieser Einstellungen nennt AIVA Stile und diese werden auch zur späteren Nutzung gespeichert. Jede Anwendung eines Stils bringt schließlich eine oder mehrere Variationen hervor, die dann in der Track-Übersicht landen. Von hier aus können die Tracks und ihre Spuren sowie die Instrumentation in einer DAW-Ansicht editiert werden.
Sehr praktisch ist hier die Unterteilung des Tracks in gegliederte Abschnitte. Diese können verschoben, gelöscht oder neu eingefügt werden und können auf bereits bestehenden Abschnitten beruhen und somit Variationen darstellen oder komplett neu generiert werden.
In dieser DAW-Ansicht finde ich auch die größte Einschränkung des Services – ein erstellter Song wird immer komplett vorgegeben und so ist es nicht möglich, einzelne Spuren stummzuschalten oder deren MIDI-Daten zu ändern, ohne den kompletten Track neu rendern zu müssen. Die erwähnte Standalone-App kann das zwar – die Browser-Version aber nicht. Diese Einschränkung gilt übrigens für alle Browser.
Die Ergebnisse sind nicht überwältigend, aber mit etwas Editierung der Stile und der erzeugten MIDI-Spuren können zumindest kohärente Ergebnisse erzeugt werden. Die Ergebnisse können als MP3-, WAV- (in verschiedenen Auflösungen) und als MIDI-File heruntergeladen werden. Nur beim Herunterladen wird dann auch eine Nutzung „berechnet“ – das heißt, es kann solange am Song gefeilt werden, bis es passt.
Was ich zudem positiv erwähnen möchte, ist die Funktion der „Influences“. Hier können MIDI- oder Audio-Daten hochgeladen werden, nach deren Analyse AIVA dann Variationen erstellen kann. Das MIDI-File muss dabei bestimmten Ansprüchen gerecht werden, wie z. B. mehrere Spuren enthalten und quantisiert sein, Audio-Dateien haben diese Einschränkungen nicht.
Auf diese Weise kam ich zu Ergebnissen, die tatsächlich recht interessant klangen, selbst wenn die Eingabe eine eher wilde Improvisation war – unbedingt mal antesten.
Vergleichstest: MIDI-Generatoren mit KI – WAVtool
Sven Rosswog behandelte ja bereits den Service WAVtool und so erhält er auch nur einen kleinen Abschnitt in unserem KI-MIDI-Generatoren Vergleich. WAVtool ist dabei eine echte DAW im Browser mit eigenen virtuellen Instrumenten (auch VSTs auf dem Rechner können über die WavTool Bridge genutzt werden), externen MIDI-Geräten und Audiospuren.
Mit dem Pro-Plan von WAVtool steht einem ein Chat-Assistent zur Verfügung, dem ganz einfach Anweisungen gegeben werden können. Am besten funktionieren Schritt-für-Schritt Anweisungen, die Erzeugung kompletter Track-Gerüste damit gelingen jedoch selten bis gar nicht.
Mein Versuch, über den „Conductor Chat“ einen Drum-and-Bass-Track zu erzeugen, gelang nicht mal im Ansatz. In unserem KI-MIDI-Generatoren ist dieser Service wohl ein DnB-Agnostiker. Auch nach mehreren Prompts, bei denen auch gern mal zwischendurch die angegebene BPM-Zahl auf Halftime landete, erzeugte WAVtools KI-Assistent nichts, was auch nur im Ansatz mit DnB zu tun hätte.
Alles in allem scheint die Anbindung des Conductor Chat und die Ausgabe von MIDI-Clips noch nicht sehr fortgeschritten zu sein. Außer sehr rudimentären Ergebnissen konnte kaum etwas produziert werden, was nicht 100-mal schneller manuell hätte erzeugt werden können.
Auf der Plus-Seite haben wir mit WAVtool eine vollständige DAW im Browser, die auch Stem-Separierung beherrscht – hier kann der Service glänzen. Ob nun eine DAW im Browser wirklich notwendig ist, steht auf einem anderen Blatt. Ich persönlich könnte mir keinen Anwendunngsfall vorstellen, bei dem ich nicht lieber auf meine installierte DAW zurückreifen würde. Nicht alles, was technisch möglich ist, ist auch notwendig sinnvoll.
Vergleichstest: MIDI-Generatoren mit KI – Staccato
Ganz neu auf dem Markt ist Staccato und es präsentierte sich in unserem KI-MIDI-Generatoren Vergleich sowohl als Helfer zum Erzeugen von MIDI-Daten als auch von Song Lyrics – eine Erzeugung von KI-Stimmen gibt es allerdings nicht. Im Pro Plan kann auf beide Generatoren zugegriffen werden und auch Staccato ermöglicht die Erzeugung von Spuren einer bestimmten Art über den Chat, also Drums, Bass und Akkordverbindungen mit entsprechenden Instrumenten.
Im Gegensatz zu AIVA ist Staccato aber nicht in der Lage, zusammenhängende Songs auf einmal zu erzeugen. Als Beispiel sind hier drei Ausgaben auf das Prompt „Create a simple EDM Track with beats bass and chords“ zu hören.
Das hört sich erstens mehr nach der Begleitautomatik einer Heimorgel an und zweitens hat es herzlich wenig mit EDM zu tun. Auch hier scheint kein tiefes „Wissen“ über das Genre vorhanden zu sein. Hier das Ergebnis des Prompts „Create a simple Drum And Bass Beat with 4 measures“
Abgesehen davon, dass am Anfang immer noch ein Überbleibsel des vorigen Prompts zu hören war (ich habe es für die Beispiele weggeschnitten), hat auch das hier weder in Instrumentation, noch Geschwindigkeit, noch Stil etwas mit meiner Prompt-Eingabe zu tun.
In aller Fairness besitzt Staccato aber nur dieses eine Plöp-Drum-Set, ein anderer Klang ist also von vornherein nicht möglich. Da aber die MIDI-Daten exportiert werden können, könnte später ein entsprechendes Drum-Set genutzt werden.
Nach dem Erzeugen gelangen wir in eine MIDI-Editor-Ansicht, in der mehrere Spuren gleichzeitig auf einer Pianorolle dargestellt werden können, wenn es mehrere Instrumente gibt. Eine echte DAW-Ansicht bietet Staccato nicht.
Es können nun mehrere Spuren angelegt werden. Aber jeglicher Versuch, irgendeine Kohärenz herzustellen, scheiterte. Auch wenn ich explizit einen Bass zum Beat erzeugen wollte: „create a bassline fitting the beat start at bar 1“, erzeugte Staccato oft einfach einen weiteren Beat, dazu veränderte sich auch noch der Beat auf der ersten Spur und nach einem Undo verschwand einfach alles aus der Ansicht.
Selbst wenn Staccato meine Anweisung ausführte, kam nicht selten so etwas dabei heraus.
Es gibt auch eine Extend-Funktion, die auf vorhandenem Material aufbauen soll – mir kommt sie eher wie eine agnostische Random-Funktion vor. Ich denke einfach, Staccato steht noch ganz am Anfang der Entwicklung und es sollte eher als public Alpha-Test bezeichnet werden. Dann sollte aber auch kein Geld vom Kunden fließen. Es bleibt abzuwarten, wie sich der Service in Zukunft entwickelt.
Brauche ich dafür KI? Ich empfehle Jedem mal den Midicake Arp auszuprobieren. Das ist zwar keine KI, aber man kommt superschnell zu Ergebnissen für vier Midi Kanäle. Man kann jetzt sogar zwei Geräte miteinander verbinden und 8 Spuren ansteuern.
Also das klingt jetzt nicht nach großem Kino. Bei solchen Beispielen würde ich mich nicht wundern, wenn die Zurückhaltung bei einem Abo entsprechend groß ist. Da würde ich lieber mit einem Random Arpeggiator arbeiten und mir ein wenig Harmonielehre anschauen. Davon hätte man mehr.
@iOwner Abgesehen davon muss heute ja immer alles als »Abo« daherkommen und irgendwie das Kürzel »KI« im Namen tragen. Beides schreckt mich massiv ab.
@Flowwater Das sehe ich genau gleich!
@Flowwater aber sowas von! Abo noch mehr als KI :)
Ich kann nur hoffen, das solche Tools – eben genau deswegen, weil sie nicht machen und sich weigern das zu machen was man will – schnell wieder vom Markt verschwinden (ich bin ja sowieso der Meinung, dass KI maßlos überhypet ist).
Das Beispiel »Chill Orchestra« von »AIVA« finde ich erstaunlich; aber es ist irgendwie nix, was man nicht selber hin bekäme. Klar, man muss es auch machen. Aber raffinierte Rhythmen und verblüffende Harmoniewechsel höre ich da nicht. Und wer für so etwas ein KI-Tool benötigt … naja.
Die beiden ersten Beispiele von »Staccato«: Braucht man dafür ein KI-Tool? Und das letzte Beispiel mit »Staccato«: Braucht man DAFÜR etwa ein KI-Tool? 😄
WAVTool: Schon gut … Schwamm drüber! 😉
Ich glaube, das größte Problem von KI ist immer noch, dass die Ergebnisse recht charakterbefreit daherkommen. Was natürlich mit Blick auf die erzeugende Anwendung – eben die KI – kein Wunder ist. Und ob’s der Otto-Normal-Spotify-Konsument bemerkt? 😁
Ki ist nicht nur overhyped, sondern auch überinterpretiert. Ich sehe überall, dass sobald eine CPU eingesetzt wird, sofort von „KI“ gesprochen wird. 99% dieser Systeme haben aber mit künstlicher Intelligenz oder machine learning überhaupt nichts zu tun. Und das ist nicht nur im Audio-Umfeld so.
Soweit es automatisch arbeitende Systeme gibt, die sich an USER-Aktitivät anpassen und auf vorhandenes Wissen zurückgreifen, um Probleme zu lössen, kennen wir die seit 30 Jahren als „Expertensystem“ sowie „Estimationssystem“. Wird in der Datenbank- und Regelungstechnik seit ewig. Objektidentifikation anhand erlernter Daten und Flugzeugsteuerungen zur Lageregelungen sind solche Systeme.
Nur ist es eben so, dass sie KI momentan sehr gut verkauft. So wie „vegan“ und „CO2-neutral“. Früher war es „bleifrei“. Eine KI käge vor, wenn sie aus der Nutzung der Musik = Verkaufszahlen, ermittelt, wohin der Geschmack gerade geht, wo er in 5 Jahren sein wird und wie daher ein neuer Rhytmus oder Melodie sein muss, um Erfolg zu haben. Das tut die SW aber nicht. Sie wendet nur einen Teil vorhandenen Wissens an und zwar den, den der unterbezahlte SW-Entwickler des Geräts kennt.
Echtes machine learning spielt sich woanders ab z.B. im Bereich high performance computing und unterliegt auch anderen Regeln. Die Algos und Lösungsstrategien sind da auch weitaus komplizierter, erfordern entsprechendes Knowhow, Forschung, Rechenleistung und das aufwändige Füttern mit Daten.
@sola Ein interessantes Thema, was ihr austauscht.
Das schöne bei dem Thema KI ist, es wird stets das bringen, was Mensch sich durch seine Fertigkeiten vorstellen kann.😇 Sozusagen ist auch hier wieder mal das größte Problem vor dem Bildschirm. 😱
Wenn man den Leistungsunterschied zwischen den letzten zwei Spectralayers Versionen anhört, kann KI schon punkten.🤣
Es bleibt abzuwarten, wie reine Logik hinter den „musikalischen“ Vorgängen sich erweitert. Um emotional eine Befriedigung oder Aufbau von Spannungen zu erzeugen, benötigt es für mein Verstehen insbesondere die Entschlüsselung von Emotionen.🍀
Vorstellbar ist: Würden emotion-MIDI-Generatoren programmiert, dann wären die Kosten zur Entwicklung allein so hoch, dass wenige den Preis zahlen könnten… ziemlich wackeliges Geschäftsmodell🤣👍
Bis dahin wird wohl die kostengünstige Kopie von „Hör mal Rudi, hör mal!“ fortgesetzt.🥱
@CDRowell
> […] Sozusagen ist auch hier wieder mal das größte Problem vor dem Bildschirm. […]
Ist das so? Bezogen auf den reinen Nutzer einer KI ist es doch schon merkwürdig, dass man sich mit einem »Prompt« (alleine schon wieder diese Bezeichnung) abmühen muss, um ein wie auch immer geartetes Ergebnis zu bekommen. Das dann eben nicht kommt. Als Musiker muss man dann also Dichter werden, um die richtigen Worte für eine KI zu finden (und nicht für seinen nächsten Song oder die Liebeserklärung an die Freundin). Und ob dann das richtige Ergebnis kommt und ob man sich dadurch nicht angewöhnt, seine Sprache zu verbiegen, nur damit eine KI einen versteht (wie pervers ist das denn bitteschön), das muss auch noch getestet werden. Und dann kommt die nächste Generation der KI … und man kann seine angewöhnte Sprache für den Prompt wegschmeißen (wie man in der IT so oft sein hart erarbeitetes KnowHow komplett löschen darf).
Im Falle der Programmierer der KI gebe ich Dir Recht: Die Software liefert natürlich (ungefähr) nur das, was seine Entwickler auch so im Kopf hatten. Da vermutlich die meisten Entwickler keine Musiker sind … tja, da kommt dann eben dieser Unsinn heraus. Ich könnte noch weiter schwadronieren, dass meinem Gefühl nach mit einer nicht im Ansatz fertig entwickelten Technologie die schnelle Kohle gemacht werden soll … und dass die ganze Hysterie vermutlich in wenigen Jahren wieder vorbei ist. Aber da steigere ich mich jetzt nicht hinein.
@Flowwater Deinen Aussagen stimme ich zu.
Wenn ich mit wenig Begabung und kaum kreativ tatsächlich der Möglichkeit folgen will, etwas zu sein, was ich nicht bin, geht es dann ums Musik machen?
Zum Glück gibt es (noch) die Hürde, sich einer Sprache zu bedienen, die erlernt werden muss.
[…] Sozusagen ist auch hier wieder mal das größte Problem vor dem Bildschirm. […]
Wenn das musikalische Ergebnis nicht passt, wäre die Schuldfrage geklärt! Auch wieder Praktisch, jedoch ein Problem!
Meiner Meinung nach ist es ein größeres Problem in unserer Gesellschaft, Anstrengungen und Niederlagen zu meiden, sicherlich um sich auch emotional zu schützen. Nicht verwerflich… Jedoch vermute ich im Verhalten auch eine eher unbewusste Kosten-Nutzen-Rechnung, die kreative Prozessen ausbremst und viel Zeit kostet!
Für mich ist es schwer nachvollziehbar, dass wir eine selbstbestimmte „sichere und heterogene“ Freiheit nutzen und uns mit den Konsequenzen nicht auseinandersetzen möchten. Dazu gehören vielleicht auch KI und Folgethemen…
Dir danke ich für den interessanten Austausch und schnappe mir jetzt meine Gitarre. Ich werde nun wieder Musik machen, mit schiefen Noten, ohne „hohes C“ zeitraubend, mit Anstrengungen und viel Gefühl.. 😇
@Flowwater „Da vermutlich die meisten Entwickler keine Musiker sind … tja, da kommt dann eben dieser Unsinn heraus.“
Interessanterweise hast du mit dieser Vermutung Recht. Ich kann hier aus nachvollziehbaren Gründen nicht in Details gehen, aber man kann zumindest sagen, dass man in der Audio-Branche als Soft- und auch Hardwareentwickler nicht besonders verdient. Da tummeln sich eigentlich nur die preiswerten Gesellen und da gibt es zwei Fraktionen:
Die, die nichts anderes haben oder machen wollen, weil ihnen die stark dokumentenlastige und geordnete Vorgehensweise heutiger Entwicklungen in anspruchsvollen regulierten Umfeldern wie Medizin und Flugzeugtechnik nicht gefällt …
… und die, die es aus Überzeugung und Spass machen. Das sind mitunter durchaus Musiker darunter, aber die arbeiten da weniger als Entwickler, sondern mehr als Produktmanager oder im Marketing. Die Musiker unter den Entwicklern haben da auch weniger Einfluss auf die Produkte und diese Gruppe wird tendenziell kleiner, weil viele merken, dass das Audio-Software-Entwickeln so kreativ auf Dauer nicht ist. Man ist da mehr als anderswo Kostenzwängen unterworfen und Ich kenne da einige aus meinem Umfeld, die sich von da verabschiedet haben.
Also mir erschließt sich der Nutzen von KI beim Musik machen nicht…
Wenn ich Songs covere, brauche ich das eh nicht.
Und wenn ich eigene Stücke komponiere, dann ist doch ein KI-generiertes Stück ( ob nun ganz oder teilweise) doch gar nicht mehr von mir, sondern vom Computer.
Ich komme seit längerem nicht mehr dazu, so viel Musik zu machen wie ich eigentlich möchte, aber wenn ich dann irgendwann wieder etwas fertig gestellt habe, bin ich auch irgendwie zufrieden und stolz. Das würde mir bei KI-Unterstützung doch fehlen….
Ergo, nichts für mich.
@THo65 Yes!
In der Gruppe Musik machen ist, was auch mir wirklich Spaß beingt!
Also da finde ich die Ergebnisse von VSTs mit eingebauten Arrangern schon wesentlich spannender, wie Hypernode und The Orchestra z.B. …. Oder auch eine x-beliebige Loop-Sammlung, zufällig zusammengewürfelt….
Ich stelle mir vor (wie Gantenbein): ich wäre Modelleisenbahner. Da bietet mir jemand ein Abo für den automatischen Aufbau einer neuen Anlage an. Super! Da greife ich doch gerne zu.
Überzeugen liessen sich da nur diejenigen, deren Job es ist, Modelleisenbahnen für andere zu bauen. So hier, wer täglich Fahrstuhlmusik produzieren muss, für den könnte das was sein.
@Tai 👍 unschlagbares Argument! 👍
@Tai Das trifft den Nagel auf den Kopf.
Ich mache gerne Musik. Ich bin aber wirklich nicht talentiert und die Ergebnisse sind nicht besonders. Aber der Prozess macht mir total viel Spass.
Bestimmt könnte ich mit Unterstützung zu besseren Ergebnissen kommen aber das übt auf mich gar keinen Reiz aus.
Macht man das ganze professionell, sieht das natürlich anders aus.
Nix gegen den Fortschritt aber wenn ich so überhaupt keine Ideen habe was Musik betrifft, kann ichs ja gleich bleiben lassen! Ich mein, letzten Endes werden wir doch alle von schon bestehender Musik inspiriert denk ich. Daraus entstehen dann eigene Ideen……oder etwa nicht?
Hahaha….. Die Soundbeispiele, EDM geht ja richtig ab…. Nichts für mich, dann lieber ein frei programmierbarer Arpeggiator wie Blue Arp und ähnliche.
Wenn ich eins nicht mag, dann „Abomodelle“ für Software. Das läuft immer auf billiges Anfüttern hinaus, um nachher teuer zu werden und abzukassiere, weil der Kunde nicht mehr weg gehen kann, wie bei den Zeitungen, die irgendwas zum Basteln beinhalten, wodurch man dann die gesamte Serie kaufen muss. Die letzten sind dann dummerweise immer ausverkauft und müssen bestellt werden oder sie wird eingestellt und man hat ein halbes Schiff :-)
@sola Also bei dem eigentlichen Artikel bin ich bis zu dem Satz „Ohne ein Abonnement ist aber keines der Programme nutzbar“ gekommen – danach habe ich spontan das Interesse verloren und bin sofort zu den Kommentaren hier gesprungen, da mich der Gedanke KI-erzeugter Melodien und Harmonien an sich zwar interessiert, aber nicht als Abo.
Anders als Tai kann ich mir schon vorstellen, dass es manchmal Spaß machen kann, automatisch generierte Tonfolgen zu nutzen, um damit selbst Sounds anzuspielen, an denen man gerade schraubt. Es gibt ja durchaus vielfältige Betätigungsformen im musikalischen Schaffensprozess jenseits des Komponierens.
Als interessantes Werkzeug hierfür erscheint mir beispielsweise der Noodler, für den man nur einmalig zahlen muss und an dem man sogar physisch herumschrauben kann.
@gs06 Finde ich auch. Die Arbeit am Stück ist doch das, was am meisten Spaß macht. Der Applaus für das fertige Stück ist natürlich auch ok. Wem das das Wichtigste ist, der macht ohnehin eher Livemusik. Was nicht bedeuten soll, dass Livemusiker keinen Spaß beim Spielen hötten 🤪
Ich habe den Eindruck, hier soll auf Grund des KI-Hypes einfach nur schnell Knete gemacht werden. Die kreativen Outputs dieser sogenannten KI‘s sind in meinen Augen ein Witz. Selbst nach zwei Flaschen Wein und mehreren Joints bringe ich noch mehr zustande. 😊
Sorry, ich weiß einfach nicht, wobei mich solche tools unterstützen können. Für mich war es als Musiker immer am wichtigsten, etwas selbst zu erschaffen und dabei auch immer wieder etwas Neues zu entdecken. Natürlich innerhalb meiner eigenen Fähigkeiten und technischen Möglichkeiten, und unabhängig davon, ob es sich vielleicht kommerziell verwerten lässt.
Und abseits aller Sinnhaftigkeit oder sachmoralischer Bedenken möchte ich mal anmerken, wie oft wir bei Hardwaretests dann Kommentare wie „…ist viel zu teuer dafür..“ lesen, finde ich es erstaunlich, dass man hier anscheinend sofort dabei ist 120-600 Euro im Jahr für etwas Auszugeben, dass ich mir in dieser Zeit auch ganz gut selbst aneignen könnte.
Miete für Software ist die fetteste Milchkuh, die je gemolken wurde. Eine künstlerische Pause von 2-3 Monaten kostet einen einfach mal mehrere -zig oder hunderte Euro. Das hat ja schon was von Fitness-Center-Verträgen, die, einmal abgeschlossen, geld reinspülen, ob es genutzt wird oder nicht.
Und auch wenn ich „nachhaltig“ weder gerne und schon gar nicht leichtfertig in den Mund nehme, sollte klar sein, dass alles was gerade an KI auf dem Computer angepriesen wird eben NICHT auf selbigem stattfindet, sonder idR in der Cloud. Auf einem Großrechner, auf Serverfarmen, meißt in Übersee. Das kostet für solche „Blödelanwendungen“ (man verzeihe mir diesen polemischen Begriff oder halt nicht) irrsinnige Mengen an Energie. Die ernsthaften Anwendungen im Wissneschaftlichen Bereich (Klimamodelle, Genetik, Neuronale Netze) sind ja erst im Aufbau, und kommen da noch dazu.
Einfach ein Instrument vor sich zu stellen und sich damit auseinanderzusetzen hat da schon was von „Ich lass das Auto mal stehen und nehm da mal lieber das Rad“.
IMHO. 💗 & ☮