Die Tastaturumstellung auf Japanisch ist wichtig für eine in Grenzen verständliche Sprachausgabe. Die japanische T9-Tastatur übernimmt dabei für uns die Auflösung in die Silben des japanischen Sprachmodells. Der Grund liegt schlicht und einfach in der Zuweisung der UTF-16 Zeichenkodierung, Hiragana-Zeichen haben andere UTF-Codes als das Alphabet und werden entsprechend andern Lauten zugeordnet. Mit der deutschen Tastatur kann man aber auch herumexperimentieren. Das Ergebnis sind dann größtenteils Fantasieäußerungen, was aber auch sehr reizvoll sein kann! Das sollte als Einstieg erstmal reichen.
Wer richtig Hardcore oder ein einfach nur sprachinteressiert ist, programmiert in Hiragana. Für Vocaloid würde ich generell eine Programmierung in japanischen Silben empfehlen, besonders wenn es um deutschsprachige Texte geht. Die deutschen Laute sind den japanischen tatsächlich sehr viel näher als den englischen. Aber akzentfrei wird das natürlich so oder so nie.
Um den Text in das Korg Miku Stomp zu übertragen, verbindet man den Kopfhörerausgang des iPads mit dem Eingang des Pedals und hält den Effektschalter solange gedrückt, bis die gelbe und rote LED anfangen zu blinken. Der Text wird im Modem-Style übertragen, sodass man theoretisch auch abgespeicherte Audiodateien benutzen könnte. Das Pedal schaltet nach der Übertragung automatisch zurück in den normalen Betriebszustand.
Kommen wir zur praktischen Seite. Hatsune Stomp-san kann Noten zwischen 82 Hz (E2) und 1319 Hz (E6) erkennen und monophon singen. Monophon heißt hier auch gleichzeitig, je komplexer und harmoniereicher der Eingangssound ist, desto mehr Probleme hat Hatsune, die gewünschte Tonlage zu erkennen. Auch wenn der Quellensound zu laut ist, was durch das Aufleuchten der Peak-LED angezeigt wird, verstimmt das Hatsune ebenso, wie zu leise Signale, bei denen sie anfängt, tonal herumzuschlittern. Auf den Pegel sollte man also ein Auge haben. Um eine Tonhöhe zu erkennen, benötigt Hatsune zwischen 30 und 100 ms. Die Latenz bleibt aber im unteren Bereich, wenn man einen einfachen Klang verwendet, der auch gerne moduliert oder angezerrt sein darf, Hatsune macht das mit und moduliert ihre Stimme entsprechend. Aber Harmoniereiches und Akkorde sind zu meiden.
Ganz trocken macht Hatsune aber trotzdem nicht allzu viel her. Wenn man die Stimme jedoch noch mit Gitarrenverstärkern und klassischen Effekten wie Delay, Chorus etc. anreichert, sieht die Sache schon ganz anders aus. Damit kann Hatsune richtig schön garstig und auch „moody‟ klingen.
Die Kunst beim Texten für Miku ist es, die Vorteile und Schwächen der Sprachsynthese für sich auszunutzen. Einer der größten Fehler vieler Nutzer von Sprachsynthese ist es, diese nur auf einen Gesangsersatz zu reduzieren, nur die Sprache zu sehen und nicht den Synthesizer und Ergebnisse auch unbearbeitet zu lassen. Damit liegt das Potential von Sprachsynthese aber größtenteils brach, als würde man auf einem Moog Voyager nur diesen einen 2-Osc-Basssound spielen und sonst nichts. Auch Sprachsynthesizer sind
Synthesizer, die erlernt werden wollen, nur dass hier mit Silben operiert wird und nicht mit Schwingungsformen.
Audiodemos: Das Korg Miku Stomp wurde von teils polyphonen MIDI-Daten, die in einen einfachen Sinus-Oszillator (Reaktor 6) steuern, gespielt. Als Effekte kamen NI Replika,
Postive Grid AMP & FX, inGRM PitchAccum und 112dB Redline Reverb zum Einsatz.
Die Beispiele wurde zum Schluss auf -6 dBFS normalisiert.
Ei Gude :-)
ich habs Pedal gesehen und wusste du warst fleissig :-) Ich hab grade erst mit der Sprachsynthese im iDS-10 ein paar G-Syle Housetracks gemacht und hatte viel Spass damit, zumal das Ergebnis den Aufwand rechtfertigt. Hier sehe ich das ähnlich, ich meine sie/es soll ja keine Arien singen aber für vocaloide weibliche Bass und Leadfiguren a la Dalek, AYAY und was auch immer absolut zu gebrauchen. „Ich bin eine blasse Wäscherin“ ist arg speziell. Das letzte mal das ich sowas Spezielles hörte war vor 3 Jahren bei den BBC Proms zum 50 Geburtstag von Doctor Who.
https://www.youtube.com/watch?v=IHfkrxPsUpM
Aber wie dem auch sei, wenn es Goosebumps macht, ist das richtig :) aber ich halte ja auch die Synthline im Doctor Who für das wichtigste Sück Popmusik, das je geschrieben wurde ;-)
Vielen Dank für den sehr gelungenen Test!
Ich habe Miku seit rund einem Jahr und sie sogar schon live als „Leadsänger“ eingesetzt. Klang und Möglichkeiten faszinieren sehr, live ist Miku aber extrem schwierig zu handhaben. Mit einem Sequencer wäre es wohl einfacher, aber sonst ist es fast unmöglich, sie eine Textphrase so singen zu lassen, dass sie damit genau fertig ist, wenn auch die Melodie fertig ist. Und beim nächsten Ton startet sie ja nicht neu sondern singt einfach die nächste Silbe. Na ja, den Zuhöreren fällt das nicht auf. Da überwiegt der Überraschungseffekt und zwar sehr positiv …
@weinglas Haha, sehr cool!
Kann Dir auch sonst nur voll und ganz zustimmen.
Das Konzept ist sicher ausbaufähig. Einzige Möglichkeite Miku neu anfangen zu lassen ist kurz mal das Preset zu wechseln.
Ansonsten heißt es halt „go with the flow“.
:)
@weinglas Hallo Weinglas,
hast du auf deinem Youtube Channel Beispiele? Ich find Miku trotz fehlenden Midis schon interessant, sehe aber auch das es andere Geräte/Software gibt, die produktionstechnisch einfacher sind. Grüsse
@TobyB Hi Toby,
sorry dass ich erst jetzt antworte. Ich habe Deinen Kommentar iregendwie nicht mitgekriegt.
Hier ist ein Video von einem Liveauftritt in Rotterdam mit der Miku. Aber leider nur mit iPhone-Mikro:
https://www.youtube.com/watch?v=Li-P_aa68UE
@weinglas Hallo Wein,
sehr geil. Ich habe hier noch mobiles Recording Equipment u.a. einen Sony Minidisc HiMD für 4 Stunden WAV PCM bei 24/48 :-)
Danke für den Produkthinweis! Bei Thomann beschweren sich einige über die Latenz. Kann man das messen? Wäre man mit Midi Guitar in Kombination mit Plogues AlterEgo nicht schneller?
https://www.plogue.com/products/alterego/
@Chick Sangria Hi Christ,
für die Latenz und Tracking hab ich das entsprechende Audiobeispiel gemacht, ich glaube schneller und besser geht das mit dem Miku Stomp nicht.
MIDI-Gitarren Controller mit AlterEgo hat gut Chancen schneller zu sein, man mit MIDI-Interfaces durchaus unter 10ms Latenz wegkommt. Stimmstabiler auf alle Fälle, da die Tonhöhen ja schon in MIDI vorliegen.
M. :)
@Markus Schroeder Chick nicht Christ, blöde Autokorrektur.
@Markus Schroeder Danke! Christ ist gut. Hatte den Test übersehen. Klingt nach sehr viel und daher live nicht tight benutzbar.
@Chick Sangria Nein, Tight ist nicht die Stärke des Miku Stomp, aber wie auch Weinglas weiter oben geschrieben hat: Überraschungen schon.
Aber das muss man halt auch mögen.
:)
@Chick Sangria Sorry, heute ist anscheinend Legastheniker Tag bei mir.
Für die Latenz und das Tracking hab ich das entsprechende Audiobeispiel gemacht. Ich glaube schneller und genauer geht das mit dem Miku Stomp nicht.
Mit MIDI-Controllern und AlterEgo hat man sicher gute Chancen schneller zu sein. Mit MIDI-Interfaces bekommt man ja durchaus unter 10ms Latenz hin. Stimmstabiler ist es auf auf alle Fälle, da die Tonhöhen ja schon in MIDI vorliegen und nicht getrackt werden müssen.
Oder meinst Du das MIDI-Tracking einer normalen Gitarre? Dann kommt es wieder auf die Latenz und Genauigkeit des Gitarren-Trackers an.
Ich denke, sobald Noten/ Frequenzen getrackt werden müssen, geben sich die Methoden nicht mehr viel.
Grüße,
M. :)
bin mir gerade nicht ganz sicher: soll bei den audiobeispielen irgendetwas verständliches dabei sein? also ich versteh da irgendwie nur bahnhof…
@dilux Das war bestimmt japanisch, ich hab auch nix verstanden
Auf Sprachverständlichkeit hab ich bei den Demos keinen Wert gelegt.
:)
@Markus Schroeder Hallo,
dazu gibts hier Gelegenheit. ;-)
https://youtu.be/rL5YKZ9ecpg
Nach dem Breakbeat-Intro hab ich mein Knicklicht gesucht. :)
Die Japsen sind schon sehr speziell, so wie dieses Gerät zeigt. Ich für mich finde es völlig unbrauchbar, da stellen sich mir die Nackenhaare.
http://i.imgur.com/DZ0de04.jpg
Guten tag ich habe das miku stomp kürzlich neu gekauft und möchte auch gerne wissen wie das genau geht? Z.b kann man komplette japanische lieder wie shinkegi no kyojin attack on titan und wie genau funktioniert das mit iphone zu miku stomp also mit einem aux stecker oder reicht das signal direkt vom iphone ins gitarren pickup lg brian
Hallo Miku chan,
Du kannst den Test eingeben oder aus einer anderen App wie Text oder Email per copy and paste übertragen.
Allerdings sollte der Test noch vorher in in Silben formatiert werden, denn mit der jeder Auslösung rückt der Parser eine Silber weiter. Da musst Du etwas experimentieren damit die Aussprache und das Auslösen halbwegs verständlich ist.
Dann verbindest Du das iPhone / iPad mit dem Kopfhörerausgang mit dem Klinkeneingang am Pedal.
Wenn Dein iPhone / iPad nur einen Lightning-Ausgang hast, brauchtst Du noch ein Adapterkabel auf analoge 3,5mm Klinke. Lightning-Kopfhöreradapter gibt z.B. von Apple oder Griffin.
Um den Text in das Korg Miku Stomp zu übertragen, verbindet man den Kopfhörerausgang des iPads mit dem Eingang des Pedals und hälst den Effektschalter solange gedrückt, bis die gelbe und die rote LED anfangen zu blinken. Das Pedal schaltet nach der Übertragung automatisch zurück in den normalen Betriebszustand.
Ich hoffe das hilft Dir weiter,
greetz,
M. :)