Probe Podcast 72 MYTH

Bitte hinterlasse ein Kommentar und ein Like

Beschreibung:

Wiedersehen macht Ah?! Podcast-Lieblingsgast Peter V. ist zurück, pünktlich zum Release seines neuen Software-Synthesizers, und gibt exklusive Einblicke in das, was einmal ein, Zitat “unkomplizierter, kleiner FM-Synthesizer” hätte werden sollen. Gemeinsam mit dem Erfinder watet man durch die Tiefen eines durchdachten Re-Synthese-Monsters, lernt unerwartetes, logisches und unerwartet logisches kennen, unterhält sich über gemeinschaft- und leidenschaftliches Developing, debattiert über die rasante Entwicklung von KI und philosophiert über neue Ansätze, noch nie dagewesene Musik zu machen. Zwei Stunden ausladender Nerdtalk, full on detailverliebt und latent größenwahnsinnig – und ein paar Takte MYTH gibts auch noch auf die Ohren. Viel Spaß damit.

Dawesome Myth gibt es ab dem 18.04. bei tracktion.com zu erwerben oder als 90-tägige Demoversion ohne Einschränkung zum ausgiebig testen.
Dieser Link ist kein Affiliate-Link.
Disclaimer: Die Podcaster haben Myth kostenlos zum Beta-Test und zur Nutzung erhalten, es ist aber kein zusätzliches Geld geflossen und at least der Schreiber dieser Zeilen hätte sich den Synth sowieso gekauft

Links zur Ausgabe:

▶ Hier Klicken für das Tanscript:
Tanscript:

* Musik *
* Musik *
* Musik *
* Musik *
* Musik *
* Musik *
* Musik *
* Musik *
* Musik *
* Musik *
* Musik *
* Musik *
* Musik *
Hallo und willkommen bei den
Probe-Podcasts.
Hallo Peter. Hallo.
Hallo Tobi.
Hallo. Hallo Thomas.
Moin aus Hamburg.
Und aus dem wunderbaren Nordrhein-Westfalen
unser Moderator, der Sascha. Hallo.
Hallo. Hallo.
Genau, wie man unschwer gehört hat,
wir haben einen sehr besonderen Gast,
auf den wir uns sehr gefreut haben.
Mal wieder. Peter von Dorsham. Mal wieder.
Genau. Und heute wird es
mythisch, wie man so schön sagt.
Genau. Denn in wenigen Tagen,
also das hier kommt ja heute Montag,
der 15. ist es, glaube ich,
kommt das raus und dann wird in wenigen Tagen
die Folge raus. Am 18.
Was passiert am 18.?
Am 15. kommt die Folge raus.
Und am 18.? Ach, am 15. kommt die Folge raus?
Ich dachte die Folge, ach so, naja, egal.
Ist ja noch besser.
Ja, was passiert denn am 18.?
Heute ist Portal-Tag, das wisst ihr, ne?
Heute war eine totale Sonnenfinsternis.
Das ist noch viel schlimmer, Leute.
Wir haben nicht nur eine totale Sonnenfinsternis gehabt,
wir haben eine Konstellation von vier Planeten
und die haben den Teilchenbeschleuniger in CERN hochgefahren.
Ich sagte doch. Akokalypse.
Ich sagte doch. Und die NASA hat ein paar Weltraumsonden gestartet,
soweit ich weiß. Und ich sagte doch, es wird mythisch heute.
Also das ist doch schon mal ein guter Einstieg.
Jetzt haben wir eine Fahnen verloren, oder?
Also, gut, ich übernehme den Bums jetzt mal so ein bisschen.
Am 18. wird etwas releasen.
Und wenn etwas releast von einem gewissen Plug-in-Hersteller,
den wir alle kennen, den wir alle benutzen,
den wir alle mögen und den wir sogar hier vor Ort haben,
ja, dann muss man doch diesen, ich sag mal so,
muss man doch diese Telefonleitung benutzen,
um mal direkt vor Ort ein bisschen zu fragen, was genau ist das?
Weil ich hab's aufgemacht
und war so ein bisschen ratlos.
Deswegen hab ich gedacht, gut,
es kann nicht jeder Thomas sein,
es kann nicht jeder die Bedienungsanleitung lesen.
Es gibt auch noch Leute, die Leben nebenbei haben.
Ganz ehrlich, ich hab die Bedienungsanleitung
aber nicht sofort gelesen,
sondern ich bin ja auch eher so der "What you see is what you get".
Also der, nee, wie heißt das?
Der "Devisivik"-Typ, der erstmal ausprobiert
und guckt, wie weit er ohne Anleitung kommt.
Und ich bin eigentlich ohne Anleitung ziemlich weit gekommen.
Und danach hab ich natürlich einen Blick reingeworfen,
weil die Anleitung auch, übrigens Kompliment,
Peter, sehr gut geschrieben ist.
Und sie ist vor allem auch sehr witzig, ne?
"Back to the FM".
Also ich hab das Ding aufgemacht,
hab den Kopf gesehen und hab "Tilt" gemacht.
Da ging irgendwie nichts mehr, da ist mein Kopf weggeschmolzen.
Aber dafür haben wir auch heute Abend den Entwickler hier.
Wir sprechen über "Dawson Myth"
oder wie soll ich's aussprechen?
Keine Ahnung.
Ich glaub "Myth" ist schon ganz gut,
aber tu ich mich auch schwer mit.
Den neuen großen Synthesizer aus der Indie-Butze in Hamburg.
Nein, nicht aus Thomas Wohnzimmer.
Der macht kein Indie, der macht Ambient.
Der Witz ist versandet, bevor ich ihn geschrieben habe.
Du streibst bitte auf.
Das war so trocken, Tobi.
Das staubt schon.
Aber nur, weil er so flach war.
Peter, erzähl doch mal ein bisschen,
wie bist du auf die Idee für "Myth" gekommen
und was genau ist "Myth"?
"Myth" ist erst mal ein Synthesizer-Plugin.
Das ist die eine Idee, auf die ich gekommen bin,
wäre irgendwie so ein bisschen irreführend,
weil tatsächlich war das ganz anders.
Ursprünglich wollte ich einen ganz einfachen,
kleinen Synthesizer machen,
der einen neuen Zugang hat zu FM-Synthese.
Jeder, der sich schon mal mit einem DX7-Synthesizer
befasst hat, kennt das.
Es ist toll, teilweise, wie es klingt,
aber es ist ein Horror, das zu programmieren.
Das ist das Gegenteil von intuitiv.
Man muss sich sehr gut auskennen
und dann ziemlich viel rumfrickeln,
damit man was bekommt, was einem Spaß macht.
Deswegen war die Idee, kann man das nicht vereinfachen?
Kann man da nicht eine schönere Form von haben,
mit der man arbeiten kann?
Die Grundidee war, es wäre toll,
wenn man ein Sample nimmt,
und dann wird das resynthetisiert.
Danach habe ich irgendwelche High-Level-Parameter,
wo ich das Sample, so wie es resynthetisiert wurde,
global verändern kann,
dass sich das stärker anhört in Richtung FM
oder dass sich das stärker anhört in Richtung Physical Modeling
oder in Richtung Sound.
Das heißt, ich muss nicht mehr 500 Höhenkurven
und 300 LFOs programmieren,
damit ich Bewegung in meinen Klang bekomme.
Die Idee ist, ich fange mit einem Sample an.
Jetzt nehme ich aber nicht das Sample in einem Sampler
und eigentlich bleibt es immer das Sample
und es wird ein bisschen bearbeitet.
Die Idee ist, ich mache aus dem Sample
einen Synthesizer, der diesen Sound annähert.
Dann habe ich die Möglichkeit, damit herumzuspielen.
Das war die eine Idee.
Die andere Idee war,
dass es Spaß macht,
mit einem modularen Synthesizer zu spielen.
Ich habe mich gefragt, woran liegt das eigentlich?
Dass das ein Vergnügen ist
und sich ganz anders anfühlt,
wenn ich mit einem Sample unterwegs bin.
Das eine ist das Taktile.
Man kann einfach hingehen, rechts und links anfassen
und irgendwo drehen und gucken, was passiert.
Ich glaube, gerade dieser Aspekt von explorativ
sich mit den Klängen zu befassen,
gar nicht immer ganz genau zu wissen,
wenn ich das Kabel hier nehme und es da reinstecke,
habe ich vielleicht eine gewisse Vorstellung,
was ich tue.
Aber ziemlich oft erlebe ich eine Überraschung
oder es ist doch ein bisschen anders.
Oder man hat sich einfach in der Buchse vertan
und dann passiert plötzlich etwas total Interessantes.
Eine Rauchsäule?
Das hatte ich noch nicht, aber denkbar wäre es auch.
Dieses Vergnügen
von weg,
von Sounddesign,
als ich eine Excel-Tabelle habe,
ich gehe da analytisch dran,
ich habe ganz viele Zahlen usw.
und mache mir genau eine Vorstellung
und dann gehe ich planvoll vor
und am Ende kriege ich genau das,
was ich mir am Anfang überlegt habe.
Stattdessen eher so ein "Ich gehe auf einen Spaziergang
und hier tut sich auf einmal etwas auf,
das will ich mir mal ein bisschen genauer angucken
und dann spiele ich hier ein bisschen rum usw.
Ich entwickle dabei dann genauso Klänge,
die ich verwenden kann usw.
Aber die Herangehensweise ist eine ganz andere
und eine, die mir persönlich viel mehr liegt.
So ein bisschen das Happy-Accident-Phänomen?
Genau, das Happy-Accident-Phänomen
und aber auch,
dass man,
es müssen ja gar nicht unbedingt Happy-Accident sein,
sondern dass man auch mit dem arbeitet,
was man gerade hat
und dass man das so ein bisschen verändert.
Nehmen wir mal ein Beispiel,
ich habe jetzt vielleicht schon einen ganz tollen Drum-Loop gemacht
und jetzt überlege ich,
wie kriege ich da irgendein anderes tonales Material dazu,
was ich verwenden kann,
was aber irgendwie jetzt mit dieser Baseline harmoniert.
Jetzt kann ich natürlich ein Keyboard nehmen
und mir irgendwas einspielen.
Das wäre so die klassische Herangehensweise.
Hier mit "müs" wäre die Herangehensweise,
ich nehme mir diesen Drum-Loop
und "müs" ist brutal darin,
dass man auf einer Klaviatur spielen kann.
Das heißt, der nimmt das
und schon habe ich etwas, was tonal ist.
Es hat aber die gleiche zeitliche Entwicklung,
das heißt, der Rhythmus bleibt erhalten.
Darf ich da mal reingehen?
Klar!
Und fragen, was meinst du, es nimmt das?
Du hast zwei Rhythmus-Szenen,
du hast zwei Augen, zwei Irisse
und du kannst ein Sample ablegen.
Dieses Sample wird dann
re-synthetisiert
auf vier Oszillatoren verteilt.
Oder was genau passiert da mit dem Sample?
Vielleicht zwei Sichtweisen.
Die eine ist, wie benutze ich das?
Kann ich das mit dem Sample machen?
Ich nehme einfach mein Sample,
per Drag & Drop haue ich das da rein
und danach kann ich damit weiter rumspielen.
Ich höre jetzt aber nicht das Sample
wie in einem Sampler,
es ist keine naturgetreue Wiedergabe,
sondern es ist diese Reinterpretation
als ein Instrument.
Ich habe dann sogenannte Transformer,
man kennt ja den Cut-Off mit einer Resonanz,
da kann man dran drehen und da verändert sich
der Klang auf eine bestimmte Art und Weise.
In ähnlicher Form gibt es hier jetzt auch Transformatoren,
das sind Parameter, an denen kann ich rumspielen
und die verändern das dann aber vielleicht
eher in Richtung FM oder die verändern das,
dass es sich eher anhört in Richtung Sägezahn.
Damit kann man rumspielen.
Um mal ein Beispiel zu bringen,
ich habe da zum Beispiel ein Sprachsample,
ein sehr langes Sprachsample aus irgendeinem alten Hollywood-Schinken,
die man als Public Domain runterladen kann,
hier aus den 1932,
"Die Nacht der schwarzen Toten"
oder irgendwie sowas.
Irgendein Sprachsample habe ich da reingeschmissen
und ich hatte nachher ein tonales Ergebnis.
Das fand ich ganz witzig.
Sprache wird dann quasi übersetzt in Klänge.
Ja, und zwar nutzt es natürlich auch
einerseits die Klanginformation,
die in dem Sprachsample drin ist
und andererseits die zeitliche Entwicklung.
Das heißt, wenn du jetzt ein sehr, sehr langes Sample nimmst,
mehrere Minuten Sprache,
dann bräuchte das eine so hohe zeitliche Auflösung,
dass das sehr schlecht von einem Synthesizer wiedergegeben werden kann.
Man kann sich einfach mal vorstellen,
du müsstest jetzt einen Synthesizer programmieren mit Höhlkurven,
der jetzt dieses Sprachsample gewissermaßen erzeugt.
Da würdest du eine Höhlkurve mit tausenden Punkten brauchen.
Genau, das kann man natürlich nicht. Deswegen vereinfacht er das Ganze.
Genau, das wird vereinfacht.
Aber wenn du jetzt zwei, drei Worte nimmst,
wie Probe-Podcast,
dann kannst du das hinterher auch wiedererkennen.
Dann kannst du einen Chor daraus machen.
Du kannst es dann ja tonal spielen
und du kannst es dann in alle möglichen Richtungen verändern.
Du kannst die Obertöne rausnehmen, damit es nicht so kratzig klingt.
Du kannst es danach so machen,
dass es sich eher in die Richtung Streicher anhört
und das immer alles nur mit einem Knopf drehen.
Oder du kannst es zum Beispiel so machen,
dass es sich etwas metallischer anhört.
Da kann man dann in Hand umdrehen.
Das geht dann über die Transformer, oder?
Genau, das ist einfach nur ein kompliziertes Wort.
Da sind halt so ein paar Parameter, an denen man spielen kann.
Man muss nicht mal wissen, was die tun.
Ich habe gerade festgestellt, zum ersten Mal seit einem Monat,
in dem ich das Plugin habe, da hat es unten ein Fragezeichen.
Das zeigt ja an, was die Dinger machen.
Aber ich habe das irgendwie nie gebraucht.
Ich habe die einfach intuitiv benutzt bis jetzt.
Ja, die haben auch teilweise, also die haben zwar Namen,
aber die haben auch ja so eine visuelle Repräsentation.
Also mir geht es jedenfalls so,
ich denke dann irgendwann, jetzt will ich ein bisschen mehr blau,
oder hier will ich ein bisschen mehr rot haben.
Weil wenn man das drei, vier Mal gemacht hat,
dann hat man ein Gefühl dafür, was dieses Rot,
was das macht mit einem Klang,
oder was Blau mit einem Klang macht.
Das zieht sich ja durch deine gesamten Synth-Designer eigentlich, oder?
Ja.
Also die haben ja alle irgendwo einen Farbcode, oder?
Ja, das stimmt.
Und das wird auch in Zukunft eine noch viel größere Rolle spielen.
Also wenn wir da einen winzigen Exkurs machen.
Als ich Abyss damals rausgebracht habe,
waren so die ersten Leute auf KVR oder anderen Foren so,
ja was soll denn der Scheiß, so mit Farben,
das ist ja voll das Gimmick, das braucht kein Mensch,
voll idiotisch, Spielerei, bla bla bla.
Was ich gut verstehen kann,
weil es ist ja erstmal was, was man so noch nicht gesehen hat.
Und tatsächlich ist es aber so,
die Warnierungspsychologie stellt fest,
wenn wir Klangfarben oder Klänge beschreiben,
also wie klingt etwas,
benutzen wir das gleiche Vokabular, mit dem wir Oberflächen beschreiben.
Wir sagen, das ist hell, das ist dunkel, das ist kalt, das ist warm.
Eine warme Farbe, eine kalte Farbe.
Das ist rau, das ist schrill, das ist pieksig.
Das lässt sich sozusagen eins zu eins übersetzen,
einerseits in Farben und andererseits in Texturen.
Und bisher habe ich sozusagen diesen Punkt
Klänge darstellen durch Farben ganz stark ausgenutzt.
Und ich würde mal sagen, das ist jetzt weitestgehend etabliert.
Weil witzigerweise genau die gleichen Leute auf KVR,
die damals gesagt haben, so ein Scheiß, das braucht kein Mensch,
schreiben jetzt auf KVR,
sie werden ja die Ersten gewesen, die erkannt hätten,
wie toll das ist und wie intuitiv man das dann hinterher benutzen kann.
Die Ersten waren sie nicht, sondern du warst der Erste.
Ich war auch nicht der Erste.
Ich habe ja Paper darüber gelesen und so.
Bestimmt gibt es auch irgendeinen esoterischen Synthesizer,
über den Heinbach dann irgendwann ein Video macht von 1912.
Ich glaube, dass wir alle auch so ein bisschen durch die...
Aus der Sowjetunion in den 50ern, ja.
Genau.
Ich glaube, dass wir alle auch so ein bisschen durch die iOS-Apps.
Da wurde ja auch schon ganz viel ausprobiert.
Da haben die Programmierer auch schon ganz viel ausprobiert.
Boah, wie ich so fast die Drum Machine vermisse, ey.
Das hat ja alles seinen Weg auch gefunden, mehr oder weniger.
Ich sage mal, bei den klassischen, alteingesessenen Synthesizerfirmen.
Also wenn man sich jetzt zum Beispiel mal den neuen Korg Micro Korg 2
in seiner Neuausgabe, den gibt es ja noch nicht,
der ist noch nicht lieferbar, aber wenn er dann rauskommt,
da haben die sich tatsächlich so eine App-Entwicklerbude geholt
und haben die das Betriebssystem und die grafischen Elemente
programmieren lassen.
Und die haben zum Beispiel Achievements drin.
Also du kannst tatsächlich da Achievements freischalten.
Hey, ich habe einen Cut-off gedreht und solche Geschichten.
Und die haben halt auch sehr viele grafische Elemente
in der Benutzeroberfläche.
Und da haben die sich, ich würde mal sagen,
Elektronen haben da ja auch so ein bisschen vorgelebt.
Und jetzt machen halt das ganz viele nach.
Was du aber halt jetzt hier mit dem Myth gebaut hast,
das ist, darf ich sagen, mein Kopf ist explodiert.
Als ich dann erst mal das Prinzip verstanden hatte,
dachte ich so, boah, das ist ja der Wahnsinn.
Du kannst ja wirklich auf Oszillatorebene schon
so viele Module dazuschalten.
Und dann hinterher hast du noch einen Filter
und den kannst du da noch und dann hast du sogar noch
eine Effektsektion und dann hast du sogar noch
einen Flux-Capacitor, den du da irgendwo dazwischen schalten kannst.
Ja, dazu...
Das ist der totale Wahnsinn.
Da sage ich vielleicht kurz, was du...
Also, das klingt jetzt vielleicht dann ganz schnell so wie,
oh, das ist ja so ein mega kompliziertes Ding,
braucht man 100 Jahre...
Nee, gar nicht. Das ist so eingängig.
Also, ich habe es fast ohne Anleitung hinbekommen,
mich da durchzufringen.
Wenn man so ein bisschen von Synthese,
ich mache das ja jetzt auch schon so ein paar Jahre länger,
wenn man so, ich sage mal, die Grundlagen von Synthese drauf hat,
dann sucht man sich halt so die Funktionen zusammen.
Ich habe erst ein bisschen getüftelt,
habe überlegt, Mensch, wo hat er denn jetzt das Filter?
Bis ich dann entdeckt habe, hey, das ist ja bei den Modulen
und da gibt es ja die Filter-Sektion,
da kann man ja auch noch ganz andere Sachen machen.
Das ist ja, wie geil ist das denn?
Also, das ist ein richtiger Modulkasten,
der sehr, sehr einfach zu bedienen ist.
Und es sind Module ohne Kabel.
So die Idee war eher, also ursprünglich war meine Inspiration
eher so von so einem Pedalboard irgendwie bei der Gitarre,
wo ich so gedacht habe,
da gibt es auch diese tausend verschiedenen Effekte.
Und man hat aber nicht diese Komplexität,
wo man ständig jetzt wieder analytisch nachdenken muss,
und jetzt mache ich ein Kabel von hier nach da
und dann passiert ja das Folgende.
Aber dann habe ich hier ein Feedback.
So diesen Kopf, den will ich da so ein bisschen raus haben.
Stärker hin zu dem, ich probiere mal.
Das ist glaube ich auch darum, warum alle gerade so auf Gitarrenpedale abgehen.
Also natürlich gibt es die Eurorack-Abteilung,
das befruchtet sich auch gegenseitig,
aber einfach Pedale, weil Input, Output, vielleicht noch ein Switch, fertig.
Genau, und mir kommt gerade eine Idee,
ich werde noch eine neue Funktion, glaube ich, einbauen,
wo man einfach ein zufällig ausgewähltes Modul
mit einer zufällig ausgewählten Dings dazu schalten kann.
Da muss ich nicht mal überlegen, was ich jetzt für einen Filter haben will,
ich drücke drauf und dann kommt eins.
Und wenn er mir nicht gefällt, drücke ich halt nochmal drauf und kriege einen anderen.
Gut, aber was ich eigentlich sagen wollte,
zum Beispiel dem Vorgängersynthesizer, den ich gemacht hätte,
also das ist nicht mein Vorgänger,
der Synthesizer, den ich vorher gemacht hatte, Kult.
Da war es auch schon so, dass ich gedacht habe,
ja, also wenn man jetzt einen Filter gut benutzen will,
dann ist es eigentlich toll, wenn ich vor dem Filter
zum Beispiel schon ein bisschen verzerren kann.
Und wenn ich vielleicht noch einen Comp-Filter hätte,
aber manchmal möchte ich den Comp-Filter hinter meinem analogen Filter haben
und manchmal möchte ich es davor haben.
Also die Verzerrung sollte auf jeden Fall immer davor sein.
Und so ist dann so eine statische Sektion entstanden in Kult,
die eigentlich auch schon aus mehreren Modulen besteht.
Erst eine Verzerrung, dann ein Comp-Filter, dann ein analoger Filter,
dann nochmal eine Verzerrung und nochmal ein Comp-Filter.
Und dann hatte ich 100 Ideen, was man da noch machen könnte.
Und das UI würde aber aus allen Nähten platzen.
Und dann dachte ich, es wäre doch eigentlich toll,
wenn man diese Flexibilität hätte,
sich diese Sachen frei anordnen zu können und frei aussuchen zu können.
Was insbesondere mich auch dazu in die Lage versetzt,
wenn ich eine neue Idee habe, wo ich denke,
hey, man könnte ja noch vielleicht das und das
auf diese Art und Weise das Signal verbiegen.
Dann kann ich ein einfaches Update machen
und muss nicht eine Woche damit zubringen,
mir zu überlegen, wo ich das in das UI noch reinquetsche,
ohne dass es jetzt überfrachtet wird,
dass es kompliziert wird oder sonst was.
Es ändert sich eigentlich gar nichts im UI,
sondern ich habe einfach nur eine neue Möglichkeit.
Und du hast es auch schon so ein bisschen angelegt,
also nicht wie bei Valhalla DSP, wo der Code zusammenstürzt,
weshalb die einfach ein 4.0-Update gemacht haben
und das komplette Ding neu schreiben müssen.
Also ich hoffe.
Also ja, man weiß natürlich nie,
manchmal tauchen irgendwelche Grenzen auf,
an die man vorher nicht gedacht hat.
Aber da ich ja jetzt sehr lange auch daran entwickelt habe
und das auch ziemlich angewachsen ist über die Zeit,
bin ich da jetzt mal recht optimistisch.
Ja, und dann, also man kennt das ja vielleicht so ein bisschen
von so einer FX-Section oder von Multi-Effektgeräten,
dass man da dann einen Phaser und irgendwas hat,
einen Reverb und einen Delay,
und dann kann man die in der Reihenfolge selber strukturieren.
Und hier war dann halt noch die Idee,
das halt genauso für die Oszillatoren zu machen.
Weil dann muss ich mir jetzt nicht für einen Oszillator
einmal überlegen,
ja also der soll jetzt diese sieben Knöpfe haben,
sondern ich kann meinen Oszillator
gewissermaßen auch modular zusammenstecken
oder wie ein Gitarrenpedal.
Ich kann sagen, ich fange jetzt hier erstmal mit irgendwas an,
sagen wir mal ein klassischer Siegezahn-Generator.
Dann möchte ich den aber gerne
vielleicht mit ein bisschen Ringmodulation
etwas metallischer machen.
Jetzt klingt mir das aber zu glatt,
deswegen nehme ich irgendwas Krudes
wie zum Beispiel Orbit-Modulation,
was so eine neue Erfindung ist
und mache es damit irgendwie noch ein bisschen krasser.
Und so kann ich Schritt für Schritt einfach gucken,
was passiert.
Und bewege mich aber quasi immer noch
auf der Ebene eines Oszillators.
Das heißt, es ist dann auch pro Taste,
die ich spiele.
Das heißt, es ist nicht ein Effekt,
der jetzt über alles, was ich spiele, irgendwie drüber geht,
sondern das ist sozusagen eigens für die Note.
Das heißt, ich kann es ganz toll modulieren,
also über den Verlauf des Klangs,
oder ich kann es mit einem MPE-Instrument
oder mit irgendwelchen Mod-Wheels,
Expression-Pedalen und so weiter,
kann ich jetzt alle diese Einstellungen nehmen,
um meinen Klang wirklich zu formen,
wie ein Instrument,
und ihn dann auch expressiv zu spielen.
Ich habe eine Frage.
Und jetzt lass uns mal so richtig schön
in Media Reis gehen.
Also wenn ich MÜF aufmache,
schauen mich erst mal zwei Augen an.
Und was ich mich gefragt habe, ist,
okay, ich kann da Samples ablegen.
Was ist denn aber,
wo kriege ich denn die Wellenform her,
wenn ich jetzt so ganz einfache,
virtuell analoge Wellenform haben will?
Reicht es?
Und das habe ich dann auch gemacht.
Wenn ich mir so von so einem Standard,
ich sag mal,
von so einem substraktiven Synthesizer irgendwie
so eine ganz kurze,
so eine Single-Cycle-Wave-File reinlade,
oder muss ich ein längeres Sample nehmen,
oder kann man das auch vielleicht erzeugen lassen,
dass man da vielleicht so einen Sortoos
oder einen Puls oder einen Square
oder was auch immer hat?
Oder wie hattest du das gedacht?
Also, ich denke,
die klassischen Wellenformen,
die jetzt, was weiß ich,
Square, Saw und so weiter,
die sind einfach so typisch,
dass es gut ist,
dafür etwas Eigenes zu haben,
damit man dann halt auch die Möglichkeiten hat,
das nach Belieben verändern zu können.
Und diese Iris, also diese Augendinger,
sind von der Performance her,
sagen wir mal,
ein bisschen anspruchsvoller,
als jetzt eine klassische Wellenform zu generieren.
Und deswegen würde man jetzt einfach
in dem Oszillator sich als allererstes Modul
einen Generator, das heißt Wave, reinladen,
und da hat man dann die Wahl zwischen
diesen, was weiß ich,
Sägezahn, 3-X-Welle, Square, Sinus, Bauschen,
und hat auch bis zu fünffach Unisono
und kann selber das detunen
und wie das im Stereobild aufgespalten wird,
alles einstellen
und kann diese Einstellung aber auch modulieren.
Das heißt, wenn du dir jetzt
einen einfachen analogen Synthesizer bauen willst,
sagen wir mal, zwei Oszillatoren,
dann nimmst du einfach zwei von diesen Modulen hintereinander,
dann machst du dir ein Filtermodul dahinter
und zum Beispiel dieses analoge Tiefpassfilter,
da hat man dann auch die Auswahl,
ob es jetzt ein Diode, ob es sehr dreckig sein soll,
ob es ein bisschen cleaner sein soll,
und dann bist du eigentlich fertig.
Also dann, da brauchst du nicht viel.
Ich habe sogar nur einen Oszillator genommen.
Ja, reicht ja auch völlig.
Ich habe ein 303-Sample genommen
aus irgendwie so einer, keine Ahnung,
Mars-Sample-Collection oder irgendwas,
was kostenlos im Internet verfügbar war
und habe das resynthetisieren lassen
und habe damit dann angefangen, mir Patches zu bauen
und kamen ganz lustige Sachen bei raus,
weil du ja natürlich, wie gesagt,
hast ja durch den modularen Ansatz
ganz echt verrücktes Zeug mitmachen.
Genau, das ist die eine Richtung,
das hat mir echt gut gefallen, ja.
Das ist die eine Richtung, in die man arbeiten kann
und die total Spaß macht.
Es gibt auch eine andere Richtung, in die man arbeiten kann.
Ich glaube, in der Version, die ihr habt,
sind noch nicht so viele Presets dabei.
Genau.
Wenn das released wird, werden es eher sowas
zwischen 500 plus sein.
Und da hat man jetzt die folgende Möglichkeit.
Ich nehme einfach einen Klang, der mir jetzt gut gefällt,
wo vielleicht auch sich jemand schon die Mühe gemacht hat,
dass das bei ModView sich irgendwie ein bisschen verändert,
weil es das Filter ansteuert oder sonst was.
Und jetzt kann ich aber einfach in der Iris
das Sample austauschen.
Ich nehme jetzt also mein 303 Sample oder ganz was anderes,
mein Sprachsample, das Probe-Podcast sagt
und haue es da rein.
Und auf diese Art und Weise habe ich aus dem Preset
etwas völlig Neues gemacht, aber mit null Mühe
und etwas ganz Eigenes, was niemand sonst machen kann,
der dieses Sample nicht hat.
Und das ist eine sehr schöne Arbeitsweise
und damit es noch ein bisschen einfacher geht,
kann man es jetzt auch so machen.
Es gibt so eine Freeze-Funktion.
Ich weiß nicht, ob ihr die entdeckt habt.
Die habe ich entdeckt, ja.
Und da würde man das jetzt so machen.
Man wirft sein Sample da rein und freest nur das,
wo man sagt, hey, das Sample, das passt bitte nicht an,
aber alles andere darfst du verändern.
Und dann kann man die Presets switchen
in dieser Freeze-Section und sagen,
jetzt nehme ich hier ein anderes Preset und so weiter
und kann die so durchsteppen.
Und ich habe dann immer mein Sample,
und ich verhöre das jetzt sozusagen
in den verschiedensten Verkleidungen,
wo ich jetzt einmal die 500 Presets,
wenn ich das will, durchgehen kann.
Oder ich mache mir vorher eine Auswahl und sage,
hey, eigentlich will ich aus meinem Sample
einen Pad-Sound machen.
Also liste ich mir mal hier alle Pad-Sounds,
die irgendwie dabei sind,
habe dann da vielleicht 70 Presets.
Und dann nehme ich mein Sample, das freeze ich,
und jetzt steppe ich die ganzen Pads durch,
und jetzt kriege ich 80 verschiedene Varianten
von meinem Sample reinterpretiert als ein Pad.
Also das ist ja jetzt auch noch ein Workflow,
der super effizient ist, der sehr viel Spaß macht,
und der über das...
der gewissermaßen andersrum funktioniert,
als man das normalerweise macht.
Normalerweise nimmt man ein Preset
und dann schraubt man ein bisschen.
Und hier ist es so, hier nehme ich mein Sample
und stülpe dann die Presets über dieses Sample drüber.
Ist das... kann man sagen, das ist eher...
du hast ja schon gesagt, es ist eher wie bei der...
ich versuche gerade einen Vergleich zu finden,
mir fällt gerade keiner ein.
Mir lag einer auf der Zunge, jetzt ist er wieder weg.
Verdammt.
Ja, aber es geht ja in dem Fall nicht nur um die Parametrisierung,
es geht ja auch darum, wie die Module
miteinander verkettet sind und so weiter.
Also das stülpe ich ja über den Sound drüber.
Genau.
Also sämtliche Module, nicht nur Effektmodule oder so,
sondern auch alles, was die Synthese angeht und so.
Und das ist das Geniale.
Und das Geniale ist übrigens auch,
dass du an allen möglichen Stellen,
ob es nun bei den Transformatoren ist
oder bei den Transformers
oder die Sample selber
oder die Module, die du miteinander verkettet hast,
du kannst dir das alles speichern als Preset.
Du musst es nicht, du kannst es auch insgesamt
als Preset einfach speichern
und dann ruft der alles wieder auf.
Aber man kann auch wirklich, wenn man will,
man muss es nicht, wenn man will,
kann man in die Details reingehen
und da einzelne Sachen austauschen.
Das ist das, was du gerade erzählt hattest.
Ja, man kann jetzt zum Beispiel auch,
also du überlegst jetzt zum Beispiel,
du willst vielleicht häufiger mal Klänge ergänzen
um ein Layer, wo du sagst,
der soll jetzt eigentlich eher so klassisch,
subtraktiv, analog sein.
Also machst du dir einmal so eine Sektion
aus ein paar Modulen, wo du sagst,
okay, hier ist so ein Wave-Generator,
dahinter packe ich einen Filter
und dann packe ich da noch, was weiß ich,
einen OTT dahinter.
Und damit ich das jetzt nicht jedes Mal neu aufrufen muss,
nimmst du diese drei Kombinationen
und speicherst die als ein Sub-Preset ab.
Und dann kannst du das nächste Mal,
wenn du irgendwie das Gefühl hast,
oh, jetzt möchte ich das gerne einsetzen,
kannst du das halt dann auf Knopfdruck
da wieder reinholen.
Das hatte ich gesehen, dass das so geht.
Fand ich irgendwie einen sehr interessanten Ansatz.
So ein bisschen, damit es ein bisschen gemütlicher ist.
Ich glaube, in Microtonic gibt es so etwas Ähnliches,
aber in der Form so,
habe ich das noch nicht gesehen.
Das ist anders, das ist ganz anders.
Synthplant könntest du so ein bisschen vergleichen,
aber Synthplant macht zwar auch eine Resynthese
von Samples, ist aber,
hat einen ganz anderen Ansatz,
weil Synthplant 2 dein Sample-Material
quasi in Echtzeit einmal ausprobiert und durchprobiert
und das versucht nachzustellen
mit den vorhandenen Synthese-Engineren.
Das meinte ich gar nicht.
Zusammenstöpseln alles.
Bei Microtonic kannst du halt
für jedes Modul Presets abspeichern.
Du kannst dir quasi, wenn du deine Drums...
Die einzelnen Instrumente, ja.
Wirklich jedes Instrument einzeln,
aber auch den Sequencer oder auch Automatisation,
das kannst du alles abspeichern.
Das geht hier halt auch.
Du kannst entweder pro Modul irgendetwas abspeichern,
wenn dir ein besonderes Setting gefällt
und dir mal einen Namen geben,
damit du es dann das nächste Mal wiederverwenden kannst.
Aber du kannst halt auch ganze Effektketten.
Solche Sachen wachsen halt.
Das war das Gute, dass ich keinen Chef habe.
Weil wenn ich jetzt Teil eines größeren Unternehmens wäre,
dann würde das Ganze so laufen.
Man würde sich am Anfang ein Konzept machen,
würde sich ganz viel überlegen.
Und dann würde man sagen, wie lange brauchen wir dafür?
Dann würde man sagen, das Release-Datum ist September.
So habe ich auch gestartet.
Aber im August habe ich dann gedacht,
nee, nee, nee.
Ich hatte so viele gute Ideen, wo ich gedacht habe,
bringe ich das jetzt im September raus
und dann lasse ich diese ganzen guten Ideen fallen
oder nehme ich mir noch ein bisschen mehr Zeit.
Also habe ich es geschoben auf Dezember.
Dann bin ich aber nach Japan gefahren für ein paar Wochen.
Das war so ein Lebenstraum, was ich schon immer mal wollte.
Und da hatte ich so viel Inspiration und so viele neue Ideen,
dass ich wiederkam und dachte, nix, Dezember.
Wenn ich im Dezember Release hätte,
wäre das Produkt hinter dem, was ich dann gesehen habe,
was möglich ist, so zurückgeblieben.
Und eine dieser Sachen war halt, dass man dann irgendwie merkt,
hey, so bestimmte Ketten von diesen Modulen will man immer wieder haben.
Oder dann spielt man vielleicht noch ein bisschen damit rum,
aber so Grundketten, das kommt immer wieder.
Und das nervt, weil man dann jedes Mal das irgendwie wieder neu arrangieren muss.
Und dann dachte ich, ja, es ist auch viel besser,
wenn man auch noch die Möglichkeit hat,
jetzt so eine ganze Kette zu speichern.
Und so wächst dann so ein Synthesizer halt auch über die Zeit.
Und oft ist es so, erst wenn man dann drei unterschiedliche neue Ideen
da reingebracht hat, ist das Ganze wieder auf einem Level,
dass man die vierte Idee überhaupt erst haben kann.
Und dann vielleicht noch, um das ein bisschen zu erklären,
wie das so entstanden ist.
Ich habe so einen Discord, und den habe ich mal ursprünglich gestartet,
um das Handling mit meinen Beta-Usern einfacher zu machen,
damit ich nicht immer ganz vielen Leuten eine Mail schreiben muss.
Nehmen wir mal an, dann haue ich eine Version raus,
bei der irgendwas nicht funktioniert, und dann kriege ich von 27 Leuten eine Mail,
die mir alle schreiben, dass sie jetzt gemerkt haben,
da funktioniert was nicht.
Das ist ja auch für die Leute total Zeitverschwendung.
Und deswegen habe ich gedacht, es wäre doch toll, wenn wir so einen Discord haben,
weil dann schreibt einer, hier gibt es einen Fehler,
und dann lesen das alle anderen, und dann braucht das kein anderer mehr schreiben.
Zeitverschwendung wäre es halt, wenn einer eine Mail an alle schreibt,
und alle schreiben zurück, bitte nehme ich aus dem Verteiler.
Das ist der Discord halt als proaktiver Verteiler,
in den man zuerst reinschauen muss, oder?
Aber auch, man weiß halt, was einem da erwartet.
Und es geht einem nicht in der eigenen Mailbox auf den Sack,
das ist halt so viel praktischer.
Das war halt die Grundidee, aber daraus ist was ganz anderes geworden.
Weil ich habe das dann erweitert, und das nicht mehr nur begrenzt auf die Beta-User,
sondern das ist jetzt alle Leute, die in diesen Discord kommen,
können da gucken und mitreden.
Und das tun die halt auch.
Ich habe dann so jeden zweiten Tag poste ich dann irgendwas,
wo ich gerade dran arbeite, oder was ich für eine Idee habe,
und dann sagen die Leute, oh ja, das wäre ja voll cool,
wenn man auch noch das und das machen könnte.
Oder ich habe mal irgendwo ein Feature gesehen, so und so.
Und da sind so viele Ideen entstanden.
Natürlich am Ende bin ich derjenige, der die Entscheidung trifft und sagt,
das nehme ich rein, das nehme ich nicht rein,
oder die Idee finde ich gut, aber ein bisschen verändert.
Aber es ist fast schon so eine Art Community-Prozess gewesen,
bei dem halt ganz viel Input auch von den Leuten in den Discord gekommen ist.
Und das hat, glaube ich, nicht nur mir total Spaß gemacht
und das Instrument besser gemacht,
sondern es hat auch den Leuten Spaß gemacht.
Oder die freuen sich auch, wenn sie wissen, da haben sie jetzt was vorgeschlagen,
und das ist jetzt in diesem Synthesizer drin, weil sie das vorgeschlagen haben.
Schwarmintelligenz.
Mhm, genau.
Ich habe auch den Eindruck, es färbt sich sehr aufs Handling ab.
Also ich bin ja großer Fan von so einem Bedienkonzept der alten beiden.
Ich lasse Abyss jetzt mal raus, da bin ich nicht so versiert drin,
aber gerade Novo und Kult, die finde ich in sich sehr schlüssig.
Und das hier ist jetzt was Neues.
Man merkt schon ein bisschen, dass es auf eine Art auch eine Weiterentwicklung ist,
die aber auch von den Impulsen außerhalb so ein bisschen lebt.
Und man merkt, dass du Popkultur-Fan bist
und amerikanische Filme der 80er liebst, was ich sehr sympathisch finde,
weil du hast hier quasi in Form des BTTF-Moduls,
bei einem Modulationsmodul, quasi einmal einen Fluxkompensator
mit den Parametern Biff und McFly, was ich total geil finde.
Ja, also das ist halt auch so, als ich zum Beispiel Novo oder Kult entwickelt habe,
da hat man dann oft so eine Idee, oder ich probiere was aus,
so in meiner Sicht, bei meinen Forschungen, und stelle fest,
hier kann man eigentlich was Interessantes mit Klang machen,
aber es ist jetzt nicht so gängig oder eingängig,
dass es gerechtfertigt wäre, in einem normalen Synthesizer zu sagen,
gut, dafür mache ich jetzt hier vier Knöpfe hin und verbrate damit
10% von dem zur Verfügung stehenden User-Interface.
Das heißt, solche Ideen sind früher dann einfach immer in der Schublade gelandet,
weil man sagt, ja, die sind ein bisschen zu nischig, um sie da jetzt reinzumachen.
Durch dieses Pedalboard-Konzept habe ich jetzt die Möglichkeit,
ich kann die obskursten Module machen, weil alles, was die fressen,
ist halt ein einziger Eintrag, der dann noch zusätzlich ist in dem Menü,
wo man die Module auswählen kann, und dann können halt mal solche Sachen
wie dieses BTTF entstehen.
Und man merkt an solchen Sachen dann aber auch wirklich die Liebe
vom Erfinder an sein Baby.
Ich lese mal kurz den Hilfetext vor, BTTF.
Advanced FM Synthesis with Feedback, bringing the 80s back to the future.
Geil. Sowas finde ich sehr sympathisch.
Ich schätze sowas, wenn man da so an solchen Details wirklich die Liebe
der Macher an ihren Produkten halt erkennt.
Es gibt so viele Softwareprodukte, wo man sowas sehen kann,
oder auch Hardware-Synthesizer, wo man das wirklich erkennt.
Zum Beispiel bei dem Elektron Analog 4, wenn man da aufs Mainboard schaut,
da sind so Space Invader-Figuren drauf.
Und ich mag halt solche Sachen. Ich finde das immer sehr schön, sowas zu sehen.
So kleine, so kleine, handschriftliche Notizen des Gedankens,
wenn das irgendwo hinterlassen wird. Das ist eigentlich gar nicht richtig
für die Funktion, aber es ist halt da.
Das gibt es ja auch in Prozessoren, gibt es das doch auch.
Dass an irgendeiner freien Stelle irgendwo ein kleines Männchen ist oder so.
Ja, du findest solche Easter Eggs überall.
Wobei, das Modul hat natürlich durchaus Sinn.
Das ist ja ein Delay-Modul, was sich quasi selber füttert.
Und da kommen schon auch interessante Sachen bei rum.
Mein Lieblingsbeispiel für sowas ist immer noch das Pong-Spiel in den Kurzweilsamplern.
Das war sehr cool.
Oder der Elvis bei der Elektron Maschinen-Drum,
der nach irgendwie 1000 Betriebsstunden oder so erst auftaucht,
wenn man das Gerät einschaltet.
Ich denke gerade mal in dieser Branche, wo man Musikinstrumente macht
oder Geräte, mit denen andere Leute Musik machen.
Ich würde mal sagen, die wenigsten Leute sind in diese Branche gegangen,
weil sie gedacht haben, das ist jetzt die tollste Möglichkeit,
die effizienteste Möglichkeit, um Geld zu verdienen.
Sondern die Leute sind in diese Branche gegangen, weil sie gesagt haben,
hier kann ich das machen, was ich richtig liebe.
Hier kann ich mich austoben.
Und in ganz vielen Bereichen, wenn man jetzt sagt, ich finde Autos toll,
dann kann ich nicht mit einer kleinen Bude von drei Leuten sagen,
wir entwickeln jetzt unser eigenes Auto. Das geht halt einfach nicht.
Und dieser Bereich mit Plug-Ins oder Synthesizern ist halt ein Bereich,
wo tatsächlich noch Einzelpersonen oder sehr kleine Gruppen von Leuten
die Möglichkeit haben, etwas zu schaffen, was dann andere Leute auch benutzen.
Bisher ungefähr alle Leute, die ich kennengelernt und getroffen habe,
die irgendwie in diesem Bereich arbeiten, sind da halt so mit Herzblut dabei.
Und das ist auch irgendwie toll.
Wir haben ja schon viele Leute auch hier im Interview gehabt.
Und das merkt man eigentlich bei jedem Einzelnen, hat man das gemerkt.
Ob das nur ein Faderfox ist, der Matthias, der da wirklich mit Herzblut
seine Controller da baut oder jetzt auch bei dir eben.
Und das ist immer sehr sympathisch, solche Leute kennenzulernen.
Ich habe eine Beobachtung gemacht, ist mir aufgefallen, fand ich jetzt,
ich sag mal so als Sound-Design-Option auch noch mal ziemlich interessant.
Wenn man die CPU von, man hat vier Einstellungen, man kann sie von Eco,
also sehr effizient, CPU-schonend, über Smart High auf Ultra stellen.
Und das verändert tatsächlich doch noch mal ganz schön drastisch auch den Klang.
Das fand ich sehr interessant, was da teilweise dann für ganz andere Ergebnisse bei rumkommen.
Das fand ich auch sehr ergiebig.
Um mal eben schnell zu sagen, so ey, dieser Sound hier, der langweilt mich,
ich kriege das nicht richtig hin.
Ja, dann stell doch mal hier einfach den CPU von, keine Ahnung, von Ultra auf Eco
und hör dir das dann mal an.
Ja, da vielleicht auch ein bisschen der technische Hintergrund, warum das so ist.
Vielleicht würde man sich ja wünschen, dass das in allen Einstellungen genau gleich klingt,
wäre das aber der Fall, dann bräuchte man ja auch die Einstellung nicht.
Und es gibt halt zwei so große Theorien, also Theoriegebäude,
mit denen man so Synthesizer und so weiter, die Algorithmen entwerfen kann.
Das eine ist so klassische Signalverarbeitung und das andere ist alles, was spektral ist.
Die haben beide ihre Vor- und Nachteile und aus meiner Sicht sind beide für manche Sachen
ganz, ganz toll geeignet und lassen aber auch ganz große Lücken.
Und aus meiner Sicht ist es nicht die perfekte Theorie, um wirklich solche Musikinstrumente zu gestalten.
Auch wenn diese Theorien natürlich teilweise schon 80 Jahre lang entwickelt wurden,
da sind die natürlich auch sehr leistungsfähig.
Aber beispielsweise die klassische Signalverarbeitungstheorie ist halt immer linear
und die reale Welt ist es nicht.
Das ist auch der Grund, warum das so lange gedauert hat, bis digitale Filter gut geklungen haben,
weil man sie halt eigentlich mit der klassischen Signalverarbeitungstheorie nicht erfassen kann.
Denn in einem analogen Filter ist immer irgendetwas nicht lineares,
weil da sind ja Stromspannungen, die benutzt werden und die kann halt nicht beliebig linear weiter wachsen,
sondern die geht halt irgendwann in eine Sättigung.
Wenn ich 15 Volt zur Verfügung stehen habe, kommt da niemals ein Signal, was über 15 Volt geht.
Und deswegen bin ich schon seit Jahren dabei, eine andere Theorie Schritt für Schritt jetzt selber zu entwickeln,
die aus meiner Sicht besser geeignet ist und die irgendwo zwischen dieser klassischen Signalverarbeitung und dem spektralen liegt.
Die hat ziemlich viel zu tun mit dynamischen Systemen.
Das ist ja auch in dem Synthesizer-Kult mit der Chaos-Theorie schon so ein bisschen auszelebriert gewesen.
Das bedeutet aber auch, dass diese Nicht-Linearität sozusagen das Kernelement ist.
Das heißt, da ist erstmal die Grundannahme, dass alles nicht linear ist.
Ich will es jetzt nicht zu kompliziert machen, das bedeutet aber auch,
dass solche Sachen wie eine Auflösung, mit der ich das jetzt annähere, mit der ich das jetzt in einem Computer berechne,
spielt eine Rolle, wie sich dieses Signal dann tatsächlich in der Zeit verhält.
Dieses Ultra pusht diese Auflösung wahnsinnig nach oben.
Das bedeutet, dass in den anderen Einstellungen es eine etwas vereinfachte Approximation ist,
und die hört sich dann anders an.
Das war jetzt sehr kompliziert, oder?
Nein, ich habe es verstanden.
Aber du hast auch einen Doktor in Mathematik, Sascha.
Das ist interessant. Was hast du gemacht? In welchem Bereich?
Computerwissenschaft.
Das ist jetzt sehr weit gefasst.
Ich meinte, was ist der …
Ich habe mich zum Schluss mit Primesalen beschäftigt.
Ah, abgewandte Mathematik.
Mhm.
Ich habe ja auch noch eine Ausbildung als Elektronenstallateur.
Deswegen kommst du mit, während ich gerade vor einer Minute so innerlich versucht habe, mitzuhalten.
Ich habe keine Mathematik studiert, ich habe auch keinen Doktortitel,
beziehungsweise ich hatte nur ein paar Monate auf der Uni in Informatik.
Aber ich habe noch mal eine praktische Frage.
Ich habe hier gerade den Myth offen, und ich habe jetzt noch mal einen Nachvollzug.
Ich habe tatsächlich diese Generatoren, diese Wellenformgeneratoren, nicht gefunden als Modul.
Aber jetzt, wo du es erzählt hattest, ja, ganz offensichtlich.
Ich wähle einen Oszillator aus, drücke das Pluszeichen, und dann sagt er mir einfach "Generation".
Und dann kann ich einfach einen Wave angeben.
Frage, wenn ich da mehrere Wellengeneratoren anklicke, wirken die dann additiv oder substraktiv?
Oder wie sind die miteinander dann verschaltet?
Ja, wenn du guckst, ist, glaube ich, unten links in der Ecke ein Mixregler bei dem Wavemodul.
Ja, okay.
Und das funktioniert halt so, du kannst es dir wieder vorstellen wie ein Gitarrenpedal.
Es hat einen Eingang und es hat einen Ausgang.
Über den Mixregler sagst du, wie viel von dem Eingangssignal soll er jetzt durchschleusen
und wie viel soll jetzt von dem generierten Wave dazu addiert werden.
Okay, aber mehr als drei gehen nicht.
Aber das ist eine normale Summierung, ne?
Das ist hier eine normale Summierung, genau.
Und das geht dann zusätzlich zu dem Sample, das ich reingehören habe?
Genau, zusätzlich oder alternativ.
Was Spaß macht, ist, man macht erstmal einen klassischen Synth-Sound mit diesem Wave-Generator.
Und die sind dann meistens relativ clean.
Und das ist auch das, was man in 5000 anderen Synthesizers relativ einfach machen kann.
Und dann kann man aber noch irgendein relativ statisches Sample nehmen und in die Iris,
also per Drag & Drop, da reinwerfen.
Und dann ein bisschen an den Transformers rumspielen.
Und dann kriegt man so einen, je nachdem wie man es einstellt,
zwischen subtilem Dreck oder richtig krassen Dreck irgendwie noch da drüber.
Der verbindet sich, aber das verschmilzt so ein bisschen.
Also man hat jetzt nicht das Gefühl, irgendwo ist da jetzt dieser Klang und ganz woanders ist dieser Dreck,
sondern man kann also auf diese Art und Weise sehr schön schmutzige, organische Klänge machen,
beziehungsweise einen klassischen Synth-Sound halt so ein bisschen anrotzen.
Ja, genial.
Mehr als drei gehen auch nicht, aber dann hat man halt noch andere Möglichkeiten.
Da kannst du noch ein bisschen tauschen und gehen und...
Ja, also das sind drei pro Oszillator.
Das bedeutet, du kannst ja bei der anderen Iris auch nochmal drei dazu tun.
Das heißt, du hast sechs.
Ja, Wahnsinn. Und dann so viel, wie die Rechenleistung hergibt an Stimmen.
Und wo genau gerätst denn jetzt die Iris dazwischen?
Die ist ja in sich noch ein Oszi, aber die ist auch ein Modulator.
Habe ich das richtig verstanden?
Also was macht die Iris denn mit den Wellen?
Du kannst die Iris modulieren.
Das ist ja ein Sample.
Du kannst das Sample entweder komplett abspielen oder nur ein klitzekleines Stückchen davon.
Das kannst du halt einstellen über die ganzen Icons.
Jedes Icon hat halt eine entsprechende Bedeutung.
Und die Iris besteht halt aus vier Elementen, die du übereinander, ineinander blenden kannst.
Ja, und wo ist die im Signalweg? Das versuche ich ja die ganze Zeit.
Ganz am Anfang.
Die ist ganz am Anfang. Die steht ganz am Anfang.
Und wenn man sie nicht haben will, lässt sich die auch deaktivieren.
Also man muss sie nicht benutzen, man kann sie benutzen.
Ich habe auch schöne Presets gesehen mit den Wave-Ozis, die einfach überhaupt keine Iris hatten.
Aber ganz grundsätzlich so, ich habe jetzt so eine Ansammlung an ziemlich doofen,
bis also einfach, ich sage mal, sehr, sehr naiven Fragen.
Die werfe ich dir jetzt einfach mal an den Kopf und du versuchst sie mir so weit zu beantworten.
Ich meine, wir kennen Novum, wer das mal vor sich hatte, der weiß ja so ein bisschen, wie das funktioniert.
Der zerschlägt dann ein Sample in sechs Teile und lässt dann quasi ein Granulator drüber laufen.
Ist diese Iris hier auf eine Art dasselbe, hat einfach mit einem Scannerstrich, also der so im Kreis läuft?
Oder ist das was ganz anderes und das hat nichts mit dem zu tun?
Es gibt eine Überschneidung.
Die Idee etwas in sechs unabhängige Teile zu zerlegen und wie man das macht, das ist bei Novum und bei NUS ziemlich ähnlich.
Aber was dann aus diesen Teilen gemacht wird, ist komplett unabhängig voneinander.
Und es ist nicht granular.
Es ist dieser Strich, der im Kreis läuft, oder?
Genau, man kann sich das am ehesten vielleicht noch vorstellen wie ein Wavetable.
Aber erstens, es klingt nicht wie ein Wavetable-Synthesizer.
Man kann es ein bisschen in die Richtung bringen, aber es klingt vom Grundprinzip erst einmal anders.
Und es hat halt auch mehr Möglichkeiten, die mit einem klassischen Wavetable-Synthesizer nicht so einfach möglich sind.
Weil es zum Beispiel auch inharmonische Samples, also die Inharmonizität wiedergeben kann
und auch rauschhafte Teile etwas besser wiedergeben kann.
Ja, sehe ich.
Die Iris ist quasi als Sampler der Kern.
Und dann hast du rechts unten auf der Seite Arp, zwei Ostsees, der Filter und zweimal FX.
Das ist quasi die Kette, die fix ist.
Fix in dem Sinne, dass du einfach immer links beim Oszillator einen Wet-Regler und einen Oktav-Schalter hast.
Du kannst unten noch ein bisschen was an der Stimmung ändern.
Du hast dann beim Filter noch ein Wet-Regler und ein bisschen Gain und beim FX dann quasi zweimal Sense.
Den Arpeggiator lassen wir mal außen vor, der hat einfach so ein bisschen seine eigenen Module.
Und dann kommt ja eigentlich etwas, das von den Modulen her sehr frei ist.
Also du hast eigentlich immer einen Ostsee.
Der Ostsee ist, wenn ich es richtig verstanden habe, ist das zuerst mal die Iris, außer du schaltest ihn ab, dann ist es einfach ein leerer Block.
Du kannst dir den Oszillator so vorstellen. Stell dir vor, die Iris wäre deine Gitarre.
Dann ist das, was du siehst, wenn du jetzt auf dieses Ostsee, auf diesen Block drückst, das ist jetzt dein Pedalboard für diese Gitarre.
Da hast du dann sozusagen deine Effekte.
Und die Besonderheit ist, das ist halt nicht wie ein normaler Effekt in der Effekt-Section eines Synthesizers,
weil die funktioniert immer auf der Summe, sondern hier hast du...
Und das sind halt auch Effekte, die du so in keinem anderen Effektgerät finden würdest.
Ja, das kommt noch dazu. Aber ich kann halt hier quasi einfach schon alles direkt in den Ostsee schmeißen
und es dann quasi durch den Filter jagen, statt einfach zuletzt in die Kette zu packen.
Du musst es nicht mal durch den Filter jagen, weil du kannst halt auch direkt in dieser OSC-Section
dir deinen Filterpedal sozusagen reinmachen.
Der Unterschied ist nur, also erst hast du die beiden Iris, die gehen dann jeweils durch ihr eigenes Pedalboard,
dann werden die beiden zusammensummiert und haben dann nochmal ein kombiniertes Pedalboard.
Das heißt hier Filter und man kann es so benutzen, aber auch da kann ich ja beliebige andere Sachen machen.
Ich muss da keinen Filter rein, weil per Default hat der nur Boost und Mix, also Wet in dem Sinn jetzt.
Ich kann ihn dazu mischen oder halt rausnehmen.
Aber ich kann da halt reinbauen, wie ich gerade lustig bin.
Also ich sehe hier auch wieder, ich habe sechs Filter, aber ich habe eben auch tonnenweise Modulation,
ich habe Distortion, ich habe Effekte und ich habe irgendwie noch so...
Was macht eigentlich dieses Route-Effekt? Das sind zwei Pfeile.
Ja, okay. Es gibt ja immer, hat man noch den Wunsch, vielleicht noch ein bisschen flexibler zu sein.
Und irgendwann kommt man auf die Idee und sagt, ist ja toll, dass ich das so einfach habe mit so einem Pedalboard
und das geht immer alles so von links nach rechts.
Aber dieses Mal würde ich eigentlich gerne mein Pedalboard noch spalten wollen.
Ich würde gerne eigentlich zwei Pedalboards haben, die parallel machen.
Ich möchte einmal zwei Effekte haben auf der Iris und das soll zum Ausgang gehen.
Und dann möchte ich aber nochmal andere Effekte haben auf der Iris und das soll auch zum Ausgang gehen.
Und da kann ich dann so ein Routing-Pedal dazwischen setzen,
das dann sozusagen einmal die Pedale, die links von dem Routing sind, von diesem Routing-Pedal auf den Ausgang packt
und danach die Iris wieder neu einspeist in alles das, was rechts kommt.
Das muss man jetzt aber hier im Podcast nicht verstehen.
Ja, ich glaube auch, wenn es gut erklärt ist in der Bedienungsanleitung, dann macht es Sinn.
Aber ich sehe es hier, ich klicke hier rum, drücke auf Plus und sehe immer wieder neue lustige Effekte.
Man sieht halt schon, gewisse sind nicht überall drin.
Hast du da ein bisschen geguckt, dass sich das Ganze nicht aus Versehen selbst oszillieren oder exponieren kann?
Ich habe so ein bisschen geguckt, was macht Sinn, was würde man jetzt wo tatsächlich irgendwie verwenden.
Und manchmal gibt es, manche Effekte machen keinen Sinn auf einer Summe, auf Polyfon-Material.
Das heißt, die Module, die in der Effekt-Section zur Verfügung stehen, sind andere als die für die Voices.
Aber ich will nochmal eine Sache sagen mit der Bedienungsanleitung.
Ich weiß nicht, ob ihr die Funktion entdeckt habt, es gibt auch so ein eingebautes Tutorial-System.
Und das funktioniert so, ich habe gedacht, das wäre ja toll, hat ja eh keiner Lust, eine Bedienungsanleitung zu lesen,
wenn das irgendwie da integriert wäre.
Und dann habe ich gedacht, ja, aber ich finde es auch immer künstlich, wenn da irgendwie so ein bescheutes Tutorial-System ist.
Und eigentlich, was man ja will, ist jetzt nicht so ein Tutorial, wo einem jemand was erklärt, sondern man will ja selber machen.
Und deswegen habe ich das im Mist anders gemacht.
Ein Tutorial besteht eigentlich nur aus einer bestimmten Abfolge von Presets,
die jeweils eine Erklärung haben und einen auffordern, jetzt irgendwas Bestimmtes zu machen.
Und da gibt es dann verschiedene Tutorials für die ersten Schritte, die man so durchgehen kann.
Und das funktioniert dann halt so, dass man dann dieses Tutorial startet.
Aber es bedeutet einfach nur, es wird jetzt der erste Preset davon geladen.
Und wenn man sich durchlesen will, was steht denn da?
Ah ja, ich soll jetzt hier mein Sample nehmen und da drauf machen.
Ah, dann hört sich das so an. Jetzt habe ich es verstanden, gehe ich zum nächsten Preset.
Und da werden alle diese Sachen erklärt.
Und man kann jederzeit, wenn man denkt, oh wow, das klingt ja jetzt geil, was ich hier gemacht habe,
kann man dann erst mal nach Belieben weiterspielen.
Also so ist die Idee von diesem Tutorial.
Und dann frei Schnauze rumprobieren, das abspeichern und dann irgendwann wieder sagen,
ah, jetzt will ich was Neues lernen.
Das ist genau mir passiert. Ich habe das Tutorial angefangen und dann habe ich angefangen rumzuspielen
und ich konnte nicht mehr aufhören.
So soll es sein.
Und wenn du dann aber irgendwann denkst, so, jetzt möchte ich mal wieder was Neues lernen,
dann kannst du halt wieder zurück zu diesem Tutorial gehen.
Ja, das ist schon ganz gut gemacht, das stimmt, ja.
Und solche Sachen wie dieses Routenpedal, das wird da halt auch erklärt.
Und dann versteht man das plötzlich ganz einfach, weil da dann steht, okay, jetzt nehmen wir das da drauf
und dann hört man das und das und so weiter.
Dann sind das zwei, drei Schritte und wenn man das einmal selber gemacht hat, dann ist es trivial.
Ja, dann ist es praktisch eigentlich drin.
Ja.
So, was haben wir dann da noch so?
Ich habe mal so ein bisschen geguckt.
Also wir haben jetzt den Synthesizer in der Mitte schon relativ tief besprochen.
Da gibt es außenrum noch so ein paar schöne Dinge.
Zum Beispiel hast du diesmal quasi Expressionen und Makros quasi einfach sieben Stück davon gemacht.
Aber du hast gleichzeitig rechts noch eine Sektion wieder, die so nach dem Motto Plus funktioniert,
wo du auch wieder alle möglichen Module reinsetzen kannst, wie man es auch von den anderen Synthies kennt.
So, Novum hat ja so eine Plussektion, Rude hat so eine Plussektion.
Also du hast dir ja was gedacht bei diesem Aufsplitten, oder?
Ja, also ich fange mal mit dem Problem an, was existiert.
Wenn ich jetzt zum Beispiel bei mir gucke, ich habe hier so einen Osmose-Controller,
ich habe einen Roli Seaboard und ich habe hier so eine 88-Tasten-Piano-Tastatur.
Damit bin ich relativ gut ausgestattet.
Das heißt aber auch, wenn ich jetzt ein Preset mache, dann mache ich den am liebsten auf dem Osmose,
weil das einfach das genialste Keyboard dafür ist.
Da hast du ja auch schon Osmose-Support quasi direkt reingebaut.
Genau.
Jetzt ist es aber so, jetzt mache ich diesen Preset und jetzt, keine Ahnung,
willst du den vielleicht irgendwie verwenden und bei dir sieht das ganz anders aus.
Du hast jetzt ein klassisches Vier-Oktaven-Keyboard mit Modwheel und du hast vielleicht noch ein Fußpedal.
Das bedeutet, du musst jetzt jeden einzelnen Preset, den ich gemacht habe,
sagen, hier hat der Peter, das ist ja voll scheiße gemacht,
der hat hier von Osmose das Polyphone Pressure genommen, das will ich doch auf Modwheel haben.
Du stellst jetzt alles ein, spielst und denkst, oh ja, das ist ein toller Klang,
gehe ich mal zum nächsten Preset, das ist schon wieder und das nervt total.
Das will man ja nicht und das ist heutzutage, glaube ich, ein zunehmendes Problem.
Auch die Sounddesigner haben ganz andere Geräte als die Leute, die dann hinterher diese Klänge hören.
Deswegen ist die Idee, einmal ganz am Anfang teilst du dem Synthesizer mit,
was sind denn deine drei expressiven Sachen, die du so verwendest.
Das wird meistens Velocity sein, das wird als zweites dann vielleicht Modwheel sein
oder das wird ein Fußpedal sein oder das wird Aftertouch sein oder wie auch immer.
Diese drei Sachen stellst du einmal ein und alle Sounddesigner verwenden diese drei Dinge
in einer einheitlichen Art und Weise.
Das heißt, jetzt kannst du einfach durch alle Presets durchgehen und es ist völlig egal,
auf welchem Instrument ich diesen Klang mal designt habe oder irgendein Sounddesigner,
du kannst diesen Klang mit deinem Setup jetzt vernünftig spielen.
Und deswegen sind diese drei Regler, die da E1, E2, E3, also diese Expression-Regler,
getrennt von den anderen und funktionieren halt auch anders, weil die nicht im Preset gespeichert werden,
sondern weil die für dich als ein Setup gespeichert werden.
Stellst du einmal ganz am Anfang ein.
Ja, ein bisschen global.
Genau.
Und das macht sozusagen, also da gibt es ja unterschiedliche Lösungen vor,
bei manchen Synthesizers ist es dann so, dann gibt es jeden Patch zweimal,
einmal als Nicht-MPE-Version und einmal als MPE-Version.
Aber selbst das funktioniert nicht mehr, weil Roli, dieses Keyboard, verwendet MPE anders als das Osmoser.
Also bräuchte man jetzt schon drei Varianten.
Und noch eine vierte für das Launchpad, weil das hat auch wieder eine andere Art zu arbeiten.
Und eine fünfte für den Push.
Fünfte für den Push und so weiter, und das hört nicht mehr auf.
Sechste für das Linstrument, und wenn jetzt noch irgendwas MPE-mäßiges von Arturia kommt,
hat es noch wieder ein Problem.
Genau.
Ist eigentlich ziemlich genial.
Und die Makros sind dann einfach quasi nochmal so Makros, wie man sie halt kennt, oder?
Die Makros sind Makros, wie man sie kennt, genau.
Aber ich kann die dann halt auch bei mir selbst routen,
sage, okay, ich habe hier vier Makro-Knöpfe, und es ist völlig egal, wo du deine Makro-Knöpfe hattest,
sondern die gehen dann quasi im Global Setting auf meine.
Genau.
Du kannst deine Makros dann nach Belieben sozusagen automatisieren,
in der DAW, wie du das irgendwie haben willst,
oder du kannst sie dir in Ableton routen, oder Bitwig, oder sonst was.
Du kannst sie dir auf irgendwelche Fader von deinem Keyboard legen.
Das machst du einmal, weil das passiert ja gewissermaßen außerhalb von dem Synthesizer.
Und dann, wenn das Preset diese Makros nutzt, hast du sie zur Verfügung.
Also das ist ganz klassisch.
Und diese Idee der Makros hast du aufs Expressive weitererweitert mit den E-Parametern?
Genau.
Das ist schon alles. Sehr, sehr schlau.
Bei diesen E-Parametern gibt es halt so eine Guideline für die Sound-Designer.
Ich habe dieses Mal über zehn professionelle Sound-Designer angesprochen,
die alle für MÜSS Klänge gemacht haben und die auch alle früh involviert waren und Feedback gegeben haben.
Und da gibt es halt so eine Guideline dafür, was man beachten muss,
wie man E1, E2, E3 sozusagen als Sound-Designer, was man dabei berücksichtigen muss,
damit man genau das erreicht, was man will.
Ich programmiere einmal einen Klang oder ich stelle einmal einen Klang mit meinem Setup
und danach übersetzt der sich auf jedes beliebige andere Setup von anderen Menschen.
Das sind auch nur zwei, drei Regeln, die stehen auch im Handbuch.
Das ist jetzt keine Geheimwissenschaft, nichts Kompliziertes,
aber das muss halt auch einmal irgendwo definiert sein.
Und für denjenigen, der den Synth jetzt benutzen will,
um selber für sich damit Klänge zu machen oder Presets zu nutzen,
ist es halt extrem einfach, weil ich stelle einmal an Tag 1 mein Setup ein.
Das dauert zwei Minuten, das dauert zehn Sekunden,
weil im Prinzip für die klassischen Setups gibt es bereits Voreinstellungen.
Da muss ich nur noch sagen, ich habe hier ein klassisches MIDI-Setup oder ich habe ein Osmose
oder ich habe hier ein Roli Seaboard.
Dann kann ich das benutzen und muss mir über nichts mehr Gedanken machen.
Osmose 2 ist was? Ist das irgendein Leak, den wir jetzt wieder mit der Geräte übersetzen müssen?
Nein, das hat nichts mit dem zu tun, mit einem neuen Gerät irgendwie.
Du hast zwei Herangehensweisen gebaut.
Genau, ich habe zwei Herangehensweisen gebaut, denn beim Osmose ist es so,
man hat erstmal die Velocity, wenn man die Tastatur anspielt,
und dann hat man vielleicht einen halben oder einen Zentimeter.
In dem Bereich hat man Pressure.
Wenn man noch stärker die Taste durchdruckt, also kann man, was weiß ich, bis zu drei Zentimeter tief durchdrucken
gegen so einen sehr angenehmen, unglaublich nuancierten Widerstand,
da kommt dann Slide ins Spiel.
Das bedeutet aber auch, es ist sozusagen erst Pressure, dann Slide.
Und bei dem Seaboard sind die Parameter unabhängig.
Und deswegen habe ich noch eine Kombination gewissermaßen gemacht,
die jetzt einfach diesen gesamten Hub der Taste zu einer Modulationsquelle zusammenfasst.
Dadurch habe ich dann die Möglichkeit, auch noch das Modwheel,
also das Osmose-Keyboard hat halt auch noch ein Modwheel,
oder ich kann dann einen alten Fußpedal oder irgendwas nehmen,
dass ich das noch zusätzlich zur Verfügung stehen habe.
Das wäre dann dieses zweite Setup.
Also wer das Osmose hat, der wird das sofort intuitiv verstehen und sich freuen.
Ich übergebe zwischendurch mal an die anderen.
Ich sehe da noch so ein paar kleine Features, aber ich glaube, der Thomas hat die auch schon
bei uns in den internen Chats großgepriesen.
Deswegen gebe ich ihm jetzt mal den.
Das ist so cool.
Was denn?
Erzähl mal, ich weiß jetzt selber nicht, was du meinst.
Einmal mit Profis.
Das sind so ganz viele Kleinigkeiten, die einfach diesen Synthesizer so nett machen.
Das fängt an mit der automatischen Patch-Benahmung auf Knopfdruck,
dass du dir selber keine...
Gerade ich bin halt so ein Typ, ich kann mir keine Namen ausdenken.
Ich bin ganz schlecht darin.
Also wer sich meine Veröffentlichungen anschaut, der wird den Kopf schütteln und sagen,
was denkt sich der Typ da für eine furchtbare Titel aus?
Und das finde ich sehr angenehm, dass mir die Software das abnimmt.
Die andere Sache ist, dass du da eine automatische Versionierung drin hast.
Wenn ich das will, kann ich das versionieren lassen, vollautomatisch.
Dann macht er halt eine Version 2 draus.
Das ist so ein nettes Gimmick.
Das habe ich noch nie so vorher bei einer anderen Software gesehen.
Aber jeder hat das schon mal erlebt, dass man sich irgendwas zerschossen hat.
Ja, auf jeden Fall.
Genau in dem Moment.
Und umgekehrt gibt es ja auch die, die alles automatisch machen.
Und dann ist es so, man macht und dann drückt man und dann macht man und noch mal.
Und irgendwann will man das jetzt wiederholen.
Dann sieht man, ich habe da 73 verschiedene Versionen.
Welches war denn jetzt noch mal die, die ich haben wollte?
Man muss schon beim Abspeichern die Möglichkeit haben zu entscheiden,
will ich es jetzt überschreiben oder will ich es versionieren.
Richtig.
Das sind so Kleinigkeiten, die das Arbeiten mit diesem Synthesizer so angenehm machen.
Ich bin gerade in unserem Slack und ich sehe es hier jetzt wieder weiß auf schwarz vor mir.
Du hast die Wave-Dateienfunktion.
Wo du einfach eine Wave-Datei aus dem Synthesizer exportieren kannst.
Die hast du in sehr großen Tönen, beziehungsweise sehr großen gecaps-lockten Buchstaben gelobt.
Genau, das ist auch noch so ein cooles Fitcher.
Ein Fitcher.
Fitcher und Feature.
Feature-Spinner.
Genau.
Jetzt ist es schon ein paar Tage her, dass ich mir das angeschaut hatte.
Du kannst einfach die zuletzt gespielten Noten mit aufzeichnen und die kann man sich einfach so exportieren.
Genau, weil oft ist es ja so, dass man gar nicht an einem Synth-Sound nur arbeitet,
weil man eine Melodie spielen will oder irgendwas,
sondern weil das ein Schritt ist von einem größeren Sound-Design.
Wo ich sage, jetzt mache ich ein paar Schritte in diesem Synthesizer und danach arbeite ich in dem Programm weiter.
Und dann muss man jedes Mal erst eine Note aufnehmen in der DAW, dann muss ich das recorden,
dann muss ich das zu einem Audio umwandeln und dann kann ich damit weitermachen.
Das nervt total und deswegen die Idee einfach, jetzt hat sich das gerade angehört.
Oder vielleicht will ich es auch expressiv spielen.
Dann spiele ich es einfach fünfmal hintereinander, bis es so geklungen hat, wie ich es haben wollte.
Und dann kann ich das Sample einfach nehmen und weiterarbeiten.
Oder ich kann das Sample nehmen und ich kann es dann als Re-Import wieder in die Iris werfen.
Oder es gibt ja auch noch dieses modale Filter, über das wir gar nicht gesprochen haben.
Das lässt sich ja auch mit einem Sample trainieren und dafür kann man das auch hervorragend nehmen.
Ach guck mal, das haben wir gar nicht entdeckt. Das modale Filter.
Das heißt modal und ist ganz einfach.
Das ist ein Filter, was im Prinzip kann man sich vorstellen wie ein Resonator.
Nur wenn so ein Resonator wie jetzt zum Beispiel...
"Africa Ambient Crystal Glass Handpan Hole Kitchen Aid"
Also, ich erkläre es einmal kurz.
Es funktioniert im Prinzip wie ein Resonator, nur ein Resonator hat normalerweise eine feste Stimmung.
Und bei diesem modalen Filter ist es so, der Key-Trackt automatisch.
Das heißt, ich kann diesen Resonator jetzt anregen mit irgendetwas.
Mit einem Knall oder mit etwas Rauschigem.
Field Recordings gehen total gut, Drum Loops gehen total gut.
Und dann kann ich das aber über dieses modale Filter oder diesen modalen Resonator tonal spielen.
Und das klingt dann halt so wie Physical Modeling.
Nur, dass ich diesen ganzen Scheiß von Einstellungen, das funktioniert nicht richtig und nervt irgendwie,
dass ich den nicht habe.
Und damit man jetzt direkt loslegen kann, sind so ein paar Voreinstellungen dabei.
Das sind die, die du gerade vorgelesen hattest. Das sind einfach Sample-Zieher-Nummern.
Aber der Clou ist eigentlich, ich kann jetzt jedes beliebige Sample nehmen, direkt einen Drop da drauf werfen
und dann wird dieses modale Filter trainiert und lernt aus dem Sample,
welche Resonanzen kommen denn jetzt eigentlich in diesem Sample vor.
Und also für alles, was so, sag ich mal, wie zum Beispiel Vibraphon, Marimba, Häng,
also alles, was so ein bisschen perkussiv ist an akustischen Instrumenten, funktioniert das ganz toll.
Und weil man was bekommt, was sich dann auch super organisch spielen lässt.
Ich bin gerade ein bisschen sprachlos.
Ich bin vor allem deswegen da, dass mir das entgangen ist.
Ja, und der Punkt ist, andere würden das entwickeln.
Dieses kleine Modulchen hier würden eine schöne Oberfläche drumherum bauen
und ihre Marketingfuzzis drei Monate lang darauf masturbieren lassen.
Du packst das irgendwo so in deine Filter-Sektion,
dass drei Leute, die sich das Ding willig anschauen, das komplett übersehen.
Hör zu, das Geile ist, du kannst das denn ja auch noch im Stereofeld,
also du kannst das entweder auf dem linken oder rechten Kanal oder halt aufs Stereofeld packen,
diese Modalfilter. Und wenn du die Root-Funktion benutzt,
unterschiedliche Modalfilter-Einstellungen benutzen für jeden Kanal eigen.
Und hast dadurch eine unglaubliche Sound-Design-Möglichkeit,
weil du damit dann noch organischere Klänge bauen kannst.
Ja, und du kannst zum Beispiel, klassisch würde ich es jetzt so machen,
ich würde Distortion davor packen, und das würde ich dann zum Beispiel
auf Velocity oder Pressure oder so legen, damit die Distortion sozusagen etwas krasser wird,
wenn ich stärker zulange. Dadurch wird dann der Resonator stärker ins Schwingen gebracht
und du kannst dann hinter dem Resonator dir dann zum Beispiel noch so ein Orbit-Modul
oder ähnliches hin tun, um das Ganze jetzt wieder so ein bisschen synthetischer klingen zu lassen.
Und damit kriegst du das Beste aus allen Welten, weil du im Prinzip jetzt etwas hast,
was sich einerseits so anfühlt wie so eine Hand-Drum oder wie ein Hang,
und was aber auf der anderen Seite dir auch in den Bereich synthetischer,
analog, warm klingender Wellenform irgendwie geht. Also das sind halt auch Sachen,
wo man noch viel ausprobieren kann und rumspielen.
Die ist so, sag ich jetzt mal, also bestimmt gibt es das wieder irgendwo und schon 1950
in der Sowjetunion im nächsten Heinbach-Video, aber es ist nicht so das Klassische,
was man jetzt immer überall schon tausendmal gehabt hat.
Also nochmal, liebe Zuhörer, wenn euch jetzt auch der Kopf explodiert ist
vor lauter Möglichkeiten, die sich dadurch eröffnen, dann könnt ihr mich vielleicht
jetzt ein bisschen verstehen.
Also ich spiele ja, mein eigentliches Instrument, was ich gelernt habe,
ist ja Fagott und Kontrafagott. Und natürlich hat so ein Instrument
einen relativ engen Spielraum, aber es ist trotzdem auch so, dass man sein Leben lang lernt
und neu dazulernt und neue Fähigkeiten entwickelt und so.
Und man baut halt über viele Jahre so eine Beziehung auf zu einem Instrument.
Und das ist auch so ein bisschen was, was ich vielleicht als so ein Ideal anstrebe,
dass so ein Synth nicht so was ist wie "Oh, es gibt einen neuen Synth, den probiere ich mal aus".
Zwei Wochen später "Oh, es gibt einen neuen anderen Synth" und dann geht man dahin.
Ich meine, das ist auch okay, aber und man kann "müß" auch gerne so benutzen,
aber "müß", das war jedenfalls mein Wunsch, soll auch schon die Tiefe haben,
dass man auch nach einem halben Jahr, das man sich damit beschäftigt, noch neue Sachen entdeckt.
Und zwar auf eine spielerische Art und Weise.
Und ich muss nicht alle diese Sachen verstanden haben, ausprobiert haben,
damit ich einen guten Klang machen kann. Ich kann von Anfang an tolle Klänge machen,
aber ich werde auch nach drei Monaten noch irgendetwas entdecken, was ich vorher noch nicht gesehen habe.
Also mir ist das Modal-Modul total an mir vorbei gegangen,
weil ich konnte mir da echt nichts darunter vorstellen, was das sein soll.
Und da habe ich es gar nicht ausprobiert. Ich habe mit dem Zufallsgenerator geschrumm gespielt.
Ja, Peter, da haben wir mal Negativpunkte gefunden.
Der Erklärungstext ist auch sehr sparsam, da steht einfach nur "Immodal Filter".
Ist das alles?
Ja, mehr steht da nicht. Okay, wir haben die Version 1.0.1.
Also ich habe ja auch das Handbuch bei ShedGBT reingetan und habe ein GBT gebastelt
und habe dann Fragen gestellt. Und selbst da wurde mir dann nicht erklärt, was das ist.
Du Fuchs, du hast ShedGBT trainiert, um dir Fragen zu beantworten.
Ja, ich habe das für einige Sachen schon gemacht.
Ich habe sämtliche Handbücher reingeschmissen, die ich so habe und andere Sachen.
Er hat sämtliche Kochbücher reingeschmissen, die er so hat.
Das stimmt zwar, ich habe das gerade mal ausprobiert,
er sagt tatsächlich nur "Immodal Filter", da könnte man vielleicht noch mal mehr dazu sagen,
aber bei jedem Knopf, über den man geht, erzählt er dann ja schon noch ein bisschen mehr.
Ja, aber das erschließt sich jetzt erstmal so nicht.
Man muss wirklich in die Anleitung schauen, um dann die Funktionen auch wirklich zu begreifen.
Ja, oder man macht das Tutorial.
Damit es auch erklärt.
Oder, also es wird halt auch noch eine ganze Menge, die sind jetzt gerade am Entstehen,
ganz kurze, knackige, zwei Minuten Videos, die so verschiedene Aspekte zeigen.
Wie kann ich jetzt zum Beispiel aus einem einfachen Klang, den ich jetzt auf der Mandoline geschirmt habe,
wie kann ich daraus jetzt zum Beispiel ein Pad machen.
Und die Videos sind so aufgebaut, dass sie einerseits jeweils dann so eine Sache erklären,
aber nebenbei lernt man dann immer auch eine bestimmte Sounddesign-Technik
oder etwas Spezielles irgendwie so kennen.
Das heißt, da hat man dann auch so kurzweilige Videos, die man sich dann einfach mal so nebenbei ein bisschen angucken kann,
um noch die Sachen einfacher zu verstehen.
Eine Sache, die mir auch ganz gut gefallen hat, die möchte ich hier auch nochmal herausstellen,
als ein leuchtendes Beispiel, liebe Entwicklergemeinde von Software Synthesizer,
da dürft ihr euch gerne eine ganz, ganz dicke Scheibe von abschneiden.
Und zwar ist das das Responsive Design.
Das heißt, du hast unten an dem Software Synthesizer ein Versteller, rechts unten,
wo du das Fenster groß und kleiner machen kannst.
Der gesamte Bildschirminhalt zoomt automatisch.
Ich muss nicht erst durch irgendwelche Menüs mich durchklicken, um die Zoom-Funktion zu finden.
Das ist gerade für solche Leuten mit schlechten Augen wie mich, aber guten Ohren,
dafür bin ich sehr dankbar, dass da mal ein Entwickler mitgedacht hat.
Dankeschön, Peter. Das ist eine Kleinigkeit, aber die ist so wichtig, wirklich.
Ich muss zu meiner Schande gestehen, dass zwar können diese Skalieren alle meine Plugins von Anfang an,
aber diese Problematik von Menschen, die in irgendeiner Form vom Sehen eingeschränkt sind,
die war mir bei meinem ersten Plugin auch noch nicht richtig bewusst.
Mittlerweile habe ich zwei Beta-Tester, die beide, also jeder eine sehr unterschiedliche,
aber sehr stark ausgeprägte Visual Impairment haben.
Und die geben mir dann auch ganz viele Rückmeldungen.
Das heißt diesmal bei der Auswahl des Zeichensatzes, bei der Auswahl der ganzen Kontraste
und wie groß die Elemente sein sollen usw., da haben die mir dann jeweils die Rückmeldungen gegeben,
damit sichergestellt ist, dass man das auch bei schlechter Beleuchtung,
wenn die Augen vielleicht schon ein bisschen müde sind oder dann nicht so gut gucken kann,
dass man da nicht in die Situation kommt, es ist jetzt irgendwie gar nicht mehr abzulesen oder ähnliches.
Das finde ich auch ganz toll.
Leute mit Rot-Grün-Schwäche werden auch immer gerne vergessen. Hallo Elektron!
[Lachen]
Das musste sein, das musste sein.
Mein Sohn ist elf Jahre alt, der ist jetzt noch nicht der perfekte Beta-Tester,
aber der hatte halt auch eine Rot-Grün-Schwäche und der guckt mir regelmäßig über die Schultern
und kommentiert dann auch irgendwie und deswegen habe ich zumindest das auch mit auf dem Schirm.
Ja, und ich sag mal so, ich bin stark kurzsichtig und ich komme jetzt in ein Alter,
wo auch die Weitsichtigkeit einsetzt, ich bin doppelt gehandicapt.
Das ist gemein, ne? Ich dachte auch immer, ich habe eine gewisse Kurzsichtigkeit.
Das ist sehr gemein.
Irgendwann werde ich alt, da wird man ja weitsichtig, das heißt zwischendurch muss ich mal
irgendwann normalsichtig sein und das war eine herbe Enttäuschung, als mir das erklärt wurde.
Vergiss es. Du kannst einfach dann ohne Brille besser gucken als mit Brille.
[Lachen]
Ja, also Tobi, hast du noch Fragen?
Also ich hätte noch einen größeren Kontext. Also falls wir noch irgendein Rumgenörde machen wollen
auf der Oberfläche von MIV, dann würde ich das vorher machen und dann…
Also mich würde nochmal die Engine interessieren, was tatsächlich bei der Re-Synthese…
Re-Synthese kenne ich von dem Hartmann Neuron. Das war ja auch ein Re-Synthesizer,
dem man halt auch Sample-Material…
Hat nur keiner verstanden, wie das Ding funktioniert.
Hat nur keiner verstanden, wie das funktioniert.
Ja, also es ist ein Re-Synthesizer und weil die Leute wie ein Re vor einem Auto davor gesessen haben…
[Lachen]
Hat sich auch nicht so gut verkauft. War aber eigentlich für die… wann war das?
Ende der 90er oder Anfang der 2000er?
Anfang der 2000er war es, glaube ich.
Ich glaube Anfang der 2000er, der Nullerjahre. War ziemlich innovativ für die damalige Zeit,
aber die Rechenpower war noch nicht da.
Ich habe als kleines Kind damals so Keyboard-Zeitschriften, die manchmal zur Musikmesse…
Achso, da noch der Musikmessebericht 20 Seiten lang war.
Da war halt immer so, ja, Hartmann Neuron, jetzt aber wirklich.
Jetzt aber wirklich. Er funktioniert sogar.
Oh, man hat ihn an- und ausgeschaltet und er ist nicht abgestürzt.
Großer Non-Lehrer.
Die Frage, die ich habe, Peter.
Ja.
Du hast es eben gesagt, in der Anleitung, und du hast es auch eben vorhin eingangs nochmal erklärt.
Grundlage ist für die Re-Synthese ein FM-Synthesizer, richtig?
Ne, ist nicht richtig. Das war mal die Ur-…
[Lachen]
Also die Ur-Idee war, einen FM-Synthesizer zu bauen.
Genau. Ein ganz kleinen, einfachen FM-Synthesizer, der aber die Möglichkeit hat,
sozusagen ein Sample zur Inspiration zu nehmen.
Und daraus ist dann irgendwann das hier geworden.
Und deswegen hat sich auch die Planung halt…
Also ursprünglich hatte ich, glaube ich, vier Monate oder so vorgesehen,
und jetzt sind es 18 geworden.
Wow, okay.
Also das…
So, und…
Was war jetzt eigentlich deine Frage? Sorry.
Meine Frage war, der Kern dieser Re-Synthese, wie funktioniert die?
Sind das jetzt…
Sind da Machine Learning Algorithmen, die einfach eine stumpfe Analyse machen
von dem Ausgangsmaterial anhand von Frequenz und, ich sag mal, Amplitude?
Und dann versucht das anhand der vorhandenen Synthese-Engine einfach abzubilden
auf vier Operatoren oder Oszillatoren?
Oder wie, wenn du es verraten möchtest, natürlich.
Ja, klar. Da mache ich keine Handelsfraß.
Also, tatsächlich, das funktioniert über Machine Learning.
Und die Klangerzeugung ist gewissermaßen…
Man hat vier spezielle Oszillatoren, die haben jeweils so in der Größenordnung 2000 Parameter.
Und die können jeden beliebigen statischen Ton machen.
Also, das heißt, die können einen Ton machen, der sich nicht über die Zeit verändert.
Aber von diesen Tonen, die es gibt auf der Welt, die jetzt wirklich statisch sind,
kann er jeden einzelnen Ton machen.
Wow, okay.
Und von diesen Oszillatoren gibt es vier.
Und die, wenn da jetzt also was abgespielt wird über die Zeit,
haben jeder eine Höhlkurve, nur für die Lautstärke, mit, jetzt nichts Falsches sagen,
ich glaube, bis zu 500 Punkten.
Also, nichts, was man per Hand editieren möchte.
So, und das Machine Learning nimmt jetzt das Sample und sagt,
okay, wie kann ich das Sample jetzt am allerbesten approximieren,
wenn ich vier statische Klänge habe, die im Laufe der Zeit in ihrer Lautstärke variieren können,
unabhängig voneinander.
Das heißt, das Synthesemodell gibt gewissermaßen die Einschränkung vor
und der Algorithmus ist speziell darauf hingebaut, dass er das dann entsprechend optimieren kann.
So, und weil jetzt natürlich kein Mensch Lust hat, tausende Parameter da drin rumzuschrauben
und das auch nicht sinnvoll wäre, gibt es dann so ein paar High-Level-Parameter,
wie man jetzt zum Beispiel zwischen diesen vier Oszillatoren hin und her blenden kann,
damit man andere Signalbestandteile bekommt.
Das ist jetzt auch wieder was, was man schwer in einem Podcast erklären kann,
was man aber relativ einfach versteht, wenn man zum Beispiel ein Drumloop
oder das Wort Probe-Pop, ich kann es nicht aussprechen, Probe-Podcast,
wenn man dieses Wort zum Beispiel aufnimmt und dann einfach da reinwirft und dann da dran dreht,
dann versteht man sofort, was passiert.
So, jetzt haben wir ganz viel geredet.
Eigentlich wäre es doch jetzt mal Zeit, so ein Klangebeispiel,
so eine kurze Demo hier mal reinzuwerfen, damit dann die Zuhörer einfach mal auch einen Eindruck kriegen,
wie sich das dann nachher im Endergebnis, sozusagen im Mix anhört.
Ich habe schon gedacht, ihr fragt gar nicht mehr.
[Musik]
[Musik]
[Musik]
[Musik]
[Musik]
[Musik]
[Musik]
[Musik]
[Musik]
[Musik]
[Musik]
[Musik]
[Musik]
Ja.
Ja, dazu sind vielleicht zwei Sachen zu sagen.
Das eine ist, dass alles, was man jetzt gerade gehört hat, ist halt mit Mist gemacht.
Also jedes Instrument, auch die Snare, die Geräusche, da ist jetzt nicht irgendein anderes Drumloop oder irgendwas.
Und alles sind Presets, die da mitgekommen sind.
Also da hat jetzt auch nicht einer noch 150 Stunden dran getüftelt, jetzt da noch die tollsten anderen Klänge zu machen.
Das ist das eine. Und das andere ist, man kann jetzt schlecht in einem 90-Sekunden-Demo
die Klangvielfalt, die möglich ist, gut abbilden.
Da muss man ein bisschen aufpassen, dass man nicht denkt, ach so, das ist so ein Synthesizer,
mit dem kann man jetzt also solche Lead-Sounds machen, die sich so ein bisschen gitarrig anmachen.
Das wäre so ein bisschen ungerecht.
Das kann man, man kann aber auch noch tausend andere Sachen machen.
Also zum Beispiel Abyss ist ja ein Synthesizer, den ich schon speziell gemacht habe im Hinblick auf Drones und Pads und solche Sounds.
Da kann man auch andere Sachen machen, aber es ist schon ein bisschen darauf spezialisiert.
Müss hingegen, hat diese Spezialisierung nicht, Müss ist dafür gedacht, damit nach belieben Instrumente machen zu können.
Ich hatte eigentlich gehofft, wir haben ja sehr viel über Module gesprochen,
und dass man halt die auch beliebig verschalten kann, dass die Zuhörer dann auch den Eindruck gewonnen hatten,
dass das natürlich, wenn wir jetzt so ein Klangbeispiel bringen,
dass das natürlich dann nur ein einziges von unendlich vielen Möglichkeiten ist,
wie man mit Müss Klänge gestalten kann und Sounddesign machen kann.
Also für mich ist das wirklich ein Modulbaukasten, mit dem man wirklich sehr interessante Klänge machen kann.
Und man kann einfach, wie du schon sagtest, auch in zwei Jahren, drei Jahren, vier Jahren immer noch wieder neue Sachen entdecken.
Und ich glaube, du wirst ja sicherlich auch nicht nur bei dieser Version 1.01 bleiben,
wird es da sicherlich auch noch neue Module irgendwann geben,
was die Community vielleicht auch so an Ideen vielleicht auch nochmal vorschlägt?
Ja, also da gibt es eine lange Liste, was es so an Ideen gibt dafür.
Und da habe ich mir auch so überlegt, dass es ja vielleicht cool wäre, gelegentlich ein Update zu machen,
wo man dann ein oder zwei neue Module, mit diesen ein oder zwei Modulen,
dann vielleicht auch, was weiß ich, 20, 30 Presets, die zeigen, wie man diese Module jetzt mit den anderen kombinieren kann,
was man daraus machen kann, plus so ein kleines Minitutorial,
was einem auch einmal zeigt, wie man das am geschicktesten verwenden kann.
Weil so hat man dann einen Synthesizer, den man einmal kauft,
wo man dann aber doch immer wieder was Neues geboten bekommt,
wo man die Palette dann wieder erweitern kann,
oder wo man vielleicht auch seine alten Klänge nimmt und sagt,
okay, da packe ich jetzt nochmal dieses Modul da mit rein
und bekomme wieder noch einen anderen Klang aus dem Preset, den ich vor drei Monaten gemacht habe.
Hast du das MÜV deswegen auch auf der Webseite so prominent platziert?
War es eine Entscheidung nach dem Motto, ja, das ist halt das Aktuellste?
Oder hast du das gemacht im Sinne dessen, dass das jetzt so ein bisschen,
wenn ich es jetzt mal mit den Heckmann-Sachen vergleiche,
da gibt es halt auch Zebra, das ist das absolute Monster,
und dann gibt es halt die normalen Synthies, sag ich mal.
Siehst du das jetzt so ein bisschen in diesem Vergleich, das quasi MÜV,
jetzt will ich so ein bisschen, das Überplugin ist, und der Rest so rumfliegt?
Das Flaggschiff.
Das Flaggschiff, genau. Oder ist es einfach so,
das ist jetzt halt mal das, was mir gerade aus dem Kopf gefallen ist,
und ich betrachte das jetzt als gleichwertig.
Oder würdest du sagen, es ist ein Schritt weiter wohin,
in eine andere Richtung mit einer anderen Mission?
Alle Sachen, die du gefragt hast, treffen zu.
Es ist aus meiner Sicht schon ein Flaggschiff-Synthesizer.
Von dem, was ich bisher gemacht habe, ist es das Aufwendigste.
Und auch das, was ich sage, in dem Spektrum, was man damit machen kann,
wie das Allerweiteste.
Nichtsdestotrotz sind die Synthesizer, die ich vorher gemacht habe,
dadurch nicht obsolet.
Ich kann mit KULT Sachen machen, die ich mit MÜV jedenfalls nicht so mühelos machen kann.
Oder auch mit NOVUM kann ich auf eine Art und Weise mit Samples arbeiten,
die funktioniert so in MÜS nicht.
Da habe ich nicht das Gefühl, das eine umfasst jetzt all die anderen Sachen,
sondern da steht es schon daneben.
Und dann ist es so, ich habe sehr viel Gedanken darüber gemacht,
wie dieses Modulationssystem funktioniert,
wie man das mit den Modulen machen kann,
oder mit diesem Pedalboard, damit man keine Kabel braucht,
und es übersichtlich ist und so weiter.
Auch sehr viele Gedanken darüber, wie das User-Interface funktioniert,
dass es einerseits unendlich viele Möglichkeiten gibt
und andererseits man nicht das Gefühl hat, man ist jetzt total lost,
weil man überhaupt nicht mehr versteht, wo oben, unten, rechts und links ist.
Und die Idee ist, der Synthesizer, der nach MÜS kommt,
wird im Prinzip dieses UI-Konzept beibehalten
und wird das Modulationskonzept beibehalten,
das Konzept mit dieser Expressivität.
Und das heißt, ganz viel von diesem Rahmen drumherum wird erhalten bleiben,
und nicht nur für den nächsten, sondern auch noch für den danach.
Das heißt, es wird irgendwann drei Synthesizer geben,
die von, sage ich mal, diesem User-Interface-Konzept,
wenn man einen kennt, findet man sich sofort in den beiden anderen zurecht.
Und dennoch werden die von dem, was sie klanglich machen
und wie man damit arbeitet, drei unterschiedliche Planeten.
Sagt der Mann, der einen kleinen niedlichen FM-Synthesizer hat.
Ich meine halt nur, weil ich mag eigentlich den Aspekt,
den du dir gerade als Indie-Entwickler, das hast du ja auch schon beim letzten Mal erzählt,
dass du es dir halt erlauben kannst, nicht zu sagen,
okay, das mache ich jetzt irgendwie so zusammengehörig, etc.
Weil als ich das gesehen habe, habe ich auch gedacht,
hm, FM-Synthesizer, so ein bisschen was von Abyss, hä?
Ja, nee, das ist so ein bisschen Ausgewachsenheit.
Ich habe halt drei Tage unter Thomas gebraucht,
um festzustellen, dass das ein Sampler ist.
Ja, ich habe es live...
Das ist kein Sampler, das ist ein Resynthesizer.
Ich habe es live mitgelesen und ich musste so schmunzeln.
Ja, das war witzig.
Ich habe ihm erzählt, du kannst einfach Samples reinladen.
Und er so, was?
In Caps Lock und Fettschrift.
Tobi ist halt, ich glaube, kein Sounddesign-Mensch,
aber du bist begnadet in der Anwendung von dem, was du denn da am Start hast.
Ich bin halt einfach Sounddesign-Mensch in dem Sinne,
dass ich alles veraufmache und wieder zumache,
um eine Effektkette zu bauen.
Das ist meine Art Sounddesign zu machen.
Oder ich habe irgendeinen Sampleschmeißer...
Dafür kannst du Schlagzeug spielen, Gitarre, Klavier
und ich glaube noch irgendwie so ein paar andere Instrumente.
Das kann ich zum Beispiel nicht.
Aber tatsächlich ist das ein bisschen auch die Zielgruppe.
Also eine Zielgruppe sind natürlich die Leute, die jetzt gerne rumtüften.
Aber die andere Zielgruppe sind tatsächlich die, die sagen,
eigentlich möchte ich nur Presets benutzen
und ich möchte vielleicht an den Presets noch ein bisschen rumschrauben.
Und für die, sozusagen, möchte ich es möglichst einfach machen.
Ich habe ja vorhin schon mal diesen Workflow beschrieben,
wo man dann dieses Freeze verwendet und sein eigenes Sample.
Und dann hat man diese Möglichkeiten.
Deswegen gibt es auch diesen Preset-Browser,
mit dem man sich so Selektion wählen kann nach verschiedenen Texten.
Und es gibt zum Beispiel dieses Breed, also Brüten,
dieses Küken-Feature. Ich weiß nicht, ob ihr euch das schon angeguckt habt.
Mit diesem niedlichen Ei-Logo da, ja.
Genau, und da ist halt die Idee...
Absolut großartig.
Man kann sich jetzt erstmal eine Auswahl von Klängen zusammenstellen
über diesen Preset-Browser, wo man sagt,
okay, ich möchte Pad-Sounds haben.
Meinetwegen dürfen die auch ein bisschen plucky sein,
also nehme ich mal auch solche mit dazu.
Sie sollen aber eher dark klingen und ein bisschen dreckig.
So, dann habe ich so eine Vorauswahl.
Dann sind da, was weiß ich, jetzt habe ich 74 Presets gefunden,
auf die das zutrifft.
Und dann kann ich Breed drücken, also auf dieses kleine Küken.
Und der tut jetzt so, als wäre jedes Preset quasi ein Gen
und fängt jetzt an, die miteinander zu rekombinieren.
Und erstellt jetzt aus dieser Auswahl, die ich vorher getroffen habe,
jetzt gewissermaßen ein Zombie-Preset.
Das heißt, ich habe so eine Art Luxus-Zufallsgenerator,
weil der nicht irgendwelchen absurden Kram,
der nicht zusammenpasst, macht,
sondern der baut jetzt Bestandteile zusammen aus Klängen,
die schon in die Richtung gehen, was ich gerade irgendwie suche.
Das heißt, ich kann Zufall auch so ein bisschen gezielt einsetzen.
Und auf diese Art kann man dann halt sich sehr schnell,
also in fünf Minuten kriegt man 20 oder 30 Presets,
mit denen man brauchbar arbeiten kann und die es halt so noch nicht gegeben hat.
Die halt dann auch nicht der Nachbar in seinem Song auch verwendet.
Oder Christoph van Dalen.
Da kommt man wieder zum Anfang zurück zu kommen.
Haben wir das überhaupt on-stream schon gesagt?
Oder war das Copyright-Geschenk noch außerhalb?
Ich glaube, das war noch außerhalb.
Okay, anyway.
Aber es ist eine gute Überleitung zu meiner nächsten Frage,
weil die schweben mir jetzt schon eine ganze Weile im Kopf.
Du hast es gerade sehr schön angesprochen mit dem Machine Learning.
Die Entwicklungen im KI-Bereich.
Also ich weiß noch, wie wir letzten August darüber noch so ein bisschen,
also wir haben es schon ernster genommen.
Du wahrscheinlich noch mehr als wir, weil du einfach seit 20 Jahren im Bereich arbeitest.
Aber jetzt die letzten Tage, es ging recht gut ab,
als Thomas hier einen, wie hieß dieser,
Also wir haben, ich habe,
das ein Schnipsel nach dem anderen gepunstet.
Auf Gear News ging vor ein paar Tagen und auch auf Amazona und anderen Kanälen
ging halt Zuno AI über die Kanäle.
Ich habe mich da einfach mal spontan angemeldet und habe mir,
man kann ja fünf Songs kann man ja da kostenlos erstellen mit seinem Test-Account.
Und ich bin fassungslos.
Ich bin fassungslos und ich würde mal sagen, so Gebrauchsmusik,
so Fahrstuhlmusik oder Werbejingelmusik braucht man heutzutage nicht mehr komponieren.
Also da braucht man keine Musikproduzenten mehr für.
Das kann die KI ohne Probleme.
Oder so ein Standard-Rap-Song oder so.
Den Standard-Kram in der Hitparade, das macht hier die KI mittlerweile.
In handwerklich anspruchsvoller Qualität.
Ist es wirklich? Ja, und das ist jetzt der Wendepunkt.
Ja genau.
Weil bisher war es so, dass alles, was da rauskam von der Klangqualität,
von der handwerklichen Qualität einfach echt zu wünschen übrig ließ.
Und jetzt ist es so auf dieser Qualität von 128 Kb/s MP3.
Man hört es noch so ein bisschen hier und da.
Der Sänger lispelt vielleicht ein bisschen.
Ja, oder die Texte sind manchmal ein bisschen komisch und so.
Aber zum Beispiel die Texte kannst du ja selber vorgeben.
Die musst du nicht autogenerieren lassen.
Und was ich erstaunlich fand bei den Texten,
auch wenn die inhaltlich vielleicht ein bisschen komisch sind,
wie gut er das mit dem Versmaß hinbekommt.
Absolut.
Und mit der Phrasierung und so.
Da merkt man schon, die Sachen greifen jetzt.
An den richtigen Stellen auch ein Chor einzusetzen.
Und die Dynamik von dem Ganzen.
Also ich habe damals auch gespielt.
Und das ist erst V3?
Das ist V3.
Wer weiß, was die mit V3.5 machen.
Genau.
Das heißt, wir sind jetzt an einem Punkt,
wo es sehr schwer wird zu unterscheiden,
wenn es sich in den Grenzen eines bestimmten Genres bewegt,
wo es Vorbilder gibt.
Kann man jetzt halt Musik erstellen innerhalb weniger Minuten,
wo es dem durchschnittlichen Hörer
und ich würde mal sagen in einem halben Jahr
auch dem Expertenhörer sehr, sehr schwer fallen wird,
zu unterscheiden, hat das jetzt jemand gemacht,
der sich auskennt?
Oder hat das jetzt jemand in fünf Minuten
mit der AI zusammengestöpselt?
Ja, genau.
Ich denke jetzt, und Sascha wird gleich lachen,
ich denke jetzt, Kevin MacLeod ist arbeitslos.
Das hätten wir vor 15 Jahren gebraucht,
bevor absolut jeder das immer gleiche Gedudel
unter seine YouTube-Videos geklatscht hat.
Mit immer dem gleichen Text.
Hatte der überhaupt Text?
Nee, der hatte keinen Text,
aber du musstest in der Beschreibung
ihn immer namentlich nennen.
Ja, genau, weil es Creative Commons war.
Das hat damals alle vereint.
Später waren es ein paar Sachen aus der YouTube-Audiolibrary,
die mal angeboten haben,
das darf ich immer noch tun.
Aber das sind jetzt schon andere Zeiten.
Aber tatsächlich, da gebe ich dir recht,
die Fahrstuhlmusik, die ist über kurz oder lang.
Sind die Macher der Fahrstuhlmusik oder auch alles,
was Gebrauchsmusik ist, brauchst du nicht mehr produzieren.
Die Leute, die so etwas gemacht haben,
sind jetzt arbeitslos, auf den Schlag, wirklich.
Also die Leute, die Leute, die den Lo-Fi-to-Study-and-Relax gemacht haben,