Probe Podcast 72 MYTH

Bitte hinterlasse ein Kommentar und ein Like

Beschreibung:

Wiedersehen macht Ah?! Podcast-Lieblingsgast Peter V. ist zurück, pünktlich zum Release seines neuen Software-Synthesizers, und gibt exklusive Einblicke in das, was einmal ein, Zitat “unkomplizierter, kleiner FM-Synthesizer” hätte werden sollen. Gemeinsam mit dem Erfinder watet man durch die Tiefen eines durchdachten Re-Synthese-Monsters, lernt unerwartetes, logisches und unerwartet logisches kennen, unterhält sich über gemeinschaft- und leidenschaftliches Developing, debattiert über die rasante Entwicklung von KI und philosophiert über neue Ansätze, noch nie dagewesene Musik zu machen. Zwei Stunden ausladender Nerdtalk, full on detailverliebt und latent größenwahnsinnig – und ein paar Takte MYTH gibts auch noch auf die Ohren. Viel Spaß damit.

Dawesome Myth gibt es ab dem 18.04. bei tracktion.com zu erwerben oder als 90-tägige Demoversion ohne Einschränkung zum ausgiebig testen.
Dieser Link ist kein Affiliate-Link.
Disclaimer: Die Podcaster haben Myth kostenlos zum Beta-Test und zur Nutzung erhalten, es ist aber kein zusätzliches Geld geflossen und at least der Schreiber dieser Zeilen hätte sich den Synth sowieso gekauft

Links zur Ausgabe:

▶ Hier Klicken für das Tanscript:
Tanscript:

* Musik *
* Musik *
* Musik *
* Musik *
* Musik *
* Musik *
* Musik *
* Musik *
* Musik *
* Musik *
* Musik *
* Musik *
* Musik *
Hallo und willkommen bei den
Probe-Podcasts.
Hallo Peter. Hallo.
Hallo Tobi.
Hallo. Hallo Thomas.
Moin aus Hamburg.
Und aus dem wunderbaren Nordrhein-Westfalen
unser Moderator, der Sascha. Hallo.
Hallo. Hallo.
Genau, wie man unschwer gehört hat,
wir haben einen sehr besonderen Gast,
auf den wir uns sehr gefreut haben.
Mal wieder. Peter von Dorsham. Mal wieder.
Genau. Und heute wird es
mythisch, wie man so schön sagt.
Genau. Denn in wenigen Tagen,
also das hier kommt ja heute Montag,
der 15. ist es, glaube ich,
kommt das raus und dann wird in wenigen Tagen
die Folge raus. Am 18.
Was passiert am 18.?
Am 15. kommt die Folge raus.
Und am 18.? Ach, am 15. kommt die Folge raus?
Ich dachte die Folge, ach so, naja, egal.
Ist ja noch besser.
Ja, was passiert denn am 18.?
Heute ist Portal-Tag, das wisst ihr, ne?
Heute war eine totale Sonnenfinsternis.
Das ist noch viel schlimmer, Leute.
Wir haben nicht nur eine totale Sonnenfinsternis gehabt,
wir haben eine Konstellation von vier Planeten
und die haben den Teilchenbeschleuniger in CERN hochgefahren.
Ich sagte doch. Akokalypse.
Ich sagte doch. Und die NASA hat ein paar Weltraumsonden gestartet,
soweit ich weiß. Und ich sagte doch, es wird mythisch heute.
Also das ist doch schon mal ein guter Einstieg.
Jetzt haben wir eine Fahnen verloren, oder?
Also, gut, ich übernehme den Bums jetzt mal so ein bisschen.
Am 18. wird etwas releasen.
Und wenn etwas releast von einem gewissen Plug-in-Hersteller,
den wir alle kennen, den wir alle benutzen,
den wir alle mögen und den wir sogar hier vor Ort haben,
ja, dann muss man doch diesen, ich sag mal so,
muss man doch diese Telefonleitung benutzen,
um mal direkt vor Ort ein bisschen zu fragen, was genau ist das?
Weil ich hab's aufgemacht
und war so ein bisschen ratlos.
Deswegen hab ich gedacht, gut,
es kann nicht jeder Thomas sein,
es kann nicht jeder die Bedienungsanleitung lesen.
Es gibt auch noch Leute, die Leben nebenbei haben.
Ganz ehrlich, ich hab die Bedienungsanleitung
aber nicht sofort gelesen,
sondern ich bin ja auch eher so der "What you see is what you get".
Also der, nee, wie heißt das?
Der "Devisivik"-Typ, der erstmal ausprobiert
und guckt, wie weit er ohne Anleitung kommt.
Und ich bin eigentlich ohne Anleitung ziemlich weit gekommen.
Und danach hab ich natürlich einen Blick reingeworfen,
weil die Anleitung auch, übrigens Kompliment,
Peter, sehr gut geschrieben ist.
Und sie ist vor allem auch sehr witzig, ne?
"Back to the FM".
Also ich hab das Ding aufgemacht,
hab den Kopf gesehen und hab "Tilt" gemacht.
Da ging irgendwie nichts mehr, da ist mein Kopf weggeschmolzen.
Aber dafür haben wir auch heute Abend den Entwickler hier.
Wir sprechen über "Dawson Myth"
oder wie soll ich's aussprechen?
Keine Ahnung.
Ich glaub "Myth" ist schon ganz gut,
aber tu ich mich auch schwer mit.
Den neuen großen Synthesizer aus der Indie-Butze in Hamburg.
Nein, nicht aus Thomas Wohnzimmer.
Der macht kein Indie, der macht Ambient.
Der Witz ist versandet, bevor ich ihn geschrieben habe.
Du streibst bitte auf.
Das war so trocken, Tobi.
Das staubt schon.
Aber nur, weil er so flach war.
Peter, erzähl doch mal ein bisschen,
wie bist du auf die Idee für "Myth" gekommen
und was genau ist "Myth"?
"Myth" ist erst mal ein Synthesizer-Plugin.
Das ist die eine Idee, auf die ich gekommen bin,
wäre irgendwie so ein bisschen irreführend,
weil tatsächlich war das ganz anders.
Ursprünglich wollte ich einen ganz einfachen,
kleinen Synthesizer machen,
der einen neuen Zugang hat zu FM-Synthese.
Jeder, der sich schon mal mit einem DX7-Synthesizer
befasst hat, kennt das.
Es ist toll, teilweise, wie es klingt,
aber es ist ein Horror, das zu programmieren.
Das ist das Gegenteil von intuitiv.
Man muss sich sehr gut auskennen
und dann ziemlich viel rumfrickeln,
damit man was bekommt, was einem Spaß macht.
Deswegen war die Idee, kann man das nicht vereinfachen?
Kann man da nicht eine schönere Form von haben,
mit der man arbeiten kann?
Die Grundidee war, es wäre toll,
wenn man ein Sample nimmt,
und dann wird das resynthetisiert.
Danach habe ich irgendwelche High-Level-Parameter,
wo ich das Sample, so wie es resynthetisiert wurde,
global verändern kann,
dass sich das stärker anhört in Richtung FM
oder dass sich das stärker anhört in Richtung Physical Modeling
oder in Richtung Sound.
Das heißt, ich muss nicht mehr 500 Höhenkurven
und 300 LFOs programmieren,
damit ich Bewegung in meinen Klang bekomme.
Die Idee ist, ich fange mit einem Sample an.
Jetzt nehme ich aber nicht das Sample in einem Sampler
und eigentlich bleibt es immer das Sample
und es wird ein bisschen bearbeitet.
Die Idee ist, ich mache aus dem Sample
einen Synthesizer, der diesen Sound annähert.
Dann habe ich die Möglichkeit, damit herumzuspielen.
Das war die eine Idee.
Die andere Idee war,
dass es Spaß macht,
mit einem modularen Synthesizer zu spielen.
Ich habe mich gefragt, woran liegt das eigentlich?
Dass das ein Vergnügen ist
und sich ganz anders anfühlt,
wenn ich mit einem Sample unterwegs bin.
Das eine ist das Taktile.
Man kann einfach hingehen, rechts und links anfassen
und irgendwo drehen und gucken, was passiert.
Ich glaube, gerade dieser Aspekt von explorativ
sich mit den Klängen zu befassen,
gar nicht immer ganz genau zu wissen,
wenn ich das Kabel hier nehme und es da reinstecke,
habe ich vielleicht eine gewisse Vorstellung,
was ich tue.
Aber ziemlich oft erlebe ich eine Überraschung
oder es ist doch ein bisschen anders.
Oder man hat sich einfach in der Buchse vertan
und dann passiert plötzlich etwas total Interessantes.
Eine Rauchsäule?
Das hatte ich noch nicht, aber denkbar wäre es auch.
Dieses Vergnügen
von weg,
von Sounddesign,
als ich eine Excel-Tabelle habe,
ich gehe da analytisch dran,
ich habe ganz viele Zahlen usw.
und mache mir genau eine Vorstellung
und dann gehe ich planvoll vor
und am Ende kriege ich genau das,
was ich mir am Anfang überlegt habe.
Stattdessen eher so ein "Ich gehe auf einen Spaziergang
und hier tut sich auf einmal etwas auf,
das will ich mir mal ein bisschen genauer angucken
und dann spiele ich hier ein bisschen rum usw.
Ich entwickle dabei dann genauso Klänge,
die ich verwenden kann usw.
Aber die Herangehensweise ist eine ganz andere
und eine, die mir persönlich viel mehr liegt.
So ein bisschen das Happy-Accident-Phänomen?
Genau, das Happy-Accident-Phänomen
und aber auch,
dass man,
es müssen ja gar nicht unbedingt Happy-Accident sein,
sondern dass man auch mit dem arbeitet,
was man gerade hat
und dass man das so ein bisschen verändert.
Nehmen wir mal ein Beispiel,
ich habe jetzt vielleicht schon einen ganz tollen Drum-Loop gemacht
und jetzt überlege ich,
wie kriege ich da irgendein anderes tonales Material dazu,
was ich verwenden kann,
was aber irgendwie jetzt mit dieser Baseline harmoniert.
Jetzt kann ich natürlich ein Keyboard nehmen
und mir irgendwas einspielen.
Das wäre so die klassische Herangehensweise.
Hier mit "müs" wäre die Herangehensweise,
ich nehme mir diesen Drum-Loop
und "müs" ist brutal darin,
dass man auf einer Klaviatur spielen kann.
Das heißt, der nimmt das
und schon habe ich etwas, was tonal ist.
Es hat aber die gleiche zeitliche Entwicklung,
das heißt, der Rhythmus bleibt erhalten.
Darf ich da mal reingehen?
Klar!
Und fragen, was meinst du, es nimmt das?
Du hast zwei Rhythmus-Szenen,
du hast zwei Augen, zwei Irisse
und du kannst ein Sample ablegen.
Dieses Sample wird dann
re-synthetisiert
auf vier Oszillatoren verteilt.
Oder was genau passiert da mit dem Sample?
Vielleicht zwei Sichtweisen.
Die eine ist, wie benutze ich das?
Kann ich das mit dem Sample machen?
Ich nehme einfach mein Sample,
per Drag & Drop haue ich das da rein
und danach kann ich damit weiter rumspielen.
Ich höre jetzt aber nicht das Sample
wie in einem Sampler,
es ist keine naturgetreue Wiedergabe,
sondern es ist diese Reinterpretation
als ein Instrument.
Ich habe dann sogenannte Transformer,
man kennt ja den Cut-Off mit einer Resonanz,
da kann man dran drehen und da verändert sich
der Klang auf eine bestimmte Art und Weise.
In ähnlicher Form gibt es hier jetzt auch Transformatoren,
das sind Parameter, an denen kann ich rumspielen
und die verändern das dann aber vielleicht
eher in Richtung FM oder die verändern das,
dass es sich eher anhört in Richtung Sägezahn.
Damit kann man rumspielen.
Um mal ein Beispiel zu bringen,
ich habe da zum Beispiel ein Sprachsample,
ein sehr langes Sprachsample aus irgendeinem alten Hollywood-Schinken,
die man als Public Domain runterladen kann,
hier aus den 1932,
"Die Nacht der schwarzen Toten"
oder irgendwie sowas.
Irgendein Sprachsample habe ich da reingeschmissen
und ich hatte nachher ein tonales Ergebnis.
Das fand ich ganz witzig.
Sprache wird dann quasi übersetzt in Klänge.
Ja, und zwar nutzt es natürlich auch
einerseits die Klanginformation,
die in dem Sprachsample drin ist
und andererseits die zeitliche Entwicklung.
Das heißt, wenn du jetzt ein sehr, sehr langes Sample nimmst,
mehrere Minuten Sprache,
dann bräuchte das eine so hohe zeitliche Auflösung,
dass das sehr schlecht von einem Synthesizer wiedergegeben werden kann.
Man kann sich einfach mal vorstellen,
du müsstest jetzt einen Synthesizer programmieren mit Höhlkurven,
der jetzt dieses Sprachsample gewissermaßen erzeugt.
Da würdest du eine Höhlkurve mit tausenden Punkten brauchen.
Genau, das kann man natürlich nicht. Deswegen vereinfacht er das Ganze.
Genau, das wird vereinfacht.
Aber wenn du jetzt zwei, drei Worte nimmst,
wie Probe-Podcast,
dann kannst du das hinterher auch wiedererkennen.
Dann kannst du einen Chor daraus machen.
Du kannst es dann ja tonal spielen
und du kannst es dann in alle möglichen Richtungen verändern.
Du kannst die Obertöne rausnehmen, damit es nicht so kratzig klingt.
Du kannst es danach so machen,
dass es sich eher in die Richtung Streicher anhört
und das immer alles nur mit einem Knopf drehen.
Oder du kannst es zum Beispiel so machen,
dass es sich etwas metallischer anhört.
Da kann man dann in Hand umdrehen.
Das geht dann über die Transformer, oder?
Genau, das ist einfach nur ein kompliziertes Wort.
Da sind halt so ein paar Parameter, an denen man spielen kann.
Man muss nicht mal wissen, was die tun.
Ich habe gerade festgestellt, zum ersten Mal seit einem Monat,
in dem ich das Plugin habe, da hat es unten ein Fragezeichen.
Das zeigt ja an, was die Dinger machen.
Aber ich habe das irgendwie nie gebraucht.
Ich habe die einfach intuitiv benutzt bis jetzt.
Ja, die haben auch teilweise, also die haben zwar Namen,
aber die haben auch ja so eine visuelle Repräsentation.
Also mir geht es jedenfalls so,
ich denke dann irgendwann, jetzt will ich ein bisschen mehr blau,
oder hier will ich ein bisschen mehr rot haben.
Weil wenn man das drei, vier Mal gemacht hat,
dann hat man ein Gefühl dafür, was dieses Rot,
was das macht mit einem Klang,
oder was Blau mit einem Klang macht.
Das zieht sich ja durch deine gesamten Synth-Designer eigentlich, oder?
Ja.
Also die haben ja alle irgendwo einen Farbcode, oder?
Ja, das stimmt.
Und das wird auch in Zukunft eine noch viel größere Rolle spielen.
Also wenn wir da einen winzigen Exkurs machen.
Als ich Abyss damals rausgebracht habe,
waren so die ersten Leute auf KVR oder anderen Foren so,
ja was soll denn der Scheiß, so mit Farben,
das ist ja voll das Gimmick, das braucht kein Mensch,
voll idiotisch, Spielerei, bla bla bla.
Was ich gut verstehen kann,
weil es ist ja erstmal was, was man so noch nicht gesehen hat.
Und tatsächlich ist es aber so,
die Warnierungspsychologie stellt fest,
wenn wir Klangfarben oder Klänge beschreiben,
also wie klingt etwas,
benutzen wir das gleiche Vokabular, mit dem wir Oberflächen beschreiben.
Wir sagen, das ist hell, das ist dunkel, das ist kalt, das ist warm.
Eine warme Farbe, eine kalte Farbe.
Das ist rau, das ist schrill, das ist pieksig.
Das lässt sich sozusagen eins zu eins übersetzen,
einerseits in Farben und andererseits in Texturen.
Und bisher habe ich sozusagen diesen Punkt
Klänge darstellen durch Farben ganz stark ausgenutzt.
Und ich würde mal sagen, das ist jetzt weitestgehend etabliert.
Weil witzigerweise genau die gleichen Leute auf KVR,
die damals gesagt haben, so ein Scheiß, das braucht kein Mensch,
schreiben jetzt auf KVR,
sie werden ja die Ersten gewesen, die erkannt hätten,
wie toll das ist und wie intuitiv man das dann hinterher benutzen kann.
Die Ersten waren sie nicht, sondern du warst der Erste.
Ich war auch nicht der Erste.
Ich habe ja Paper darüber gelesen und so.
Bestimmt gibt es auch irgendeinen esoterischen Synthesizer,
über den Heinbach dann irgendwann ein Video macht von 1912.
Ich glaube, dass wir alle auch so ein bisschen durch die...
Aus der Sowjetunion in den 50ern, ja.
Genau.
Ich glaube, dass wir alle auch so ein bisschen durch die iOS-Apps.
Da wurde ja auch schon ganz viel ausprobiert.
Da haben die Programmierer auch schon ganz viel ausprobiert.
Boah, wie ich so fast die Drum Machine vermisse, ey.
Das hat ja alles seinen Weg auch gefunden, mehr oder weniger.
Ich sage mal, bei den klassischen, alteingesessenen Synthesizerfirmen.
Also wenn man sich jetzt zum Beispiel mal den neuen Korg Micro Korg 2
in seiner Neuausgabe, den gibt es ja noch nicht,
der ist noch nicht lieferbar, aber wenn er dann rauskommt,
da haben die sich tatsächlich so eine App-Entwicklerbude geholt
und haben die das Betriebssystem und die grafischen Elemente
programmieren lassen.
Und die haben zum Beispiel Achievements drin.
Also du kannst tatsächlich da Achievements freischalten.
Hey, ich habe einen Cut-off gedreht und solche Geschichten.
Und die haben halt auch sehr viele grafische Elemente
in der Benutzeroberfläche.
Und da haben die sich, ich würde mal sagen,
Elektronen haben da ja auch so ein bisschen vorgelebt.
Und jetzt machen halt das ganz viele nach.
Was du aber halt jetzt hier mit dem Myth gebaut hast,
das ist, darf ich sagen, mein Kopf ist explodiert.
Als ich dann erst mal das Prinzip verstanden hatte,
dachte ich so, boah, das ist ja der Wahnsinn.
Du kannst ja wirklich auf Oszillatorebene schon
so viele Module dazuschalten.
Und dann hinterher hast du noch einen Filter
und den kannst du da noch und dann hast du sogar noch
eine Effektsektion und dann hast du sogar noch
einen Flux-Capacitor, den du da irgendwo dazwischen schalten kannst.
Ja, dazu...
Das ist der totale Wahnsinn.
Da sage ich vielleicht kurz, was du...
Also, das klingt jetzt vielleicht dann ganz schnell so wie,
oh, das ist ja so ein mega kompliziertes Ding,
braucht man 100 Jahre...
Nee, gar nicht. Das ist so eingängig.
Also, ich habe es fast ohne Anleitung hinbekommen,
mich da durchzufringen.
Wenn man so ein bisschen von Synthese,
ich mache das ja jetzt auch schon so ein paar Jahre länger,
wenn man so, ich sage mal, die Grundlagen von Synthese drauf hat,
dann sucht man sich halt so die Funktionen zusammen.
Ich habe erst ein bisschen getüftelt,
habe überlegt, Mensch, wo hat er denn jetzt das Filter?
Bis ich dann entdeckt habe, hey, das ist ja bei den Modulen
und da gibt es ja die Filter-Sektion,
da kann man ja auch noch ganz andere Sachen machen.
Das ist ja, wie geil ist das denn?
Also, das ist ein richtiger Modulkasten,
der sehr, sehr einfach zu bedienen ist.
Und es sind Module ohne Kabel.
So die Idee war eher, also ursprünglich war meine Inspiration
eher so von so einem Pedalboard irgendwie bei der Gitarre,
wo ich so gedacht habe,
da gibt es auch diese tausend verschiedenen Effekte.
Und man hat aber nicht diese Komplexität,
wo man ständig jetzt wieder analytisch nachdenken muss,
und jetzt mache ich ein Kabel von hier nach da
und dann passiert ja das Folgende.
Aber dann habe ich hier ein Feedback.
So diesen Kopf, den will ich da so ein bisschen raus haben.
Stärker hin zu dem, ich probiere mal.
Das ist glaube ich auch darum, warum alle gerade so auf Gitarrenpedale abgehen.
Also natürlich gibt es die Eurorack-Abteilung,
das befruchtet sich auch gegenseitig,
aber einfach Pedale, weil Input, Output, vielleicht noch ein Switch, fertig.
Genau, und mir kommt gerade eine Idee,
ich werde noch eine neue Funktion, glaube ich, einbauen,
wo man einfach ein zufällig ausgewähltes Modul
mit einer zufällig ausgewählten Dings dazu schalten kann.
Da muss ich nicht mal überlegen, was ich jetzt für einen Filter haben will,
ich drücke drauf und dann kommt eins.
Und wenn er mir nicht gefällt, drücke ich halt nochmal drauf und kriege einen anderen.
Gut, aber was ich eigentlich sagen wollte,
zum Beispiel dem Vorgängersynthesizer, den ich gemacht hätte,
also das ist nicht mein Vorgänger,
der Synthesizer, den ich vorher gemacht hatte, Kult.
Da war es auch schon so, dass ich gedacht habe,
ja, also wenn man jetzt einen Filter gut benutzen will,
dann ist es eigentlich toll, wenn ich vor dem Filter
zum Beispiel schon ein bisschen verzerren kann.
Und wenn ich vielleicht noch einen Comp-Filter hätte,
aber manchmal möchte ich den Comp-Filter hinter meinem analogen Filter haben
und manchmal möchte ich es davor haben.
Also die Verzerrung sollte auf jeden Fall immer davor sein.
Und so ist dann so eine statische Sektion entstanden in Kult,
die eigentlich auch schon aus mehreren Modulen besteht.
Erst eine Verzerrung, dann ein Comp-Filter, dann ein analoger Filter,
dann nochmal eine Verzerrung und nochmal ein Comp-Filter.
Und dann hatte ich 100 Ideen, was man da noch machen könnte.
Und das UI würde aber aus allen Nähten platzen.
Und dann dachte ich, es wäre doch eigentlich toll,
wenn man diese Flexibilität hätte,
sich diese Sachen frei anordnen zu können und frei aussuchen zu können.
Was insbesondere mich auch dazu in die Lage versetzt,
wenn ich eine neue Idee habe, wo ich denke,
hey, man könnte ja noch vielleicht das und das
auf diese Art und Weise das Signal verbiegen.
Dann kann ich ein einfaches Update machen
und muss nicht eine Woche damit zubringen,
mir zu überlegen, wo ich das in das UI noch reinquetsche,
ohne dass es jetzt überfrachtet wird,
dass es kompliziert wird oder sonst was.
Es ändert sich eigentlich gar nichts im UI,
sondern ich habe einfach nur eine neue Möglichkeit.
Und du hast es auch schon so ein bisschen angelegt,
also nicht wie bei Valhalla DSP, wo der Code zusammenstürzt,
weshalb die einfach ein 4.0-Update gemacht haben
und das komplette Ding neu schreiben müssen.
Also ich hoffe.
Also ja, man weiß natürlich nie,
manchmal tauchen irgendwelche Grenzen auf,
an die man vorher nicht gedacht hat.
Aber da ich ja jetzt sehr lange auch daran entwickelt habe
und das auch ziemlich angewachsen ist über die Zeit,
bin ich da jetzt mal recht optimistisch.
Ja, und dann, also man kennt das ja vielleicht so ein bisschen
von so einer FX-Section oder von Multi-Effektgeräten,
dass man da dann einen Phaser und irgendwas hat,
einen Reverb und einen Delay,
und dann kann man die in der Reihenfolge selber strukturieren.
Und hier war dann halt noch die Idee,
das halt genauso für die Oszillatoren zu machen.
Weil dann muss ich mir jetzt nicht für einen Oszillator
einmal überlegen,
ja also der soll jetzt diese sieben Knöpfe haben,
sondern ich kann meinen Oszillator
gewissermaßen auch modular zusammenstecken
oder wie ein Gitarrenpedal.
Ich kann sagen, ich fange jetzt hier erstmal mit irgendwas an,
sagen wir mal ein klassischer Siegezahn-Generator.
Dann möchte ich den aber gerne
vielleicht mit ein bisschen Ringmodulation
etwas metallischer machen.
Jetzt klingt mir das aber zu glatt,
deswegen nehme ich irgendwas Krudes
wie zum Beispiel Orbit-Modulation,
was so eine neue Erfindung ist
und mache es damit irgendwie noch ein bisschen krasser.
Und so kann ich Schritt für Schritt einfach gucken,
was passiert.
Und bewege mich aber quasi immer noch
auf der Ebene eines Oszillators.
Das heißt, es ist dann auch pro Taste,
die ich spiele.
Das heißt, es ist nicht ein Effekt,
der jetzt über alles, was ich spiele, irgendwie drüber geht,
sondern das ist sozusagen eigens für die Note.
Das heißt, ich kann es ganz toll modulieren,
also über den Verlauf des Klangs,
oder ich kann es mit einem MPE-Instrument
oder mit irgendwelchen Mod-Wheels,
Expression-Pedalen und so weiter,
kann ich jetzt alle diese Einstellungen nehmen,
um meinen Klang wirklich zu formen,
wie ein Instrument,
und ihn dann auch expressiv zu spielen.
Ich habe eine Frage.
Und jetzt lass uns mal so richtig schön
in Media Reis gehen.
Also wenn ich MÜF aufmache,
schauen mich erst mal zwei Augen an.
Und was ich mich gefragt habe, ist,
okay, ich kann da Samples ablegen.
Was ist denn aber,
wo kriege ich denn die Wellenform her,
wenn ich jetzt so ganz einfache,
virtuell analoge Wellenform haben will?
Reicht es?
Und das habe ich dann auch gemacht.
Wenn ich mir so von so einem Standard,
ich sag mal,
von so einem substraktiven Synthesizer irgendwie
so eine ganz kurze,
so eine Single-Cycle-Wave-File reinlade,
oder muss ich ein längeres Sample nehmen,
oder kann man das auch vielleicht erzeugen lassen,
dass man da vielleicht so einen Sortoos
oder einen Puls oder einen Square
oder was auch immer hat?
Oder wie hattest du das gedacht?
Also, ich denke,
die klassischen Wellenformen,
die jetzt, was weiß ich,
Square, Saw und so weiter,
die sind einfach so typisch,
dass es gut ist,
dafür etwas Eigenes zu haben,
damit man dann halt auch die Möglichkeiten hat,
das nach Belieben verändern zu können.
Und diese Iris, also diese Augendinger,
sind von der Performance her,
sagen wir mal,
ein bisschen anspruchsvoller,
als jetzt eine klassische Wellenform zu generieren.
Und deswegen würde man jetzt einfach
in dem Oszillator sich als allererstes Modul
einen Generator, das heißt Wave, reinladen,
und da hat man dann die Wahl zwischen
diesen, was weiß ich,
Sägezahn, 3-X-Welle, Square, Sinus, Bauschen,
und hat auch bis zu fünffach Unisono
und kann selber das detunen
und wie das im Stereobild aufgespalten wird,
alles einstellen
und kann diese Einstellung aber auch modulieren.
Das heißt, wenn du dir jetzt
einen einfachen analogen Synthesizer bauen willst,
sagen wir mal, zwei Oszillatoren,
dann nimmst du einfach zwei von diesen Modulen hintereinander,
dann machst du dir ein Filtermodul dahinter
und zum Beispiel dieses analoge Tiefpassfilter,
da hat man dann auch die Auswahl,
ob es jetzt ein Diode, ob es sehr dreckig sein soll,
ob es ein bisschen cleaner sein soll,
und dann bist du eigentlich fertig.
Also dann, da brauchst du nicht viel.
Ich habe sogar nur einen Oszillator genommen.
Ja, reicht ja auch völlig.
Ich habe ein 303-Sample genommen
aus irgendwie so einer, keine Ahnung,
Mars-Sample-Collection oder irgendwas,
was kostenlos im Internet verfügbar war
und habe das resynthetisieren lassen
und habe damit dann angefangen, mir Patches zu bauen
und kamen ganz lustige Sachen bei raus,
weil du ja natürlich, wie gesagt,
hast ja durch den modularen Ansatz
ganz echt verrücktes Zeug mitmachen.
Genau, das ist die eine Richtung,
das hat mir echt gut gefallen, ja.
Das ist die eine Richtung, in die man arbeiten kann
und die total Spaß macht.
Es gibt auch eine andere Richtung, in die man arbeiten kann.
Ich glaube, in der Version, die ihr habt,
sind noch nicht so viele Presets dabei.
Genau.
Wenn das released wird, werden es eher sowas
zwischen 500 plus sein.
Und da hat man jetzt die folgende Möglichkeit.
Ich nehme einfach einen Klang, der mir jetzt gut gefällt,
wo vielleicht auch sich jemand schon die Mühe gemacht hat,
dass das bei ModView sich irgendwie ein bisschen verändert,
weil es das Filter ansteuert oder sonst was.
Und jetzt kann ich aber einfach in der Iris
das Sample austauschen.
Ich nehme jetzt also mein 303 Sample oder ganz was anderes,
mein Sprachsample, das Probe-Podcast sagt
und haue es da rein.
Und auf diese Art und Weise habe ich aus dem Preset
etwas völlig Neues gemacht, aber mit null Mühe
und etwas ganz Eigenes, was niemand sonst machen kann,
der dieses Sample nicht hat.
Und das ist eine sehr schöne Arbeitsweise
und damit es noch ein bisschen einfacher geht,
kann man es jetzt auch so machen.
Es gibt so eine Freeze-Funktion.
Ich weiß nicht, ob ihr die entdeckt habt.
Die habe ich entdeckt, ja.
Und da würde man das jetzt so machen.
Man wirft sein Sample da rein und freest nur das,
wo man sagt, hey, das Sample, das passt bitte nicht an,
aber alles andere darfst du verändern.
Und dann kann man die Presets switchen
in dieser Freeze-Section und sagen,
jetzt nehme ich hier ein anderes Preset und so weiter
und kann die so durchsteppen.
Und ich habe dann immer mein Sample,
und ich verhöre das jetzt sozusagen
in den verschiedensten Verkleidungen,
wo ich jetzt einmal die 500 Presets,
wenn ich das will, durchgehen kann.
Oder ich mache mir vorher eine Auswahl und sage,
hey, eigentlich will ich aus meinem Sample
einen Pad-Sound machen.
Also liste ich mir mal hier alle Pad-Sounds,
die irgendwie dabei sind,
habe dann da vielleicht 70 Presets.
Und dann nehme ich mein Sample, das freeze ich,
und jetzt steppe ich die ganzen Pads durch,
und jetzt kriege ich 80 verschiedene Varianten
von meinem Sample reinterpretiert als ein Pad.
Also das ist ja jetzt auch noch ein Workflow,
der super effizient ist, der sehr viel Spaß macht,
und der über das...
der gewissermaßen andersrum funktioniert,
als man das normalerweise macht.
Normalerweise nimmt man ein Preset
und dann schraubt man ein bisschen.
Und hier ist es so, hier nehme ich mein Sample
und stülpe dann die Presets über dieses Sample drüber.
Ist das... kann man sagen, das ist eher...
du hast ja schon gesagt, es ist eher wie bei der...
ich versuche gerade einen Vergleich zu finden,
mir fällt gerade keiner ein.
Mir lag einer auf der Zunge, jetzt ist er wieder weg.
Verdammt.
Ja, aber es geht ja in dem Fall nicht nur um die Parametrisierung,
es geht ja auch darum, wie die Module
miteinander verkettet sind und so weiter.
Also das stülpe ich ja über den Sound drüber.
Genau.
Also sämtliche Module, nicht nur Effektmodule oder so,
sondern auch alles, was die Synthese angeht und so.
Und das ist das Geniale.
Und das Geniale ist übrigens auch,
dass du an allen möglichen Stellen,
ob es nun bei den Transformatoren ist
oder bei den Transformers
oder die Sample selber
oder die Module, die du miteinander verkettet hast,
du kannst dir das alles speichern als Preset.
Du musst es nicht, du kannst es auch insgesamt
als Preset einfach speichern
und dann ruft der alles wieder auf.
Aber man kann auch wirklich, wenn man will,
man muss es nicht, wenn man will,
kann man in die Details reingehen
und da einzelne Sachen austauschen.
Das ist das, was du gerade erzählt hattest.
Ja, man kann jetzt zum Beispiel auch,
also du überlegst jetzt zum Beispiel,
du willst vielleicht häufiger mal Klänge ergänzen
um ein Layer, wo du sagst,
der soll jetzt eigentlich eher so klassisch,
subtraktiv, analog sein.
Also machst du dir einmal so eine Sektion
aus ein paar Modulen, wo du sagst,
okay, hier ist so ein Wave-Generator,
dahinter packe ich einen Filter
und dann packe ich da noch, was weiß ich,
einen OTT dahinter.
Und damit ich das jetzt nicht jedes Mal neu aufrufen muss,
nimmst du diese drei Kombinationen
und speicherst die als ein Sub-Preset ab.
Und dann kannst du das nächste Mal,
wenn du irgendwie das Gefühl hast,
oh, jetzt möchte ich das gerne einsetzen,
kannst du das halt dann auf Knopfdruck
da wieder reinholen.
Das hatte ich gesehen, dass das so geht.
Fand ich irgendwie einen sehr interessanten Ansatz.
So ein bisschen, damit es ein bisschen gemütlicher ist.
Ich glaube, in Microtonic gibt es so etwas Ähnliches,
aber in der Form so,
habe ich das noch nicht gesehen.
Das ist anders, das ist ganz anders.
Synthplant könntest du so ein bisschen vergleichen,
aber Synthplant macht zwar auch eine Resynthese
von Samples, ist aber,
hat einen ganz anderen Ansatz,
weil Synthplant 2 dein Sample-Material
quasi in Echtzeit einmal ausprobiert und durchprobiert
und das versucht nachzustellen
mit den vorhandenen Synthese-Engineren.
Das meinte ich gar nicht.
Zusammenstöpseln alles.
Bei Microtonic kannst du halt
für jedes Modul Presets abspeichern.
Du kannst dir quasi, wenn du deine Drums...
Die einzelnen Instrumente, ja.
Wirklich jedes Instrument einzeln,
aber auch den Sequencer oder auch Automatisation,
das kannst du alles abspeichern.
Das geht hier halt auch.
Du kannst entweder pro Modul irgendetwas abspeichern,
wenn dir ein besonderes Setting gefällt
und dir mal einen Namen geben,
damit du es dann das nächste Mal wiederverwenden kannst.
Aber du kannst halt auch ganze Effektketten.
Solche Sachen wachsen halt.
Das war das Gute, dass ich keinen Chef habe.
Weil wenn ich jetzt Teil eines größeren Unternehmens wäre,
dann würde das Ganze so laufen.
Man würde sich am Anfang ein Konzept machen,
würde sich ganz viel überlegen.
Und dann würde man sagen, wie lange brauchen wir dafür?
Dann würde man sagen, das Release-Datum ist September.
So habe ich auch gestartet.
Aber im August habe ich dann gedacht,
nee, nee, nee.
Ich hatte so viele gute Ideen, wo ich gedacht habe,
bringe ich das jetzt im September raus
und dann lasse ich diese ganzen guten Ideen fallen
oder nehme ich mir noch ein bisschen mehr Zeit.
Also habe ich es geschoben auf Dezember.
Dann bin ich aber nach Japan gefahren für ein paar Wochen.
Das war so ein Lebenstraum, was ich schon immer mal wollte.
Und da hatte ich so viel Inspiration und so viele neue Ideen,
dass ich wiederkam und dachte, nix, Dezember.
Wenn ich im Dezember Release hätte,
wäre das Produkt hinter dem, was ich dann gesehen habe,
was möglich ist, so zurückgeblieben.
Und eine dieser Sachen war halt, dass man dann irgendwie merkt,
hey, so bestimmte Ketten von diesen Modulen will man immer wieder haben.
Oder dann spielt man vielleicht noch ein bisschen damit rum,
aber so Grundketten, das kommt immer wieder.
Und das nervt, weil man dann jedes Mal das irgendwie wieder neu arrangieren muss.
Und dann dachte ich, ja, es ist auch viel besser,
wenn man auch noch die Möglichkeit hat,
jetzt so eine ganze Kette zu speichern.
Und so wächst dann so ein Synthesizer halt auch über die Zeit.
Und oft ist es so, erst wenn man dann drei unterschiedliche neue Ideen
da reingebracht hat, ist das Ganze wieder auf einem Level,
dass man die vierte Idee überhaupt erst haben kann.
Und dann vielleicht noch, um das ein bisschen zu erklären,
wie das so entstanden ist.
Ich habe so einen Discord, und den habe ich mal ursprünglich gestartet,
um das Handling mit meinen Beta-Usern einfacher zu machen,
damit ich nicht immer ganz vielen Leuten eine Mail schreiben muss.
Nehmen wir mal an, dann haue ich eine Version raus,
bei der irgendwas nicht funktioniert, und dann kriege ich von 27 Leuten eine Mail,
die mir alle schreiben, dass sie jetzt gemerkt haben,
da funktioniert was nicht.
Das ist ja auch für die Leute total Zeitverschwendung.
Und deswegen habe ich gedacht, es wäre doch toll, wenn wir so einen Discord haben,
weil dann schreibt einer, hier gibt es einen Fehler,
und dann lesen das alle anderen, und dann braucht das kein anderer mehr schreiben.
Zeitverschwendung wäre es halt, wenn einer eine Mail an alle schreibt,
und alle schreiben zurück, bitte nehme ich aus dem Verteiler.
Das ist der Discord halt als proaktiver Verteiler,
in den man zuerst reinschauen muss, oder?
Aber auch, man weiß halt, was einem da erwartet.
Und es geht einem nicht in der eigenen Mailbox auf den Sack,
das ist halt so viel praktischer.
Das war halt die Grundidee, aber daraus ist was ganz anderes geworden.
Weil ich habe das dann erweitert, und das nicht mehr nur begrenzt auf die Beta-User,
sondern das ist jetzt alle Leute, die in diesen Discord kommen,
können da gucken und mitreden.
Und das tun die halt auch.
Ich habe dann so jeden zweiten Tag poste ich dann irgendwas,
wo ich gerade dran arbeite, oder was ich für eine Idee habe,
und dann sagen die Leute, oh ja, das wäre ja voll cool,
wenn man auch noch das und das machen könnte.
Oder ich habe mal irgendwo ein Feature gesehen, so und so.
Und da sind so viele Ideen entstanden.
Natürlich am Ende bin ich derjenige, der die Entscheidung trifft und sagt,
das nehme ich rein, das nehme ich nicht rein,
oder die Idee finde ich gut, aber ein bisschen verändert.
Aber es ist fast schon so eine Art Community-Prozess gewesen,
bei dem halt ganz viel Input auch von den Leuten in den Discord gekommen ist.
Und das hat, glaube ich, nicht nur mir total Spaß gemacht
und das Instrument besser gemacht,
sondern es hat auch den Leuten Spaß gemacht.
Oder die freuen sich auch, wenn sie wissen, da haben sie jetzt was vorgeschlagen,
und das ist jetzt in diesem Synthesizer drin, weil sie das vorgeschlagen haben.
Schwarmintelligenz.
Mhm, genau.
Ich habe auch den Eindruck, es färbt sich sehr aufs Handling ab.
Also ich bin ja großer Fan von so einem Bedienkonzept der alten beiden.
Ich lasse Abyss jetzt mal raus, da bin ich nicht so versiert drin,
aber gerade Novo und Kult, die finde ich in sich sehr schlüssig.
Und das hier ist jetzt was Neues.
Man merkt schon ein bisschen, dass es auf eine Art auch eine Weiterentwicklung ist,
die aber auch von den Impulsen außerhalb so ein bisschen lebt.
Und man merkt, dass du Popkultur-Fan bist
und amerikanische Filme der 80er liebst, was ich sehr sympathisch finde,
weil du hast hier quasi in Form des BTTF-Moduls,
bei einem Modulationsmodul, quasi einmal einen Fluxkompensator
mit den Parametern Biff und McFly, was ich total geil finde.
Ja, also das ist halt auch so, als ich zum Beispiel Novo oder Kult entwickelt habe,
da hat man dann oft so eine Idee, oder ich probiere was aus,
so in meiner Sicht, bei meinen Forschungen, und stelle fest,
hier kann man eigentlich was Interessantes mit Klang machen,
aber es ist jetzt nicht so gängig oder eingängig,
dass es gerechtfertigt wäre, in einem normalen Synthesizer zu sagen,
gut, dafür mache ich jetzt hier vier Knöpfe hin und verbrate damit
10% von dem zur Verfügung stehenden User-Interface.
Das heißt, solche Ideen sind früher dann einfach immer in der Schublade gelandet,
weil man sagt, ja, die sind ein bisschen zu nischig, um sie da jetzt reinzumachen.
Durch dieses Pedalboard-Konzept habe ich jetzt die Möglichkeit,
ich kann die obskursten Module machen, weil alles, was die fressen,
ist halt ein einziger Eintrag, der dann noch zusätzlich ist in dem Menü,
wo man die Module auswählen kann, und dann können halt mal solche Sachen
wie dieses BTTF entstehen.
Und man merkt an solchen Sachen dann aber auch wirklich die Liebe
vom Erfinder an sein Baby.
Ich lese mal kurz den Hilfetext vor, BTTF.
Advanced FM Synthesis with Feedback, bringing the 80s back to the future.
Geil. Sowas finde ich sehr sympathisch.
Ich schätze sowas, wenn man da so an solchen Details wirklich die Liebe
der Macher an ihren Produkten halt erkennt.
Es gibt so viele Softwareprodukte, wo man sowas sehen kann,
oder auch Hardware-Synthesizer, wo man das wirklich erkennt.
Zum Beispiel bei dem Elektron Analog 4, wenn man da aufs Mainboard schaut,
da sind so Space Invader-Figuren drauf.
Und ich mag halt solche Sachen. Ich finde das immer sehr schön, sowas zu sehen.
So kleine, so kleine, handschriftliche Notizen des Gedankens,
wenn das irgendwo hinterlassen wird. Das ist eigentlich gar nicht richtig
für die Funktion, aber es ist halt da.
Das gibt es ja auch in Prozessoren, gibt es das doch auch.
Dass an irgendeiner freien Stelle irgendwo ein kleines Männchen ist oder so.
Ja, du findest solche Easter Eggs überall.
Wobei, das Modul hat natürlich durchaus Sinn.
Das ist ja ein Delay-Modul, was sich quasi selber füttert.
Und da kommen schon auch interessante Sachen bei rum.
Mein Lieblingsbeispiel für sowas ist immer noch das Pong-Spiel in den Kurzweilsamplern.
Das war sehr cool.
Oder der Elvis bei der Elektron Maschinen-Drum,
der nach irgendwie 1000 Betriebsstunden oder so erst auftaucht,
wenn man das Gerät einschaltet.
Ich denke gerade mal in dieser Branche, wo man Musikinstrumente macht
oder Geräte, mit denen andere Leute Musik machen.
Ich würde mal sagen, die wenigsten Leute sind in diese Branche gegangen,
weil sie gedacht haben, das ist jetzt die tollste Möglichkeit,
die effizienteste Möglichkeit, um Geld zu verdienen.
Sondern die Leute sind in diese Branche gegangen, weil sie gesagt haben,
hier kann ich das machen, was ich richtig liebe.
Hier kann ich mich austoben.
Und in ganz vielen Bereichen, wenn man jetzt sagt, ich finde Autos toll,
dann kann ich nicht mit einer kleinen Bude von drei Leuten sagen,
wir entwickeln jetzt unser eigenes Auto. Das geht halt einfach nicht.
Und dieser Bereich mit Plug-Ins oder Synthesizern ist halt ein Bereich,
wo tatsächlich noch Einzelpersonen oder sehr kleine Gruppen von Leuten
die Möglichkeit haben, etwas zu schaffen, was dann andere Leute auch benutzen.
Bisher ungefähr alle Leute, die ich kennengelernt und getroffen habe,
die irgendwie in diesem Bereich arbeiten, sind da halt so mit Herzblut dabei.
Und das ist auch irgendwie toll.
Wir haben ja schon viele Leute auch hier im Interview gehabt.
Und das merkt man eigentlich bei jedem Einzelnen, hat man das gemerkt.
Ob das nur ein Faderfox ist, der Matthias, der da wirklich mit Herzblut
seine Controller da baut oder jetzt auch bei dir eben.
Und das ist immer sehr sympathisch, solche Leute kennenzulernen.
Ich habe eine Beobachtung gemacht, ist mir aufgefallen, fand ich jetzt,
ich sag mal so als Sound-Design-Option auch noch mal ziemlich interessant.
Wenn man die CPU von, man hat vier Einstellungen, man kann sie von Eco,
also sehr effizient, CPU-schonend, über Smart High auf Ultra stellen.
Und das verändert tatsächlich doch noch mal ganz schön drastisch auch den Klang.
Das fand ich sehr interessant, was da teilweise dann für ganz andere Ergebnisse bei rumkommen.
Das fand ich auch sehr ergiebig.
Um mal eben schnell zu sagen, so ey, dieser Sound hier, der langweilt mich,
ich kriege das nicht richtig hin.
Ja, dann stell doch mal hier einfach den CPU von, keine Ahnung, von Ultra auf Eco
und hör dir das dann mal an.
Ja, da vielleicht auch ein bisschen der technische Hintergrund, warum das so ist.
Vielleicht würde man sich ja wünschen, dass das in allen Einstellungen genau gleich klingt,
wäre das aber der Fall, dann bräuchte man ja auch die Einstellung nicht.
Und es gibt halt zwei so große Theorien, also Theoriegebäude,
mit denen man so Synthesizer und so weiter, die Algorithmen entwerfen kann.
Das eine ist so klassische Signalverarbeitung und das andere ist alles, was spektral ist.
Die haben beide ihre Vor- und Nachteile und aus meiner Sicht sind beide für manche Sachen
ganz, ganz toll geeignet und lassen aber auch ganz große Lücken.
Und aus meiner Sicht ist es nicht die perfekte Theorie, um wirklich solche Musikinstrumente zu gestalten.
Auch wenn diese Theorien natürlich teilweise schon 80 Jahre lang entwickelt wurden,
da sind die natürlich auch sehr leistungsfähig.
Aber beispielsweise die klassische Signalverarbeitungstheorie ist halt immer linear
und die reale Welt ist es nicht.
Das ist auch der Grund, warum das so lange gedauert hat, bis digitale Filter gut geklungen haben,
weil man sie halt eigentlich mit der klassischen Signalverarbeitungstheorie nicht erfassen kann.
Denn in einem analogen Filter ist immer irgendetwas nicht lineares,
weil da sind ja Stromspannungen, die benutzt werden und die kann halt nicht beliebig linear weiter wachsen,
sondern die geht halt irgendwann in eine Sättigung.
Wenn ich 15 Volt zur Verfügung stehen habe, kommt da niemals ein Signal, was über 15 Volt geht.
Und deswegen bin ich schon seit Jahren dabei, eine andere Theorie Schritt für Schritt jetzt selber zu entwickeln,
die aus meiner Sicht besser geeignet ist und die irgendwo zwischen dieser klassischen Signalverarbeitung und dem spektralen liegt.
Die hat ziemlich viel zu tun mit dynamischen Systemen.
Das ist ja auch in dem Synthesizer-Kult mit der Chaos-Theorie schon so ein bisschen auszelebriert gewesen.
Das bedeutet aber auch, dass diese Nicht-Linearität sozusagen das Kernelement ist.
Das heißt, da ist erstmal die Grundannahme, dass alles nicht linear ist.
Ich will es jetzt nicht zu kompliziert machen, das bedeutet aber auch,
dass solche Sachen wie eine Auflösung, mit der ich das jetzt annähere, mit der ich das jetzt in einem Computer berechne,
spielt eine Rolle, wie sich dieses Signal dann tatsächlich in der Zeit verhält.
Dieses Ultra pusht diese Auflösung wahnsinnig nach oben.
Das bedeutet, dass in den anderen Einstellungen es eine etwas vereinfachte Approximation ist,
und die hört sich dann anders an.
Das war jetzt sehr kompliziert, oder?
Nein, ich habe es verstanden.
Aber du hast auch einen Doktor in Mathematik, Sascha.
Das ist interessant. Was hast du gemacht? In welchem Bereich?
Computerwissenschaft.
Das ist jetzt sehr weit gefasst.
Ich meinte, was ist der …
Ich habe mich zum Schluss mit Primesalen beschäftigt.
Ah, abgewandte Mathematik.
Mhm.
Ich habe ja auch noch eine Ausbildung als Elektronenstallateur.
Deswegen kommst du mit, während ich gerade vor einer Minute so innerlich versucht habe, mitzuhalten.
Ich habe keine Mathematik studiert, ich habe auch keinen Doktortitel,
beziehungsweise ich hatte nur ein paar Monate auf der Uni in Informatik.
Aber ich habe noch mal eine praktische Frage.
Ich habe hier gerade den Myth offen, und ich habe jetzt noch mal einen Nachvollzug.
Ich habe tatsächlich diese Generatoren, diese Wellenformgeneratoren, nicht gefunden als Modul.
Aber jetzt, wo du es erzählt hattest, ja, ganz offensichtlich.
Ich wähle einen Oszillator aus, drücke das Pluszeichen, und dann sagt er mir einfach "Generation".
Und dann kann ich einfach einen Wave angeben.
Frage, wenn ich da mehrere Wellengeneratoren anklicke, wirken die dann additiv oder substraktiv?
Oder wie sind die miteinander dann verschaltet?
Ja, wenn du guckst, ist, glaube ich, unten links in der Ecke ein Mixregler bei dem Wavemodul.
Ja, okay.
Und das funktioniert halt so, du kannst es dir wieder vorstellen wie ein Gitarrenpedal.
Es hat einen Eingang und es hat einen Ausgang.
Über den Mixregler sagst du, wie viel von dem Eingangssignal soll er jetzt durchschleusen
und wie viel soll jetzt von dem generierten Wave dazu addiert werden.
Okay, aber mehr als drei gehen nicht.
Aber das ist eine normale Summierung, ne?
Das ist hier eine normale Summierung, genau.
Und das geht dann zusätzlich zu dem Sample, das ich reingehören habe?
Genau, zusätzlich oder alternativ.
Was Spaß macht, ist, man macht erstmal einen klassischen Synth-Sound mit diesem Wave-Generator.
Und die sind dann meistens relativ clean.
Und das ist auch das, was man in 5000 anderen Synthesizers relativ einfach machen kann.
Und dann kann man aber noch irgendein relativ statisches Sample nehmen und in die Iris,
also per Drag & Drop, da reinwerfen.
Und dann ein bisschen an den Transformers rumspielen.
Und dann kriegt man so einen, je nachdem wie man es einstellt,
zwischen subtilem Dreck oder richtig krassen Dreck irgendwie noch da drüber.
Der verbindet sich, aber das verschmilzt so ein bisschen.
Also man hat jetzt nicht das Gefühl, irgendwo ist da jetzt dieser Klang und ganz woanders ist dieser Dreck,
sondern man kann also auf diese Art und Weise sehr schön schmutzige, organische Klänge machen,
beziehungsweise einen klassischen Synth-Sound halt so ein bisschen anrotzen.
Ja, genial.
Mehr als drei gehen auch nicht, aber dann hat man halt noch andere Möglichkeiten.
Da kannst du noch ein bisschen tauschen und gehen und...
Ja, also das sind drei pro Oszillator.
Das bedeutet, du kannst ja bei der anderen Iris auch nochmal drei dazu tun.
Das heißt, du hast sechs.
Ja, Wahnsinn. Und dann so viel, wie die Rechenleistung hergibt an Stimmen.
Und wo genau gerätst denn jetzt die Iris dazwischen?
Die ist ja in sich noch ein Oszi, aber die ist auch ein Modulator.
Habe ich das richtig verstanden?
Also was macht die Iris denn mit den Wellen?
Du kannst die Iris modulieren.
Das ist ja ein Sample.
Du kannst das Sample entweder komplett abspielen oder nur ein klitzekleines Stückchen davon.
Das kannst du halt einstellen über die ganzen Icons.
Jedes Icon hat halt eine entsprechende Bedeutung.
Und die Iris besteht halt aus vier Elementen, die du übereinander, ineinander blenden kannst.
Ja, und wo ist die im Signalweg? Das versuche ich ja die ganze Zeit.
Ganz am Anfang.
Die ist ganz am Anfang. Die steht ganz am Anfang.
Und wenn man sie nicht haben will, lässt sich die auch deaktivieren.
Also man muss sie nicht benutzen, man kann sie benutzen.
Ich habe auch schöne Presets gesehen mit den Wave-Ozis, die einfach überhaupt keine Iris hatten.
Aber ganz grundsätzlich so, ich habe jetzt so eine Ansammlung an ziemlich doofen,
bis also einfach, ich sage mal, sehr, sehr naiven Fragen.
Die werfe ich dir jetzt einfach mal an den Kopf und du versuchst sie mir so weit zu beantworten.
Ich meine, wir kennen Novum, wer das mal vor sich hatte, der weiß ja so ein bisschen, wie das funktioniert.
Der zerschlägt dann ein Sample in sechs Teile und lässt dann quasi ein Granulator drüber laufen.
Ist diese Iris hier auf eine Art dasselbe, hat einfach mit einem Scannerstrich, also der so im Kreis läuft?
Oder ist das was ganz anderes und das hat nichts mit dem zu tun?
Es gibt eine Überschneidung.
Die Idee etwas in sechs unabhängige Teile zu zerlegen und wie man das macht, das ist bei Novum und bei NUS ziemlich ähnlich.
Aber was dann aus diesen Teilen gemacht wird, ist komplett unabhängig voneinander.
Und es ist nicht granular.
Es ist dieser Strich, der im Kreis läuft, oder?
Genau, man kann sich das am ehesten vielleicht noch vorstellen wie ein Wavetable.
Aber erstens, es klingt nicht wie ein Wavetable-Synthesizer.
Man kann es ein bisschen in die Richtung bringen, aber es klingt vom Grundprinzip erst einmal anders.
Und es hat halt auch mehr Möglichkeiten, die mit einem klassischen Wavetable-Synthesizer nicht so einfach möglich sind.
Weil es zum Beispiel auch inharmonische Samples, also die Inharmonizität wiedergeben kann
und auch rauschhafte Teile etwas besser wiedergeben kann.
Ja, sehe ich.
Die Iris ist quasi als Sampler der Kern.
Und dann hast du rechts unten auf der Seite Arp, zwei Ostsees, der Filter und zweimal FX.
Das ist quasi die Kette, die fix ist.
Fix in dem Sinne, dass du einfach immer links beim Oszillator einen Wet-Regler und einen Oktav-Schalter hast.
Du kannst unten noch ein bisschen was an der Stimmung ändern.
Du hast dann beim Filter noch ein Wet-Regler und ein bisschen Gain und beim FX dann quasi zweimal Sense.
Den Arpeggiator lassen wir mal außen vor, der hat einfach so ein bisschen seine eigenen Module.
Und dann kommt ja eigentlich etwas, das von den Modulen her sehr frei ist.
Also du hast eigentlich immer einen Ostsee.
Der Ostsee ist, wenn ich es richtig verstanden habe, ist das zuerst mal die Iris, außer du schaltest ihn ab, dann ist es einfach ein leerer Block.
Du kannst dir den Oszillator so vorstellen. Stell dir vor, die Iris wäre deine Gitarre.
Dann ist das, was du siehst, wenn du jetzt auf dieses Ostsee, auf diesen Block drückst, das ist jetzt dein Pedalboard für diese Gitarre.
Da hast du dann sozusagen deine Effekte.
Und die Besonderheit ist, das ist halt nicht wie ein normaler Effekt in der Effekt-Section eines Synthesizers,
weil die funktioniert immer auf der Summe, sondern hier hast du...
Und das sind halt auch Effekte, die du so in keinem anderen Effektgerät finden würdest.
Ja, das kommt noch dazu. Aber ich kann halt hier quasi einfach schon alles direkt in den Ostsee schmeißen
und es dann quasi durch den Filter jagen, statt einfach zuletzt in die Kette zu packen.
Du musst es nicht mal durch den Filter jagen, weil du kannst halt auch direkt in dieser OSC-Section
dir deinen Filterpedal sozusagen reinmachen.
Der Unterschied ist nur, also erst hast du die beiden Iris, die gehen dann jeweils durch ihr eigenes Pedalboard,
dann werden die beiden zusammensummiert und haben dann nochmal ein kombiniertes Pedalboard.
Das heißt hier Filter und man kann es so benutzen, aber auch da kann ich ja beliebige andere Sachen machen.
Ich muss da keinen Filter rein, weil per Default hat der nur Boost und Mix, also Wet in dem Sinn jetzt.
Ich kann ihn dazu mischen oder halt rausnehmen.
Aber ich kann da halt reinbauen, wie ich gerade lustig bin.
Also ich sehe hier auch wieder, ich habe sechs Filter, aber ich habe eben auch tonnenweise Modulation,
ich habe Distortion, ich habe Effekte und ich habe irgendwie noch so...
Was macht eigentlich dieses Route-Effekt? Das sind zwei Pfeile.
Ja, okay. Es gibt ja immer, hat man noch den Wunsch, vielleicht noch ein bisschen flexibler zu sein.
Und irgendwann kommt man auf die Idee und sagt, ist ja toll, dass ich das so einfach habe mit so einem Pedalboard
und das geht immer alles so von links nach rechts.
Aber dieses Mal würde ich eigentlich gerne mein Pedalboard noch spalten wollen.
Ich würde gerne eigentlich zwei Pedalboards haben, die parallel machen.
Ich möchte einmal zwei Effekte haben auf der Iris und das soll zum Ausgang gehen.
Und dann möchte ich aber nochmal andere Effekte haben auf der Iris und das soll auch zum Ausgang gehen.
Und da kann ich dann so ein Routing-Pedal dazwischen setzen,
das dann sozusagen einmal die Pedale, die links von dem Routing sind, von diesem Routing-Pedal auf den Ausgang packt
und danach die Iris wieder neu einspeist in alles das, was rechts kommt.
Das muss man jetzt aber hier im Podcast nicht verstehen.
Ja, ich glaube auch, wenn es gut erklärt ist in der Bedienungsanleitung, dann macht es Sinn.
Aber ich sehe es hier, ich klicke hier rum, drücke auf Plus und sehe immer wieder neue lustige Effekte.
Man sieht halt schon, gewisse sind nicht überall drin.
Hast du da ein bisschen geguckt, dass sich das Ganze nicht aus Versehen selbst oszillieren oder exponieren kann?
Ich habe so ein bisschen geguckt, was macht Sinn, was würde man jetzt wo tatsächlich irgendwie verwenden.
Und manchmal gibt es, manche Effekte machen keinen Sinn auf einer Summe, auf Polyfon-Material.
Das heißt, die Module, die in der Effekt-Section zur Verfügung stehen, sind andere als die für die Voices.
Aber ich will nochmal eine Sache sagen mit der Bedienungsanleitung.
Ich weiß nicht, ob ihr die Funktion entdeckt habt, es gibt auch so ein eingebautes Tutorial-System.
Und das funktioniert so, ich habe gedacht, das wäre ja toll, hat ja eh keiner Lust, eine Bedienungsanleitung zu lesen,
wenn das irgendwie da integriert wäre.
Und dann habe ich gedacht, ja, aber ich finde es auch immer künstlich, wenn da irgendwie so ein bescheutes Tutorial-System ist.
Und eigentlich, was man ja will, ist jetzt nicht so ein Tutorial, wo einem jemand was erklärt, sondern man will ja selber machen.
Und deswegen habe ich das im Mist anders gemacht.
Ein Tutorial besteht eigentlich nur aus einer bestimmten Abfolge von Presets,
die jeweils eine Erklärung haben und einen auffordern, jetzt irgendwas Bestimmtes zu machen.
Und da gibt es dann verschiedene Tutorials für die ersten Schritte, die man so durchgehen kann.
Und das funktioniert dann halt so, dass man dann dieses Tutorial startet.
Aber es bedeutet einfach nur, es wird jetzt der erste Preset davon geladen.
Und wenn man sich durchlesen will, was steht denn da?
Ah ja, ich soll jetzt hier mein Sample nehmen und da drauf machen.
Ah, dann hört sich das so an. Jetzt habe ich es verstanden, gehe ich zum nächsten Preset.
Und da werden alle diese Sachen erklärt.
Und man kann jederzeit, wenn man denkt, oh wow, das klingt ja jetzt geil, was ich hier gemacht habe,
kann man dann erst mal nach Belieben weiterspielen.
Also so ist die Idee von diesem Tutorial.
Und dann frei Schnauze rumprobieren, das abspeichern und dann irgendwann wieder sagen,
ah, jetzt will ich was Neues lernen.
Das ist genau mir passiert. Ich habe das Tutorial angefangen und dann habe ich angefangen rumzuspielen
und ich konnte nicht mehr aufhören.
So soll es sein.
Und wenn du dann aber irgendwann denkst, so, jetzt möchte ich mal wieder was Neues lernen,
dann kannst du halt wieder zurück zu diesem Tutorial gehen.
Ja, das ist schon ganz gut gemacht, das stimmt, ja.
Und solche Sachen wie dieses Routenpedal, das wird da halt auch erklärt.
Und dann versteht man das plötzlich ganz einfach, weil da dann steht, okay, jetzt nehmen wir das da drauf
und dann hört man das und das und so weiter.
Dann sind das zwei, drei Schritte und wenn man das einmal selber gemacht hat, dann ist es trivial.
Ja, dann ist es praktisch eigentlich drin.
Ja.
So, was haben wir dann da noch so?
Ich habe mal so ein bisschen geguckt.
Also wir haben jetzt den Synthesizer in der Mitte schon relativ tief besprochen.
Da gibt es außenrum noch so ein paar schöne Dinge.
Zum Beispiel hast du diesmal quasi Expressionen und Makros quasi einfach sieben Stück davon gemacht.
Aber du hast gleichzeitig rechts noch eine Sektion wieder, die so nach dem Motto Plus funktioniert,
wo du auch wieder alle möglichen Module reinsetzen kannst, wie man es auch von den anderen Synthies kennt.
So, Novum hat ja so eine Plussektion, Rude hat so eine Plussektion.
Also du hast dir ja was gedacht bei diesem Aufsplitten, oder?
Ja, also ich fange mal mit dem Problem an, was existiert.
Wenn ich jetzt zum Beispiel bei mir gucke, ich habe hier so einen Osmose-Controller,
ich habe einen Roli Seaboard und ich habe hier so eine 88-Tasten-Piano-Tastatur.
Damit bin ich relativ gut ausgestattet.
Das heißt aber auch, wenn ich jetzt ein Preset mache, dann mache ich den am liebsten auf dem Osmose,
weil das einfach das genialste Keyboard dafür ist.
Da hast du ja auch schon Osmose-Support quasi direkt reingebaut.
Genau.
Jetzt ist es aber so, jetzt mache ich diesen Preset und jetzt, keine Ahnung,
willst du den vielleicht irgendwie verwenden und bei dir sieht das ganz anders aus.
Du hast jetzt ein klassisches Vier-Oktaven-Keyboard mit Modwheel und du hast vielleicht noch ein Fußpedal.
Das bedeutet, du musst jetzt jeden einzelnen Preset, den ich gemacht habe,
sagen, hier hat der Peter, das ist ja voll scheiße gemacht,
der hat hier von Osmose das Polyphone Pressure genommen, das will ich doch auf Modwheel haben.
Du stellst jetzt alles ein, spielst und denkst, oh ja, das ist ein toller Klang,
gehe ich mal zum nächsten Preset, das ist schon wieder und das nervt total.
Das will man ja nicht und das ist heutzutage, glaube ich, ein zunehmendes Problem.
Auch die Sounddesigner haben ganz andere Geräte als die Leute, die dann hinterher diese Klänge hören.
Deswegen ist die Idee, einmal ganz am Anfang teilst du dem Synthesizer mit,
was sind denn deine drei expressiven Sachen, die du so verwendest.
Das wird meistens Velocity sein, das wird als zweites dann vielleicht Modwheel sein
oder das wird ein Fußpedal sein oder das wird Aftertouch sein oder wie auch immer.
Diese drei Sachen stellst du einmal ein und alle Sounddesigner verwenden diese drei Dinge
in einer einheitlichen Art und Weise.
Das heißt, jetzt kannst du einfach durch alle Presets durchgehen und es ist völlig egal,
auf welchem Instrument ich diesen Klang mal designt habe oder irgendein Sounddesigner,
du kannst diesen Klang mit deinem Setup jetzt vernünftig spielen.
Und deswegen sind diese drei Regler, die da E1, E2, E3, also diese Expression-Regler,
getrennt von den anderen und funktionieren halt auch anders, weil die nicht im Preset gespeichert werden,
sondern weil die für dich als ein Setup gespeichert werden.
Stellst du einmal ganz am Anfang ein.
Ja, ein bisschen global.
Genau.
Und das macht sozusagen, also da gibt es ja unterschiedliche Lösungen vor,
bei manchen Synthesizers ist es dann so, dann gibt es jeden Patch zweimal,
einmal als Nicht-MPE-Version und einmal als MPE-Version.
Aber selbst das funktioniert nicht mehr, weil Roli, dieses Keyboard, verwendet MPE anders als das Osmoser.
Also bräuchte man jetzt schon drei Varianten.
Und noch eine vierte für das Launchpad, weil das hat auch wieder eine andere Art zu arbeiten.
Und eine fünfte für den Push.
Fünfte für den Push und so weiter, und das hört nicht mehr auf.
Sechste für das Linstrument, und wenn jetzt noch irgendwas MPE-mäßiges von Arturia kommt,
hat es noch wieder ein Problem.
Genau.
Ist eigentlich ziemlich genial.
Und die Makros sind dann einfach quasi nochmal so Makros, wie man sie halt kennt, oder?
Die Makros sind Makros, wie man sie kennt, genau.
Aber ich kann die dann halt auch bei mir selbst routen,
sage, okay, ich habe hier vier Makro-Knöpfe, und es ist völlig egal, wo du deine Makro-Knöpfe hattest,
sondern die gehen dann quasi im Global Setting auf meine.
Genau.
Du kannst deine Makros dann nach Belieben sozusagen automatisieren,
in der DAW, wie du das irgendwie haben willst,
oder du kannst sie dir in Ableton routen, oder Bitwig, oder sonst was.
Du kannst sie dir auf irgendwelche Fader von deinem Keyboard legen.
Das machst du einmal, weil das passiert ja gewissermaßen außerhalb von dem Synthesizer.
Und dann, wenn das Preset diese Makros nutzt, hast du sie zur Verfügung.
Also das ist ganz klassisch.
Und diese Idee der Makros hast du aufs Expressive weitererweitert mit den E-Parametern?
Genau.
Das ist schon alles. Sehr, sehr schlau.
Bei diesen E-Parametern gibt es halt so eine Guideline für die Sound-Designer.
Ich habe dieses Mal über zehn professionelle Sound-Designer angesprochen,
die alle für MÜSS Klänge gemacht haben und die auch alle früh involviert waren und Feedback gegeben haben.
Und da gibt es halt so eine Guideline dafür, was man beachten muss,
wie man E1, E2, E3 sozusagen als Sound-Designer, was man dabei berücksichtigen muss,
damit man genau das erreicht, was man will.
Ich programmiere einmal einen Klang oder ich stelle einmal einen Klang mit meinem Setup
und danach übersetzt der sich auf jedes beliebige andere Setup von anderen Menschen.
Das sind auch nur zwei, drei Regeln, die stehen auch im Handbuch.
Das ist jetzt keine Geheimwissenschaft, nichts Kompliziertes,
aber das muss halt auch einmal irgendwo definiert sein.
Und für denjenigen, der den Synth jetzt benutzen will,
um selber für sich damit Klänge zu machen oder Presets zu nutzen,
ist es halt extrem einfach, weil ich stelle einmal an Tag 1 mein Setup ein.
Das dauert zwei Minuten, das dauert zehn Sekunden,
weil im Prinzip für die klassischen Setups gibt es bereits Voreinstellungen.
Da muss ich nur noch sagen, ich habe hier ein klassisches MIDI-Setup oder ich habe ein Osmose
oder ich habe hier ein Roli Seaboard.
Dann kann ich das benutzen und muss mir über nichts mehr Gedanken machen.
Osmose 2 ist was? Ist das irgendein Leak, den wir jetzt wieder mit der Geräte übersetzen müssen?
Nein, das hat nichts mit dem zu tun, mit einem neuen Gerät irgendwie.
Du hast zwei Herangehensweisen gebaut.
Genau, ich habe zwei Herangehensweisen gebaut, denn beim Osmose ist es so,
man hat erstmal die Velocity, wenn man die Tastatur anspielt,
und dann hat man vielleicht einen halben oder einen Zentimeter.
In dem Bereich hat man Pressure.
Wenn man noch stärker die Taste durchdruckt, also kann man, was weiß ich, bis zu drei Zentimeter tief durchdrucken
gegen so einen sehr angenehmen, unglaublich nuancierten Widerstand,
da kommt dann Slide ins Spiel.
Das bedeutet aber auch, es ist sozusagen erst Pressure, dann Slide.
Und bei dem Seaboard sind die Parameter unabhängig.
Und deswegen habe ich noch eine Kombination gewissermaßen gemacht,
die jetzt einfach diesen gesamten Hub der Taste zu einer Modulationsquelle zusammenfasst.
Dadurch habe ich dann die Möglichkeit, auch noch das Modwheel,
also das Osmose-Keyboard hat halt auch noch ein Modwheel,
oder ich kann dann einen alten Fußpedal oder irgendwas nehmen,
dass ich das noch zusätzlich zur Verfügung stehen habe.
Das wäre dann dieses zweite Setup.
Also wer das Osmose hat, der wird das sofort intuitiv verstehen und sich freuen.
Ich übergebe zwischendurch mal an die anderen.
Ich sehe da noch so ein paar kleine Features, aber ich glaube, der Thomas hat die auch schon
bei uns in den internen Chats großgepriesen.
Deswegen gebe ich ihm jetzt mal den.
Das ist so cool.
Was denn?
Erzähl mal, ich weiß jetzt selber nicht, was du meinst.
Einmal mit Profis.
Das sind so ganz viele Kleinigkeiten, die einfach diesen Synthesizer so nett machen.
Das fängt an mit der automatischen Patch-Benahmung auf Knopfdruck,
dass du dir selber keine...
Gerade ich bin halt so ein Typ, ich kann mir keine Namen ausdenken.
Ich bin ganz schlecht darin.
Also wer sich meine Veröffentlichungen anschaut, der wird den Kopf schütteln und sagen,
was denkt sich der Typ da für eine furchtbare Titel aus?
Und das finde ich sehr angenehm, dass mir die Software das abnimmt.
Die andere Sache ist, dass du da eine automatische Versionierung drin hast.
Wenn ich das will, kann ich das versionieren lassen, vollautomatisch.
Dann macht er halt eine Version 2 draus.
Das ist so ein nettes Gimmick.
Das habe ich noch nie so vorher bei einer anderen Software gesehen.
Aber jeder hat das schon mal erlebt, dass man sich irgendwas zerschossen hat.
Ja, auf jeden Fall.
Genau in dem Moment.
Und umgekehrt gibt es ja auch die, die alles automatisch machen.
Und dann ist es so, man macht und dann drückt man und dann macht man und noch mal.
Und irgendwann will man das jetzt wiederholen.
Dann sieht man, ich habe da 73 verschiedene Versionen.
Welches war denn jetzt noch mal die, die ich haben wollte?
Man muss schon beim Abspeichern die Möglichkeit haben zu entscheiden,
will ich es jetzt überschreiben oder will ich es versionieren.
Richtig.
Das sind so Kleinigkeiten, die das Arbeiten mit diesem Synthesizer so angenehm machen.
Ich bin gerade in unserem Slack und ich sehe es hier jetzt wieder weiß auf schwarz vor mir.
Du hast die Wave-Dateienfunktion.
Wo du einfach eine Wave-Datei aus dem Synthesizer exportieren kannst.
Die hast du in sehr großen Tönen, beziehungsweise sehr großen gecaps-lockten Buchstaben gelobt.
Genau, das ist auch noch so ein cooles Fitcher.
Ein Fitcher.
Fitcher und Feature.
Feature-Spinner.
Genau.
Jetzt ist es schon ein paar Tage her, dass ich mir das angeschaut hatte.
Du kannst einfach die zuletzt gespielten Noten mit aufzeichnen und die kann man sich einfach so exportieren.
Genau, weil oft ist es ja so, dass man gar nicht an einem Synth-Sound nur arbeitet,
weil man eine Melodie spielen will oder irgendwas,
sondern weil das ein Schritt ist von einem größeren Sound-Design.
Wo ich sage, jetzt mache ich ein paar Schritte in diesem Synthesizer und danach arbeite ich in dem Programm weiter.
Und dann muss man jedes Mal erst eine Note aufnehmen in der DAW, dann muss ich das recorden,
dann muss ich das zu einem Audio umwandeln und dann kann ich damit weitermachen.
Das nervt total und deswegen die Idee einfach, jetzt hat sich das gerade angehört.
Oder vielleicht will ich es auch expressiv spielen.
Dann spiele ich es einfach fünfmal hintereinander, bis es so geklungen hat, wie ich es haben wollte.
Und dann kann ich das Sample einfach nehmen und weiterarbeiten.
Oder ich kann das Sample nehmen und ich kann es dann als Re-Import wieder in die Iris werfen.
Oder es gibt ja auch noch dieses modale Filter, über das wir gar nicht gesprochen haben.
Das lässt sich ja auch mit einem Sample trainieren und dafür kann man das auch hervorragend nehmen.
Ach guck mal, das haben wir gar nicht entdeckt. Das modale Filter.
Das heißt modal und ist ganz einfach.
Das ist ein Filter, was im Prinzip kann man sich vorstellen wie ein Resonator.
Nur wenn so ein Resonator wie jetzt zum Beispiel...
"Africa Ambient Crystal Glass Handpan Hole Kitchen Aid"
Also, ich erkläre es einmal kurz.
Es funktioniert im Prinzip wie ein Resonator, nur ein Resonator hat normalerweise eine feste Stimmung.
Und bei diesem modalen Filter ist es so, der Key-Trackt automatisch.
Das heißt, ich kann diesen Resonator jetzt anregen mit irgendetwas.
Mit einem Knall oder mit etwas Rauschigem.
Field Recordings gehen total gut, Drum Loops gehen total gut.
Und dann kann ich das aber über dieses modale Filter oder diesen modalen Resonator tonal spielen.
Und das klingt dann halt so wie Physical Modeling.
Nur, dass ich diesen ganzen Scheiß von Einstellungen, das funktioniert nicht richtig und nervt irgendwie,
dass ich den nicht habe.
Und damit man jetzt direkt loslegen kann, sind so ein paar Voreinstellungen dabei.
Das sind die, die du gerade vorgelesen hattest. Das sind einfach Sample-Zieher-Nummern.
Aber der Clou ist eigentlich, ich kann jetzt jedes beliebige Sample nehmen, direkt einen Drop da drauf werfen
und dann wird dieses modale Filter trainiert und lernt aus dem Sample,
welche Resonanzen kommen denn jetzt eigentlich in diesem Sample vor.
Und also für alles, was so, sag ich mal, wie zum Beispiel Vibraphon, Marimba, Häng,
also alles, was so ein bisschen perkussiv ist an akustischen Instrumenten, funktioniert das ganz toll.
Und weil man was bekommt, was sich dann auch super organisch spielen lässt.
Ich bin gerade ein bisschen sprachlos.
Ich bin vor allem deswegen da, dass mir das entgangen ist.
Ja, und der Punkt ist, andere würden das entwickeln.
Dieses kleine Modulchen hier würden eine schöne Oberfläche drumherum bauen
und ihre Marketingfuzzis drei Monate lang darauf masturbieren lassen.
Du packst das irgendwo so in deine Filter-Sektion,
dass drei Leute, die sich das Ding willig anschauen, das komplett übersehen.
Hör zu, das Geile ist, du kannst das denn ja auch noch im Stereofeld,
also du kannst das entweder auf dem linken oder rechten Kanal oder halt aufs Stereofeld packen,
diese Modalfilter. Und wenn du die Root-Funktion benutzt,
unterschiedliche Modalfilter-Einstellungen benutzen für jeden Kanal eigen.
Und hast dadurch eine unglaubliche Sound-Design-Möglichkeit,
weil du damit dann noch organischere Klänge bauen kannst.
Ja, und du kannst zum Beispiel, klassisch würde ich es jetzt so machen,
ich würde Distortion davor packen, und das würde ich dann zum Beispiel
auf Velocity oder Pressure oder so legen, damit die Distortion sozusagen etwas krasser wird,
wenn ich stärker zulange. Dadurch wird dann der Resonator stärker ins Schwingen gebracht
und du kannst dann hinter dem Resonator dir dann zum Beispiel noch so ein Orbit-Modul
oder ähnliches hin tun, um das Ganze jetzt wieder so ein bisschen synthetischer klingen zu lassen.
Und damit kriegst du das Beste aus allen Welten, weil du im Prinzip jetzt etwas hast,
was sich einerseits so anfühlt wie so eine Hand-Drum oder wie ein Hang,
und was aber auf der anderen Seite dir auch in den Bereich synthetischer,
analog, warm klingender Wellenform irgendwie geht. Also das sind halt auch Sachen,
wo man noch viel ausprobieren kann und rumspielen.
Die ist so, sag ich jetzt mal, also bestimmt gibt es das wieder irgendwo und schon 1950
in der Sowjetunion im nächsten Heinbach-Video, aber es ist nicht so das Klassische,
was man jetzt immer überall schon tausendmal gehabt hat.
Also nochmal, liebe Zuhörer, wenn euch jetzt auch der Kopf explodiert ist
vor lauter Möglichkeiten, die sich dadurch eröffnen, dann könnt ihr mich vielleicht
jetzt ein bisschen verstehen.
Also ich spiele ja, mein eigentliches Instrument, was ich gelernt habe,
ist ja Fagott und Kontrafagott. Und natürlich hat so ein Instrument
einen relativ engen Spielraum, aber es ist trotzdem auch so, dass man sein Leben lang lernt
und neu dazulernt und neue Fähigkeiten entwickelt und so.
Und man baut halt über viele Jahre so eine Beziehung auf zu einem Instrument.
Und das ist auch so ein bisschen was, was ich vielleicht als so ein Ideal anstrebe,
dass so ein Synth nicht so was ist wie "Oh, es gibt einen neuen Synth, den probiere ich mal aus".
Zwei Wochen später "Oh, es gibt einen neuen anderen Synth" und dann geht man dahin.
Ich meine, das ist auch okay, aber und man kann "müß" auch gerne so benutzen,
aber "müß", das war jedenfalls mein Wunsch, soll auch schon die Tiefe haben,
dass man auch nach einem halben Jahr, das man sich damit beschäftigt, noch neue Sachen entdeckt.
Und zwar auf eine spielerische Art und Weise.
Und ich muss nicht alle diese Sachen verstanden haben, ausprobiert haben,
damit ich einen guten Klang machen kann. Ich kann von Anfang an tolle Klänge machen,
aber ich werde auch nach drei Monaten noch irgendetwas entdecken, was ich vorher noch nicht gesehen habe.
Also mir ist das Modal-Modul total an mir vorbei gegangen,
weil ich konnte mir da echt nichts darunter vorstellen, was das sein soll.
Und da habe ich es gar nicht ausprobiert. Ich habe mit dem Zufallsgenerator geschrumm gespielt.
Ja, Peter, da haben wir mal Negativpunkte gefunden.
Der Erklärungstext ist auch sehr sparsam, da steht einfach nur "Immodal Filter".
Ist das alles?
Ja, mehr steht da nicht. Okay, wir haben die Version 1.0.1.
Also ich habe ja auch das Handbuch bei ShedGBT reingetan und habe ein GBT gebastelt
und habe dann Fragen gestellt. Und selbst da wurde mir dann nicht erklärt, was das ist.
Du Fuchs, du hast ShedGBT trainiert, um dir Fragen zu beantworten.
Ja, ich habe das für einige Sachen schon gemacht.
Ich habe sämtliche Handbücher reingeschmissen, die ich so habe und andere Sachen.
Er hat sämtliche Kochbücher reingeschmissen, die er so hat.
Das stimmt zwar, ich habe das gerade mal ausprobiert,
er sagt tatsächlich nur "Immodal Filter", da könnte man vielleicht noch mal mehr dazu sagen,
aber bei jedem Knopf, über den man geht, erzählt er dann ja schon noch ein bisschen mehr.
Ja, aber das erschließt sich jetzt erstmal so nicht.
Man muss wirklich in die Anleitung schauen, um dann die Funktionen auch wirklich zu begreifen.
Ja, oder man macht das Tutorial.
Damit es auch erklärt.
Oder, also es wird halt auch noch eine ganze Menge, die sind jetzt gerade am Entstehen,
ganz kurze, knackige, zwei Minuten Videos, die so verschiedene Aspekte zeigen.
Wie kann ich jetzt zum Beispiel aus einem einfachen Klang, den ich jetzt auf der Mandoline geschirmt habe,
wie kann ich daraus jetzt zum Beispiel ein Pad machen.
Und die Videos sind so aufgebaut, dass sie einerseits jeweils dann so eine Sache erklären,
aber nebenbei lernt man dann immer auch eine bestimmte Sounddesign-Technik
oder etwas Spezielles irgendwie so kennen.
Das heißt, da hat man dann auch so kurzweilige Videos, die man sich dann einfach mal so nebenbei ein bisschen angucken kann,
um noch die Sachen einfacher zu verstehen.
Eine Sache, die mir auch ganz gut gefallen hat, die möchte ich hier auch nochmal herausstellen,
als ein leuchtendes Beispiel, liebe Entwicklergemeinde von Software Synthesizer,
da dürft ihr euch gerne eine ganz, ganz dicke Scheibe von abschneiden.
Und zwar ist das das Responsive Design.
Das heißt, du hast unten an dem Software Synthesizer ein Versteller, rechts unten,
wo du das Fenster groß und kleiner machen kannst.
Der gesamte Bildschirminhalt zoomt automatisch.
Ich muss nicht erst durch irgendwelche Menüs mich durchklicken, um die Zoom-Funktion zu finden.
Das ist gerade für solche Leuten mit schlechten Augen wie mich, aber guten Ohren,
dafür bin ich sehr dankbar, dass da mal ein Entwickler mitgedacht hat.
Dankeschön, Peter. Das ist eine Kleinigkeit, aber die ist so wichtig, wirklich.
Ich muss zu meiner Schande gestehen, dass zwar können diese Skalieren alle meine Plugins von Anfang an,
aber diese Problematik von Menschen, die in irgendeiner Form vom Sehen eingeschränkt sind,
die war mir bei meinem ersten Plugin auch noch nicht richtig bewusst.
Mittlerweile habe ich zwei Beta-Tester, die beide, also jeder eine sehr unterschiedliche,
aber sehr stark ausgeprägte Visual Impairment haben.
Und die geben mir dann auch ganz viele Rückmeldungen.
Das heißt diesmal bei der Auswahl des Zeichensatzes, bei der Auswahl der ganzen Kontraste
und wie groß die Elemente sein sollen usw., da haben die mir dann jeweils die Rückmeldungen gegeben,
damit sichergestellt ist, dass man das auch bei schlechter Beleuchtung,
wenn die Augen vielleicht schon ein bisschen müde sind oder dann nicht so gut gucken kann,
dass man da nicht in die Situation kommt, es ist jetzt irgendwie gar nicht mehr abzulesen oder ähnliches.
Das finde ich auch ganz toll.
Leute mit Rot-Grün-Schwäche werden auch immer gerne vergessen. Hallo Elektron!
[Lachen]
Das musste sein, das musste sein.
Mein Sohn ist elf Jahre alt, der ist jetzt noch nicht der perfekte Beta-Tester,
aber der hatte halt auch eine Rot-Grün-Schwäche und der guckt mir regelmäßig über die Schultern
und kommentiert dann auch irgendwie und deswegen habe ich zumindest das auch mit auf dem Schirm.
Ja, und ich sag mal so, ich bin stark kurzsichtig und ich komme jetzt in ein Alter,
wo auch die Weitsichtigkeit einsetzt, ich bin doppelt gehandicapt.
Das ist gemein, ne? Ich dachte auch immer, ich habe eine gewisse Kurzsichtigkeit.
Das ist sehr gemein.
Irgendwann werde ich alt, da wird man ja weitsichtig, das heißt zwischendurch muss ich mal
irgendwann normalsichtig sein und das war eine herbe Enttäuschung, als mir das erklärt wurde.
Vergiss es. Du kannst einfach dann ohne Brille besser gucken als mit Brille.
[Lachen]
Ja, also Tobi, hast du noch Fragen?
Also ich hätte noch einen größeren Kontext. Also falls wir noch irgendein Rumgenörde machen wollen
auf der Oberfläche von MIV, dann würde ich das vorher machen und dann…
Also mich würde nochmal die Engine interessieren, was tatsächlich bei der Re-Synthese…
Re-Synthese kenne ich von dem Hartmann Neuron. Das war ja auch ein Re-Synthesizer,
dem man halt auch Sample-Material…
Hat nur keiner verstanden, wie das Ding funktioniert.
Hat nur keiner verstanden, wie das funktioniert.
Ja, also es ist ein Re-Synthesizer und weil die Leute wie ein Re vor einem Auto davor gesessen haben…
[Lachen]
Hat sich auch nicht so gut verkauft. War aber eigentlich für die… wann war das?
Ende der 90er oder Anfang der 2000er?
Anfang der 2000er war es, glaube ich.
Ich glaube Anfang der 2000er, der Nullerjahre. War ziemlich innovativ für die damalige Zeit,
aber die Rechenpower war noch nicht da.
Ich habe als kleines Kind damals so Keyboard-Zeitschriften, die manchmal zur Musikmesse…
Achso, da noch der Musikmessebericht 20 Seiten lang war.
Da war halt immer so, ja, Hartmann Neuron, jetzt aber wirklich.
Jetzt aber wirklich. Er funktioniert sogar.
Oh, man hat ihn an- und ausgeschaltet und er ist nicht abgestürzt.
Großer Non-Lehrer.
Die Frage, die ich habe, Peter.
Ja.
Du hast es eben gesagt, in der Anleitung, und du hast es auch eben vorhin eingangs nochmal erklärt.
Grundlage ist für die Re-Synthese ein FM-Synthesizer, richtig?
Ne, ist nicht richtig. Das war mal die Ur-…
[Lachen]
Also die Ur-Idee war, einen FM-Synthesizer zu bauen.
Genau. Ein ganz kleinen, einfachen FM-Synthesizer, der aber die Möglichkeit hat,
sozusagen ein Sample zur Inspiration zu nehmen.
Und daraus ist dann irgendwann das hier geworden.
Und deswegen hat sich auch die Planung halt…
Also ursprünglich hatte ich, glaube ich, vier Monate oder so vorgesehen,
und jetzt sind es 18 geworden.
Wow, okay.
Also das…
So, und…
Was war jetzt eigentlich deine Frage? Sorry.
Meine Frage war, der Kern dieser Re-Synthese, wie funktioniert die?
Sind das jetzt…
Sind da Machine Learning Algorithmen, die einfach eine stumpfe Analyse machen
von dem Ausgangsmaterial anhand von Frequenz und, ich sag mal, Amplitude?
Und dann versucht das anhand der vorhandenen Synthese-Engine einfach abzubilden
auf vier Operatoren oder Oszillatoren?
Oder wie, wenn du es verraten möchtest, natürlich.
Ja, klar. Da mache ich keine Handelsfraß.
Also, tatsächlich, das funktioniert über Machine Learning.
Und die Klangerzeugung ist gewissermaßen…
Man hat vier spezielle Oszillatoren, die haben jeweils so in der Größenordnung 2000 Parameter.
Und die können jeden beliebigen statischen Ton machen.
Also, das heißt, die können einen Ton machen, der sich nicht über die Zeit verändert.
Aber von diesen Tonen, die es gibt auf der Welt, die jetzt wirklich statisch sind,
kann er jeden einzelnen Ton machen.
Wow, okay.
Und von diesen Oszillatoren gibt es vier.
Und die, wenn da jetzt also was abgespielt wird über die Zeit,
haben jeder eine Höhlkurve, nur für die Lautstärke, mit, jetzt nichts Falsches sagen,
ich glaube, bis zu 500 Punkten.
Also, nichts, was man per Hand editieren möchte.
So, und das Machine Learning nimmt jetzt das Sample und sagt,
okay, wie kann ich das Sample jetzt am allerbesten approximieren,
wenn ich vier statische Klänge habe, die im Laufe der Zeit in ihrer Lautstärke variieren können,
unabhängig voneinander.
Das heißt, das Synthesemodell gibt gewissermaßen die Einschränkung vor
und der Algorithmus ist speziell darauf hingebaut, dass er das dann entsprechend optimieren kann.
So, und weil jetzt natürlich kein Mensch Lust hat, tausende Parameter da drin rumzuschrauben
und das auch nicht sinnvoll wäre, gibt es dann so ein paar High-Level-Parameter,
wie man jetzt zum Beispiel zwischen diesen vier Oszillatoren hin und her blenden kann,
damit man andere Signalbestandteile bekommt.
Das ist jetzt auch wieder was, was man schwer in einem Podcast erklären kann,
was man aber relativ einfach versteht, wenn man zum Beispiel ein Drumloop
oder das Wort Probe-Pop, ich kann es nicht aussprechen, Probe-Podcast,
wenn man dieses Wort zum Beispiel aufnimmt und dann einfach da reinwirft und dann da dran dreht,
dann versteht man sofort, was passiert.
So, jetzt haben wir ganz viel geredet.
Eigentlich wäre es doch jetzt mal Zeit, so ein Klangebeispiel,
so eine kurze Demo hier mal reinzuwerfen, damit dann die Zuhörer einfach mal auch einen Eindruck kriegen,
wie sich das dann nachher im Endergebnis, sozusagen im Mix anhört.
Ich habe schon gedacht, ihr fragt gar nicht mehr.
[Musik]
[Musik]
[Musik]
[Musik]
[Musik]
[Musik]
[Musik]
[Musik]
[Musik]
[Musik]
[Musik]
[Musik]
[Musik]
Ja.
Ja, dazu sind vielleicht zwei Sachen zu sagen.
Das eine ist, dass alles, was man jetzt gerade gehört hat, ist halt mit Mist gemacht.
Also jedes Instrument, auch die Snare, die Geräusche, da ist jetzt nicht irgendein anderes Drumloop oder irgendwas.
Und alles sind Presets, die da mitgekommen sind.
Also da hat jetzt auch nicht einer noch 150 Stunden dran getüftelt, jetzt da noch die tollsten anderen Klänge zu machen.
Das ist das eine. Und das andere ist, man kann jetzt schlecht in einem 90-Sekunden-Demo
die Klangvielfalt, die möglich ist, gut abbilden.
Da muss man ein bisschen aufpassen, dass man nicht denkt, ach so, das ist so ein Synthesizer,
mit dem kann man jetzt also solche Lead-Sounds machen, die sich so ein bisschen gitarrig anmachen.
Das wäre so ein bisschen ungerecht.
Das kann man, man kann aber auch noch tausend andere Sachen machen.
Also zum Beispiel Abyss ist ja ein Synthesizer, den ich schon speziell gemacht habe im Hinblick auf Drones und Pads und solche Sounds.
Da kann man auch andere Sachen machen, aber es ist schon ein bisschen darauf spezialisiert.
Müss hingegen, hat diese Spezialisierung nicht, Müss ist dafür gedacht, damit nach belieben Instrumente machen zu können.
Ich hatte eigentlich gehofft, wir haben ja sehr viel über Module gesprochen,
und dass man halt die auch beliebig verschalten kann, dass die Zuhörer dann auch den Eindruck gewonnen hatten,
dass das natürlich, wenn wir jetzt so ein Klangbeispiel bringen,
dass das natürlich dann nur ein einziges von unendlich vielen Möglichkeiten ist,
wie man mit Müss Klänge gestalten kann und Sounddesign machen kann.
Also für mich ist das wirklich ein Modulbaukasten, mit dem man wirklich sehr interessante Klänge machen kann.
Und man kann einfach, wie du schon sagtest, auch in zwei Jahren, drei Jahren, vier Jahren immer noch wieder neue Sachen entdecken.
Und ich glaube, du wirst ja sicherlich auch nicht nur bei dieser Version 1.01 bleiben,
wird es da sicherlich auch noch neue Module irgendwann geben,
was die Community vielleicht auch so an Ideen vielleicht auch nochmal vorschlägt?
Ja, also da gibt es eine lange Liste, was es so an Ideen gibt dafür.
Und da habe ich mir auch so überlegt, dass es ja vielleicht cool wäre, gelegentlich ein Update zu machen,
wo man dann ein oder zwei neue Module, mit diesen ein oder zwei Modulen,
dann vielleicht auch, was weiß ich, 20, 30 Presets, die zeigen, wie man diese Module jetzt mit den anderen kombinieren kann,
was man daraus machen kann, plus so ein kleines Minitutorial,
was einem auch einmal zeigt, wie man das am geschicktesten verwenden kann.
Weil so hat man dann einen Synthesizer, den man einmal kauft,
wo man dann aber doch immer wieder was Neues geboten bekommt,
wo man die Palette dann wieder erweitern kann,
oder wo man vielleicht auch seine alten Klänge nimmt und sagt,
okay, da packe ich jetzt nochmal dieses Modul da mit rein
und bekomme wieder noch einen anderen Klang aus dem Preset, den ich vor drei Monaten gemacht habe.
Hast du das MÜV deswegen auch auf der Webseite so prominent platziert?
War es eine Entscheidung nach dem Motto, ja, das ist halt das Aktuellste?
Oder hast du das gemacht im Sinne dessen, dass das jetzt so ein bisschen,
wenn ich es jetzt mal mit den Heckmann-Sachen vergleiche,
da gibt es halt auch Zebra, das ist das absolute Monster,
und dann gibt es halt die normalen Synthies, sag ich mal.
Siehst du das jetzt so ein bisschen in diesem Vergleich, das quasi MÜV,
jetzt will ich so ein bisschen, das Überplugin ist, und der Rest so rumfliegt?
Das Flaggschiff.
Das Flaggschiff, genau. Oder ist es einfach so,
das ist jetzt halt mal das, was mir gerade aus dem Kopf gefallen ist,
und ich betrachte das jetzt als gleichwertig.
Oder würdest du sagen, es ist ein Schritt weiter wohin,
in eine andere Richtung mit einer anderen Mission?
Alle Sachen, die du gefragt hast, treffen zu.
Es ist aus meiner Sicht schon ein Flaggschiff-Synthesizer.
Von dem, was ich bisher gemacht habe, ist es das Aufwendigste.
Und auch das, was ich sage, in dem Spektrum, was man damit machen kann,
wie das Allerweiteste.
Nichtsdestotrotz sind die Synthesizer, die ich vorher gemacht habe,
dadurch nicht obsolet.
Ich kann mit KULT Sachen machen, die ich mit MÜV jedenfalls nicht so mühelos machen kann.
Oder auch mit NOVUM kann ich auf eine Art und Weise mit Samples arbeiten,
die funktioniert so in MÜS nicht.
Da habe ich nicht das Gefühl, das eine umfasst jetzt all die anderen Sachen,
sondern da steht es schon daneben.
Und dann ist es so, ich habe sehr viel Gedanken darüber gemacht,
wie dieses Modulationssystem funktioniert,
wie man das mit den Modulen machen kann,
oder mit diesem Pedalboard, damit man keine Kabel braucht,
und es übersichtlich ist und so weiter.
Auch sehr viele Gedanken darüber, wie das User-Interface funktioniert,
dass es einerseits unendlich viele Möglichkeiten gibt
und andererseits man nicht das Gefühl hat, man ist jetzt total lost,
weil man überhaupt nicht mehr versteht, wo oben, unten, rechts und links ist.
Und die Idee ist, der Synthesizer, der nach MÜS kommt,
wird im Prinzip dieses UI-Konzept beibehalten
und wird das Modulationskonzept beibehalten,
das Konzept mit dieser Expressivität.
Und das heißt, ganz viel von diesem Rahmen drumherum wird erhalten bleiben,
und nicht nur für den nächsten, sondern auch noch für den danach.
Das heißt, es wird irgendwann drei Synthesizer geben,
die von, sage ich mal, diesem User-Interface-Konzept,
wenn man einen kennt, findet man sich sofort in den beiden anderen zurecht.
Und dennoch werden die von dem, was sie klanglich machen
und wie man damit arbeitet, drei unterschiedliche Planeten.
Sagt der Mann, der einen kleinen niedlichen FM-Synthesizer hat.
Ich meine halt nur, weil ich mag eigentlich den Aspekt,
den du dir gerade als Indie-Entwickler, das hast du ja auch schon beim letzten Mal erzählt,
dass du es dir halt erlauben kannst, nicht zu sagen,
okay, das mache ich jetzt irgendwie so zusammengehörig, etc.
Weil als ich das gesehen habe, habe ich auch gedacht,
hm, FM-Synthesizer, so ein bisschen was von Abyss, hä?
Ja, nee, das ist so ein bisschen Ausgewachsenheit.
Ich habe halt drei Tage unter Thomas gebraucht,
um festzustellen, dass das ein Sampler ist.
Ja, ich habe es live...
Das ist kein Sampler, das ist ein Resynthesizer.
Ich habe es live mitgelesen und ich musste so schmunzeln.
Ja, das war witzig.
Ich habe ihm erzählt, du kannst einfach Samples reinladen.
Und er so, was?
In Caps Lock und Fettschrift.
Tobi ist halt, ich glaube, kein Sounddesign-Mensch,
aber du bist begnadet in der Anwendung von dem, was du denn da am Start hast.
Ich bin halt einfach Sounddesign-Mensch in dem Sinne,
dass ich alles veraufmache und wieder zumache,
um eine Effektkette zu bauen.
Das ist meine Art Sounddesign zu machen.
Oder ich habe irgendeinen Sampleschmeißer...
Dafür kannst du Schlagzeug spielen, Gitarre, Klavier
und ich glaube noch irgendwie so ein paar andere Instrumente.
Das kann ich zum Beispiel nicht.
Aber tatsächlich ist das ein bisschen auch die Zielgruppe.
Also eine Zielgruppe sind natürlich die Leute, die jetzt gerne rumtüften.
Aber die andere Zielgruppe sind tatsächlich die, die sagen,
eigentlich möchte ich nur Presets benutzen
und ich möchte vielleicht an den Presets noch ein bisschen rumschrauben.
Und für die, sozusagen, möchte ich es möglichst einfach machen.
Ich habe ja vorhin schon mal diesen Workflow beschrieben,
wo man dann dieses Freeze verwendet und sein eigenes Sample.
Und dann hat man diese Möglichkeiten.
Deswegen gibt es auch diesen Preset-Browser,
mit dem man sich so Selektion wählen kann nach verschiedenen Texten.
Und es gibt zum Beispiel dieses Breed, also Brüten,
dieses Küken-Feature. Ich weiß nicht, ob ihr euch das schon angeguckt habt.
Mit diesem niedlichen Ei-Logo da, ja.
Genau, und da ist halt die Idee...
Absolut großartig.
Man kann sich jetzt erstmal eine Auswahl von Klängen zusammenstellen
über diesen Preset-Browser, wo man sagt,
okay, ich möchte Pad-Sounds haben.
Meinetwegen dürfen die auch ein bisschen plucky sein,
also nehme ich mal auch solche mit dazu.
Sie sollen aber eher dark klingen und ein bisschen dreckig.
So, dann habe ich so eine Vorauswahl.
Dann sind da, was weiß ich, jetzt habe ich 74 Presets gefunden,
auf die das zutrifft.
Und dann kann ich Breed drücken, also auf dieses kleine Küken.
Und der tut jetzt so, als wäre jedes Preset quasi ein Gen
und fängt jetzt an, die miteinander zu rekombinieren.
Und erstellt jetzt aus dieser Auswahl, die ich vorher getroffen habe,
jetzt gewissermaßen ein Zombie-Preset.
Das heißt, ich habe so eine Art Luxus-Zufallsgenerator,
weil der nicht irgendwelchen absurden Kram,
der nicht zusammenpasst, macht,
sondern der baut jetzt Bestandteile zusammen aus Klängen,
die schon in die Richtung gehen, was ich gerade irgendwie suche.
Das heißt, ich kann Zufall auch so ein bisschen gezielt einsetzen.
Und auf diese Art kann man dann halt sich sehr schnell,
also in fünf Minuten kriegt man 20 oder 30 Presets,
mit denen man brauchbar arbeiten kann und die es halt so noch nicht gegeben hat.
Die halt dann auch nicht der Nachbar in seinem Song auch verwendet.
Oder Christoph van Dalen.
Da kommt man wieder zum Anfang zurück zu kommen.
Haben wir das überhaupt on-stream schon gesagt?
Oder war das Copyright-Geschenk noch außerhalb?
Ich glaube, das war noch außerhalb.
Okay, anyway.
Aber es ist eine gute Überleitung zu meiner nächsten Frage,
weil die schweben mir jetzt schon eine ganze Weile im Kopf.
Du hast es gerade sehr schön angesprochen mit dem Machine Learning.
Die Entwicklungen im KI-Bereich.
Also ich weiß noch, wie wir letzten August darüber noch so ein bisschen,
also wir haben es schon ernster genommen.
Du wahrscheinlich noch mehr als wir, weil du einfach seit 20 Jahren im Bereich arbeitest.
Aber jetzt die letzten Tage, es ging recht gut ab,
als Thomas hier einen, wie hieß dieser,
Also wir haben, ich habe,
das ein Schnipsel nach dem anderen gepunstet.
Auf Gear News ging vor ein paar Tagen und auch auf Amazona und anderen Kanälen
ging halt Zuno AI über die Kanäle.
Ich habe mich da einfach mal spontan angemeldet und habe mir,
man kann ja fünf Songs kann man ja da kostenlos erstellen mit seinem Test-Account.
Und ich bin fassungslos.
Ich bin fassungslos und ich würde mal sagen, so Gebrauchsmusik,
so Fahrstuhlmusik oder Werbejingelmusik braucht man heutzutage nicht mehr komponieren.
Also da braucht man keine Musikproduzenten mehr für.
Das kann die KI ohne Probleme.
Oder so ein Standard-Rap-Song oder so.
Den Standard-Kram in der Hitparade, das macht hier die KI mittlerweile.
In handwerklich anspruchsvoller Qualität.
Ist es wirklich? Ja, und das ist jetzt der Wendepunkt.
Ja genau.
Weil bisher war es so, dass alles, was da rauskam von der Klangqualität,
von der handwerklichen Qualität einfach echt zu wünschen übrig ließ.
Und jetzt ist es so auf dieser Qualität von 128 Kb/s MP3.
Man hört es noch so ein bisschen hier und da.
Der Sänger lispelt vielleicht ein bisschen.
Ja, oder die Texte sind manchmal ein bisschen komisch und so.
Aber zum Beispiel die Texte kannst du ja selber vorgeben.
Die musst du nicht autogenerieren lassen.
Und was ich erstaunlich fand bei den Texten,
auch wenn die inhaltlich vielleicht ein bisschen komisch sind,
wie gut er das mit dem Versmaß hinbekommt.
Absolut.
Und mit der Phrasierung und so.
Da merkt man schon, die Sachen greifen jetzt.
An den richtigen Stellen auch ein Chor einzusetzen.
Und die Dynamik von dem Ganzen.
Also ich habe damals auch gespielt.
Und das ist erst V3?
Das ist V3.
Wer weiß, was die mit V3.5 machen.
Genau.
Das heißt, wir sind jetzt an einem Punkt,
wo es sehr schwer wird zu unterscheiden,
wenn es sich in den Grenzen eines bestimmten Genres bewegt,
wo es Vorbilder gibt.
Kann man jetzt halt Musik erstellen innerhalb weniger Minuten,
wo es dem durchschnittlichen Hörer
und ich würde mal sagen in einem halben Jahr
auch dem Expertenhörer sehr, sehr schwer fallen wird,
zu unterscheiden, hat das jetzt jemand gemacht,
der sich auskennt?
Oder hat das jetzt jemand in fünf Minuten
mit der AI zusammengestöpselt?
Ja, genau.
Ich denke jetzt, und Sascha wird gleich lachen,
ich denke jetzt, Kevin MacLeod ist arbeitslos.
Das hätten wir vor 15 Jahren gebraucht,
bevor absolut jeder das immer gleiche Gedudel
unter seine YouTube-Videos geklatscht hat.
Mit immer dem gleichen Text.
Hatte der überhaupt Text?
Nee, der hatte keinen Text,
aber du musstest in der Beschreibung
ihn immer namentlich nennen.
Ja, genau, weil es Creative Commons war.
Das hat damals alle vereint.
Später waren es ein paar Sachen aus der YouTube-Audiolibrary,
die mal angeboten haben,
das darf ich immer noch tun.
Aber das sind jetzt schon andere Zeiten.
Aber tatsächlich, da gebe ich dir recht,
die Fahrstuhlmusik, die ist über kurz oder lang.
Sind die Macher der Fahrstuhlmusik oder auch alles,
was Gebrauchsmusik ist, brauchst du nicht mehr produzieren.
Die Leute, die so etwas gemacht haben,
sind jetzt arbeitslos, auf den Schlag, wirklich.
Also die Leute, die Leute, die den Lo-Fi-to-Study-and-Relax gemacht haben,
die haben gut getan, wenn sie jetzt die letzten paar Jahre,
wo sie großen Erfolg damit hatten,
wo sie in etwas investiert haben,
wo der Finanzmarkt vielleicht noch ein Moment gnädiger sein wird.
Das ist ja auch alles super volatil inzwischen.
Aber was ich mir halt denke, ich sehe es...
Oder Ballermann-Hits, das kannst du auch vergessen.
Das ist vorbei.
Nee, da bin ich mir eben gerade wieder nicht sicher.
Doch, das Ding macht ja auch Ballermann-Hits.
Ja, natürlich macht es Ballermann-Hits.
Macht es, aber du brauchst einen Künstler dafür,
denn Ballermann-Musik lebt davon,
dass alle das gleiche Stück kennen.
Und das hat ja...
Wenn dieses Ding einen Ballermann-Song für dich macht
und einen Ballermann-Song für mich und einen für Tobi,
dann können wir drei das nicht zusammen besoffen schmettern.
Also die Zuhörer hören jetzt mal weg.
Ich habe eine ganz tolle Geschäftsidee.
Lass uns doch eine Webseite bauen,
wo wir die Suno AI als API anbinden
und einfach die Leute für den Einwurf von,
sagen wir mal, für drei Euro,
kriegen sie einen individuell für sie geschaffenen Geburtstags-Song.
Für die Oma oder so was.
Aber sie kriegen alle den gleichen vom Machwerk her.
Wir tauschen zwei Parts Text aus
und dann können sie ihn alle zusammen mitschmettern.
Richtig, das machst du über ein Formular,
dann können sie dann ihre Daten eingeben
und zack, schon, jeder kriegt dann denselben Geburtstagssong.
Du musst auch nur einmal den Song bauen
und jeder muss einfach nur glauben,
der wäre gerade exklusiv für ihn.
Vor allem, wir können das in 300 Sprachen machen,
in 196 Ländern anbieten.
Wie geil ist das denn?
Ja gut.
Ich stelle mir gerade vor,
"Happy Birthday to you" auf Serbo-Kroatisch.
Ja, aber viel Spaß mit der chinesischen Firewall.
Nein, aber weißt du,
"Happy Birthday" ist Copyright-geschützt.
Stimmt, du hast recht.
Da müsste man natürlich ein bisschen kreativer werden.
Ja.
Aber ihr versteht, was ich meine?
Ja, natürlich.
Du kannst das für neue Geschäftsmodelle,
könnte man das jetzt nutzen?
Also das wäre jetzt da,
ich bin mir sicher, dass sie das auch als API anbieten.
Man kann es auch für alte Geschäftsmodelle nutzen.
Also wie gesagt, ich glaube,
Max Martin kann sich jetzt theoretisch einkoden vor Angst.
Eine Taylor Swift im Prinzip auch,
aber jetzt kommt der Punkt.
Und ich sage das mit dem Hinblick eines 1975-Konzertes
vor ein paar Wochen im Hallenstadion.
Zuno AI hat nie ein Auto auf der Rückbank gefickt,
hat nie Heroin genommen,
hat all diese Sachen, die wir quasi popkulturell,
zumindest voraussetzen,
zu glauben, dass sie der Künstler irgendwo durchlebt hatten.
Du kannst diese Gefühle nicht an einen Algorithmus koppeln.
Ja, das fehlt.
Naja, und die Projektionsfläche fehlt.
Ein Künstler, also...
Ernsthaft, guckt euch mal um,
was da in der K-Pop-Szene los ist.
Da hat ja auch hier,
das ging doch auch vor ein paar Monaten durch die Kanäle,
oder vor ein paar Jahren sogar schon,
dass da virtuelle Stars,
da Plattenvertrag von Universal genommen wurde.
Mittlerweile haben sie den wieder rausgenommen,
war wahrscheinlich zu früh,
aber es bietet sich an, das jetzt wieder reinzunehmen.
Aber die virtuellen Stars,
die sind nicht entstanden, weil man Geld sparen wollte
oder weil man es sich einfacher machen wollte.
Es ist sogar sehr viel mehr Arbeit dahinter,
hinter den Kulissen, um diese virtuellen Stars,
um diesen Content zu produzieren.
Das Problem, was man hatte, war,
dass die realen Stars irgendwann älter werden,
dass die irgendwann anfangen,
vielleicht einen Partner haben zu wollen.
Und das macht die Fanbase nicht mit.
Oder komische Ansprüche stellen,
mehr Gage wollen oder sowas.
Genau.
Und das heißt, da war dann eine ganze Gruppe von Experten dahinter,
die genau daran gearbeitet haben,
dass diese virtuellen Stars diese Projektionsfläche bieten können.
Und das ist ja auch überhaupt nichts Neues.
Hatsune Miku, das ist doch irgendwie 15 Jahre alt, das Phänomen.
Und die Gorillas sind bald 30 Jahre alt.
Aber bei den Gorillas sind ja nur Avatare.
Dahinter stecken ja echte Menschen.
Bei Miku war ja der erste Versuch von Yamaha,
synthetische Gesang darzustellen.
Nee, nee, nee.
Vocaloid gab es ja vorher schon.
Das Problem war einfach, dass die damals,
das war einfach der schöne Umstand,
dass die sich plötzlich gecrushed haben auf eine Zeichnung,
auf eine Verpackung, einer bestimmten Expansion.
Genau, das war eine Extension.
Wie gesagt, meine Freundin hat ein Rap-Lied gemacht.
Und ich hab den Text genommen und hab den auch bei Subo reingeschmissen.
Und hab dazu halt einen Prompt geschrieben.
Und das Ding hat natürlich perfekt das Ding ausgespuckt.
Das war ein perfektes Rap-Ding.
Und dann hab ich gesagt, mach mal so einen anderen Stil.
Und dann hat er das Lied genommen und hat daraus eine Ballade gemacht
oder so einen schmusigen Kuschelsong.
Und erstaunlicherweise hat das jedes Mal funktioniert.
Mhm.
Das ist krass, ne?
Ja, aber du hast immer noch keine Projektionsfläche.
Und ich glaube halt, weil wir jetzt am Punkt sind,
wo wir, ich denke, wir waren mit der Playlistisierung,
mit Spotify und all den Entwicklungen im Internet und so,
in den letzten Jahren, waren wir durchaus mal für einen Moment an einem Punkt,
wo wir tatsächlich die Musik für sich sprechen lassen konnten.
Also ich kenne Leute, die feiern Songs ab, also Kids,
sie bezeichnen das halt ihre Lieblingssongs.
Und die kennen weder den Künstler noch das Album, die kennen das Cover.
Und die wissen halt, wo sie es gespeichert haben.
Die wissen vielleicht auch, wer der Songer ist, oder?
Und der Künstler ist völlig losgelöst vom Song.
Und der Song wird autark betrachtet.
Ich denke, in meiner Zeit hat das schon so ein bisschen angefangen,
weil ich direkt halt quasi so 10 wurde,
als das Web 2.0 gerade so am Starten war, so um 2.5 rum.
Aber ich denke, gerade bei euch, also Thomas, Sascha,
bei Peter will ich das Alter jetzt nicht mutmaßen,
aber gerade die, die halt noch aus einer sehr Rockstar-dominierten Zeit kommen,
wo du halt wirklich quasi das ganze Produkt
auch an eine Projektionsfläche, an einen Künstler gekoppelt hast.
Ich denke, das war eine Zeit lang, war das entkoppelt,
aber mit dieser AI-Geschichte,
ich glaube halt, das kommt jetzt mit voller Wucht zurück.
Und warum mache ich das fest?
Weil, The 1975, das ist eine britische, ich sag mal, Indie-Popband,
das sind so eigentlich die klassischen Kids,
die mit dem Internet aufgewachsen sind, die sind glaube ich Mitte 30 oder so.
Die waren, also das ist so ein Quartett,
das schon in der Highschool zusammen gespielt hat, etc.
Waren so 10 Jahre völlig unbekannt,
haben sich so eine kleine kultartige Fanbase aufgebaut.
Kein Label wollte die, dann hat ein Kumpel gesagt,
hier, ich habe 10.000 übrig, ich mache ein Label.
Debutalbum rausgelegt, zack, eine Million Verkäufe.
Was bei denen halt wirklich auffällt, ist,
die haben sich ihre, ich denke, die Musik spielt natürlich eine große Rolle,
aber die haben sich ihre Fanbase wirklich eigentlich komplett mit ihrem Frontman zusammen,
also gesammelt, weil der Kerl halt wirklich einfach schwer einander Waffel hat,
weil der Kerl die ideale Projektionsfläche für deine,
ich sag mal, popkulturell-jugendlich konnotierten Sorgen ist,
oder der Kerl hat auf der Rückbank gefickt,
der Kerl hatte ein Heroinproblem damals, war fast krepiert daran.
Also das Ganze ist so dermaßen personenzentriert,
es ist nicht nur der Frontman, auch so die anderen,
und ich glaube halt genau dieses Feeling,
dass du, ich weiß nicht, ob das so eine kleine Mädchenthematik ist,
weil mir wäre es eigentlich egal, also wenn mir eine AI diese Musik ausspuckt,
würde ich sagen, ja, die ist tatsächlich objektiv gut,
aber dass halt immer noch niemand, und da sind wir dann auch wieder bei den Gorillaz,
dass niemand, der sich die Idee zusammenbrütet,
dass niemand, auf den man die Idee zurückverfolgen kann und sagen,
ja, klar, geil, das triggert so ein bisschen den eigenen Künstler in einem,
da baut mir niemand eine Bühnenshow hin,
da trinkt niemand auf der Bühne irgendwie aus einer Blumenvase,
weil es zur Show gehört, oder?
Also diese ganze Randomness, und da sind wir wieder beim Punkt,
dass sich die AI immer noch nicht gegenseitig außerhalb ihrer erlernten Muster arbeiten kann.
Kommt vielleicht mal, oder?
Aber ich habe immer noch den Eindruck, du gibst dem Prompt ein,
und er rechnet sich perfekt zusammen, was der Prompt ist,
aber er denkt nicht darüber hinaus.
Und die Leute, die das wissen und die das wissen wollen,
die sind dann auch fähig, den Künstler vor sich haben zu wollen, oder?
Pass auf, ich will den ganzen noch eine Story aufsetzen, um das Ganze,
ich hatte das bei uns auch in einem internen Chat schon gepostet.
Es gibt einen Artikel auf backstagepro.de,
da in dem Artikel geht es darum, dass ein 53-jähriger Däne mit KI-generierten Liedern
Tantiemen von Streamingdiensten verdient hat.
Der ist jetzt von einem dänischen Gericht zu 18 Monaten Haft verurteilt worden.
Seine KI-generierten Lieder, und er hat also mindestens so 600, 700 Stück halt erzeugt,
er ist verurteilt worden, weil er außerdem KI-Tools eingesetzt hat,
um die Streamingzahlen zu erhöhen und höhere Tantiemen zu erhalten.
Ist natürlich Win-Win, oder? Auf die Idee musst du erstmal gucken.
Der Verurteilte verdiente mit diesem Betrug 2 Millionen dänische Kronen,
also ungefähr 270.000 Euro, und landete damit auf Platz 46
der bestverdienenden Musikrechte-Inhaber in Dänemark.
18 Monate Haft für 270.000 Euro.
Ja, aber das war ja nicht, weil er da KI-Musik gemacht hat, sondern weil er da Betrug verdient hat.
Die Streamingdienste da betrogen hat, genau.
Ich hab noch eine Frage, lieber Peter.
Ah, okay.
Du hattest vorhin ganz am Anfang darüber gesprochen, dass du halt auch gerne Klänge mit,
oder wir alle, mit verschiedenen Eigenschaften, also mit warm, kalt, rau, spitz, scharf, beschreiben.
Wenn ich mir so deine Plugins anschaue und das Konzept so,
dann kriege ich immer so die Idee von Synesthesie.
Also wenn halt mehrere Sinne miteinander verschmolzen sind.
Ist das bei dir irgendwie ein Thema, oder ist das halt so ein Gedankending bei dir?
Ne, das ist bei mir auf jeden Fall ein Thema.
Im Sinne von, ich hab so das Gefühl,
also als ich aufgewachsen bin, hatte ich erstmal so einen ganz engen Musikbegriff,
was die Eltern oder Lehrer einem erzählt haben, was jetzt Musik ist oder was nicht.
Im Laufe des, je älter ich wurde, umso mehr Sachen erfasse ich als Musik.
Erst in diesem ganzen akustischen Bereich, also dass man irgendwann hört,
wie der Wind durch die Bäume geht und denkt, da ist so eine musikalische Struktur plötzlich vorhanden.
Da ist so eine Dynamik, die schwellt auf, die schwellt ab, das hat eine räumliche Positionierung usw.
Und das ist für mich auch eine unendliche Inspirationsquelle,
wenn ich selber Musik mache, irgendwo so etwas zu nehmen und umzuwandeln.
Und je mehr ich das hatte, fiel es mir dann auf, dass ich so, ich sehe irgendwas,
was weiß ich, ein Aquarell irgendwie, also häufig sind das so abstrakte Sachen,
oder ich sehe so eine Textur von irgendwie etwas und ich denke, ich weiß genau, wie das klingt.
Ich habe eine genaue Vorstellung davon, welcher Klang dazu passen würde.
Als ob das zwei Seiten von einer Medaille sind.
Auf der einen Seite ist es der Klang und auf der anderen Seite, im Optischen, würde das irgendwie so aussehen.
Und das ist so ein bisschen auch so, ich habe eine sehr langfristige Vorstellung,
was ich für ein Tool schaffen möchte.
Vielleicht in zehn Jahren bin ich soweit.
Die Technologie dafür muss ich entwickeln.
Ich muss, glaube ich, auch den Markt dafür entwickeln.
Weil wenn das jetzt sich plötzlich manifestieren und aus dem Himmel fallen würde,
würde, glaube ich, kaum jemand was damit anfangen können.
Und wo ich aber halt glaube, man kann Sounddesign und Musik anders machen,
als dass man jetzt 20 Regler hat, so runde Regler, mit denen man jetzt irgendwie hin und her dreht.
Das hat auch seine Berechtigung. Und Ähnliches gilt für Noten.
Diese Idee, eine Note ein aus, jetzt die nächste Note ein aus, das ist alles irgendwie schön und gut.
Wenn man als Musiker mit einem richtigen Instrument jetzt Noten interpretiert,
dann dichtet man ja auch ganz viel dazu.
Man erkennt ja, man hat ein Gefühl dafür, was die Phrasierung ist.
Man bringt ja die Emotionen mit rein und so weiter. Das ist ja alles nicht notiert.
In der Notation ist es sehr binär.
Und genauso habe ich das Gefühl, die heutige Technologie, auch von Software-Synthesizern,
ist halt rudimentär. Und da ist ein Riesenbereich, der offen steht,
wie man ganz anders mit Klängen und mit Harmonien und so weiter arbeiten kann.
Dazu gehört auch, es gibt eine sehr interessante Arbeit von einem Musikwissenschaftler namens Setaris,
der ist allerdings ziemlich unbekannt. Der hat halt so eine Verbindung gefunden,
wo er sagt, dass Klangfarbe, was weiß ich, eine Violine anders anhört als eine Klaviernote,
selbst wenn es von der Frequenz das Gleiche ist.
Also diese Klangfarbe auf der einen Seite und auf der anderen Seite Harmonien
oder in welcher Skala ich spiele, ob ich jetzt in Duo spiele, ob ich in Moll spiele
oder vielleicht in einer Ganztonskala. Das sind eigentlich nur zwei Enden von einem Spektrum.
Und dazwischen ist ein Riesenbereich und das ist aber eigentlich ein Kontinuum.
Und das bedeutet auch, wir sind es so gewohnt, traditionell Musik zu machen,
weil wir halt in diesem binären Konzept denken. Aber so langsam hat man das Gefühl,
und die AI macht das ja auch vor, eigentlich hat sich das so ein bisschen erschöpft.
Deswegen fällt es der KI ja auch leicht.
Ja, weil es klare Regeln sind.
Es sind relativ klare Regeln, genau. Und ich glaube, dass da ein Riesenbereich ist,
der sich öffnen wird, wenn man die richtigen Werkzeuge hat.
Und Stand heute hat man sie noch nicht.
Frage. Also wenn ich Musik mache und sie aufnehme, ist meine Hoffnung immer,
dass sich das, was ich an Emotionen transportieren möchte, durch den Aufnahmeprozess am Ende
auch bei den Zuhörern ankommt und sie sozusagen dann mit meiner Musik, Achtung, in Resonanz gehen.
So als Idee wäre nicht zum Beispiel das Thema Elon Musk Neuralink auch so eine Geschichte,
um Klänge, Instrumente, Klangerzeugung zu steuern und vielleicht Emotionen sichtbarer zu machen.
Aber selbst dann brauchst du –
Oder hörbarer.
Ich behaupte, selbst dann brauchst du eine andere Musik.
Weil, nehmen wir jetzt mal dein emotionales Vokabular, da gibt es sehr, sehr fein ausdifferenzierte Stimmungen usw.
Nehmen wir jetzt, um es ein bisschen einfacher zu machen oder klarer zu machen,
nehmen wir jetzt mal Instrumentalmusik nur. Lassen wir mal Text für den Moment außen vor.
Das heißt, du hast jetzt dein komplexes Innenleben oder eine sehr spezielle Stimmung.
Die Stimmung, die du ausdrücken willst, ist ja nicht "Ich bin traurig",
sondern deine Stimmung ist vielleicht die "Ich möchte gerne die Traurigkeit, die ich neulich Abend hatte,
als mir bewusst wurde, dass es zwar schön ist, dass es warm ist,
dass aber andererseits das auch ein Zeichen des Klimawandels ist und ich hatte diesen leckeren Duft vom Grill in der Nase
und wurde irgendwie ein bisschen traurig und mir wurde bewusst, dass ich eines Tages sterben werde".
Eine total schräge Zusammenstellung, aber sie ist halt genau das Gefühl, was du in dieser Sekunde hattest.
Das hat dich vielleicht stark berührt und das möchtest du jetzt gerne in Musik fassen, damit das transportiert werden kann.
Aber die Musik, wie wir sie heute kennen, hat gar nicht das Vokabular, um das alles ausdrucken zu können.
Die Musiksprache, die wir haben, hat Duo und Moll und dann kannst du noch ein paar Tensions dazu packen.
So kriegst du mit der Harmonie schon mal eine ganze Menge hin.
Du kriegst ziemlich viel mit über das Tempo und die Dynamik,
aber bestimmte Sachen lassen sich leicht ausdrucken und bestimmte andere Sachen weniger oder weniger präzise.
Ich habe dieses Wort Resonanz deswegen so betont, weil ich glaube, dass du recht hast.
Ich glaube, es gibt ja Studien, es gibt Experimente, das Militär forscht da auch schon lange dran rum.
Sie haben, glaube ich, auch schon entsprechende Waffen entwickelt, mit denen man unterschwellig Massen,
zum Beispiel bei einer Demonstration, eine Menge an Menschen, eine Menge x an Menschen, in Unwohlsein versetzen kann durch Infraschall.
Die Scheiße, ey.
Ich könnte mir aber auch vorstellen, dass wenn man bestimmte Frequenzen, die eine Geige erzeugt oder die auch ein Klavier erzeugt,
wenn man die identifizieren könnte, dass bestimmte Frequenzanteile vielleicht bestimmte Emotionen auslösen können bei Menschen,
und zwar bei allen Menschen, egal welchen Alters, welches Geschlecht,
dass das vielleicht eine Ausdruckmöglichkeit wäre, sehr emotionale Musik zu kreieren.
Genau.
Das ist, glaube ich, das, was du meinst, oder?
Genau. So ein klassisches Beispiel haben wir dafür ja. Es gibt die Mollterz und die Durterz, oder den Mollakkord und den Durakkord.
Es gibt diese übereinstimmende Resonanz, dass man den Mollakkord eher traurig, bisschen gedämpft irgendwie,
jedenfalls im Vergleich zum Dur, der etwas optimistischer.
Jetzt ist das natürlich im Detail viel komplizierter, weil ich vielleicht eine Progression habe, bla bla bla.
Ja, aber im Endeffekt läuft das ja nur darauf hinaus, dass ich ja nur um einen Halbton verschiebe.
Genau.
So mache ich ja oft aus einem Dur halt einen Mollakkord.
Und alleine nur diese kleine Verschiebung der Frequenzen, der Schwingungen führt zu einem kompletten Umkehr der Stimmung.
Ja, aber das, da bewegen wir uns in einem westlichen Zwölftonsystem.
Was ist denn mit den anderen Tonleitern?
Was die, zum Beispiel die fernöstlichen Tonleitern oder…
Genau.
…klassisches Beispiel, FX Twin arbeitet auch mit mikrotonalen Skalen ganz viel in seiner Musik.
Genau. Und wenn man sich jetzt historisch das anguckt, dann gibt es Kulturen, die da eine ganz andere Sprache…
Also zum Beispiel, es gibt ja, sage ich mal, in der europäischen, deutschen klassischen Tradition, da haben wir nur Dur, Moll.
Und wir haben dann noch diese Kirchentonarten irgendwie.
Wenn wir alles in einen Sack werfen, kommen wir vielleicht irgendwie auf zehn.
Im indischen hat die Musik hunderte in vielen, vielen Variationen.
Und die haben sozusagen eine super fein ausdifferenzierte emotionale oder inhaltliche Bedeutung.
Und das heißt, da steht ein ganz anderes Vokabular zur Verfügung für diese Sachen.
Aber selbst da ist es so, dass es noch ein relativ fest vorgegebenes System gibt, was jetzt mal den Tonvorrat betrifft.
Jetzt gibt es diese Mikrotonalität und viele Leute haben so das Gefühl, ich habe Mikrotonalität, das hört sich dann immer so an wie ein Westernklavier, irgendwie verstimmt.
Irgendwie hört es sich nicht richtig an. Es hört sich so an, als spielt da jemand mit einem nicht richtig gestimmten Instrument.
Und das ist halt das, was dieser Setaris genauestens herausgefunden hat, wieso das so ist und was da eigentlich der Fehler liegt.
Denn es gibt diesen Zusammenhang, die Physik, die wir haben, die sagt, es gibt diese und diese Obertonreihe.
Wenn ich jetzt etwas anstoße, dann ergeben sich automatisch bestimmte Resonanzen.
Das bedeutet, ich habe meinen Grundton bei 100 Hertz, dann habe ich die nächste Schwingung bei 200 Hertz, die nächste bei 300 Hertz, die nächste bei 400 Hertz und so weiter.
Das ist die klassische Obertonreihe und die nimmt dann irgendwie ab.
Ob das jetzt ein bisschen mehr so klingt oder so, das sind dann halt die Feinheiten, wie stark das abnimmt, ob da noch ein paar Wellen, Berge und so weiter sind.
Und wenn man das jetzt vorgegeben sieht, dass die Physik diese Kämme mit gleichen Abständen macht,
dann guckt man sich, wie könnte ich denn jetzt verschiedene Noten finden, sodass ich Töne zusammenspielen kann,
dass Menschen zum Beispiel zusammen singen können, aber nicht nur unisono, sondern auch einen Akkord.
Bum, bum, bum, machst du ein bisschen Mathematik und stellst du fest,
ich habe eigentlich nur die Möglichkeit, entweder sieben Töne zu nehmen oder zwölf Töne und als nächstes ist 18, aber 18 funktioniert schon nicht mehr so richtig gut.
Pentatonisch gibts auch noch.
Wie bitte?
Pentatonisch.
Genau, pentatonisch. Entschuldigung, ich meinte, ich habe sieben gesagt, ich meinte fünf.
Aber das folgt ja festgelegten mathematischen Formeln.
Und dabei ist es ja egal, ob der Grundton dann 440 Kilohertz, 440 Hertz oder 432 Hertz ist.
Genau, aber es stammt halt aus der Physik und zwar liegt es daran, dass es einen Klang hat.
Man kann folgendes Experiment machen mit jedem Synthesizer.
Man nimmt nur Sinuston und spielt jetzt Akkorde mit Sinuston und wählt sich die wildesten Skalen aus.
Dann kann ich plötzlich Harmonien spielen, ohne dass es sich schräg anhört.
Und was der Citarus herausgefunden hat, ist, dass er sagt, ah, wann immer ich eine bestimmte Abfolge habe von Obertönen,
und die muss nicht zwangsweise jetzt so gleichmäßig sein wie in dem physikalischen,
dann ergibt sich daraus eindeutig mein Tonvorrat und der muss dann nicht mehr zwölf Töne wohltemperiert sein.
Ich kann auch umgekehrt vorgehen und sagen, ich möchte jetzt eine Skala haben, wie was weiß ich,
ich teile meine Oktave jetzt in sieben exakt gleiche Bestandteile, also wohltemperiert, nur statt zwölfstufig siebenstufig.
Wenn ich das jetzt mit einem normalen Klavier spiele, hört es sich gruselig an.
Ein Klavierstimme kann das so stimmen, aber es hört sich scheußlich an.
Wenn ich jetzt aber jeden einzelnen Klavierton, die Obertonreihe, so mache, wie sie für dieses Siebener-System machen muss,
dann kann ich plötzlich Melodien und Akkorde in diesem Kram spielen.
Ich habe dann Experimente damit gemacht und das Ausprobierte, das Verblüffende ist halt,
auf einmal kann man Emotionen, also du spielst eine Melodie, die eine Emotion ausdrückt, die sich einfach im Zwölftonsystem nicht ausdrücken lässt.
Du spürst diese emotionale Stimmung, die es in unserer Musik nicht geben kann, aber da geht es.
Dafür braucht man aber ein Instrument, das genau dieses Kunststück macht, das die Skal mit den zugehörigen Obertonreihen verschränkt.
Das geht ja aus der Theorie der Schwingungen heraus, dass im Endeffekt alles Schwingungen sind.
Es gab ja hier diese String-Theorie, das sind ja auch im Endeffekt nur schwingende Fäden.
Darauf baut sich unser gesamtes Universum auf, was sich gesamter Materie auf Schwingungen aufbaut.
Das fließt damit ein. Wir sind jetzt an einem Punkt, wo wir gerade hochphilosophisch und fast esoterisch sind.
Ja, an dieser Stelle ist es halt so, dass das stimmt. Das mag hochphilosophisch und esoterisch sein oder vielleicht auch eine tiefe Wahrheit über irgendetwas offenbaren.
Aber ich rede auch von etwas Handfestem, Praktischem, was ich hier im Labor, vielleicht noch nicht toller Qualität,
aber wo ich das bereits hören kann, wo ich weiß, dass da etwas ist, was es so nicht gegeben hat und was interessant ist.
Weil es ja klare Regeln gibt dafür.
Und weil es außerhalb der Regeln agiert.
Ich finde es total spannend. Ich bin sehr neugierig und sehr gespannt, was du da noch so machst, Peter.
Ja, ich auch. Es ist ja für mich auch eine Entdeckungsreise.
Ich weiß, in welche Richtung ich mich bewegen will, aber es ist auch jeder Tag ein Abenteuer, wo ich auch immer wieder Überraschungen erlebe.
Was ich mich frage, ist, hat Peter bei sich zu Hause eine Serverfarm voller Grafikarten oder ein stinknormaler Desktop-PC?
Ich habe mehrere stinknormale Desktop-PCs, aber nicht deswegen, weil ich Computer so toll finde oder weil die so viel rechnen,
sondern einfach, weil ich unterschiedliche… Ich brauche einen Apple mit einem Intel, einen Apple mit einem Silicon,
ich brauche einen Windows-Rechner und das ist eher so der Hintergrund.
Und sonst, wenn ich Berechnungen bräuchte, wo ich das Gefühl habe, da braucht man jetzt irgendwie ganz viele Grafikkarten oder so,
würde ich die ganz sicher nicht bei mir hier aufstellen, sondern das würde ich einfach online buchen, stundenweise.
Das lässt sich einfach viel besser skalieren.
Genau, es skaliert einfach besser.
Und das kannst du sogar bis auf die Funktionen runterbrechen, dass du sagst, ich brauche das jetzt mal für diese eine Funktion,
brauche ich mal eben hier 200 CPU-Kerne, zack, buchst du die mal eben für eine halbe Stunde und dann ist die Funktion durchgerechnet.
Ja, ist auch bei den Preisen ja gar kein Ding, so zu zerstören, weil sie so billig…
Ja, also mittlerweile… Ich erinnere mich noch, wie Future waren, das glaube ich, die mussten für irgendein älteres Musikvideo die Wasserwände haben.
Die haben halt alle ihre YouTube-Kumpels angerufen und denen Schnipsel geschickt und haben gesagt, hey, könnt ihr das bitte mal auf euren Gaming-Bühnen laufen lassen.
Und dann haben die sich quer durch die Bundesrepublik, die waren halt damals noch klein, die haben sich quer durch die Bundesrepublik von den Kollegen
irgendwie einen kurzen Wasserschnipsel zurückschicken lassen, der dann halt gerendert war.
Dann haben die das zusammengesetzt und fertig waren. Und das ist keine zehn Jahre her. Heute buchst du dir eine Cloud-Farm.
Genau, aber auch da ist es ja so, dass beispielsweise für diese Modelle von, was weiß ich, JetGPT oder Stable Diffusion oder auch jetzt dieses Sono,
das ist dann natürlich doch schon wieder, dass dann da mehrere Hochhäuser vollgestopft mit den Hochleistungstensorschips dann über Monate an sowas rechnen.
An die Modelle, an die LLMs, ne?
Ja, genau.
Da rechnen die wirklich verdammt lange dran. Aber später, das eigentliche Ding…
Die Inferenz, ja.
Das kannst du tatsächlich auf einer ordentlichen GPU laufen lassen.
Ja.
Das ist unglaublich, also.
Das ist natürlich die Frage, auch wieder in der Frage der Nachhaltigkeit, okay, willst du so viel Energie verpulvern für Entwicklung,
aber da beißt dich die Katze dann halt auch wieder in den Schwanz, oder? Du willst wohin kommen, also musst du diese Ressourcen auch aufwenden,
um irgendwo hinzukommen, damit es dann nachher auf dem Look eben laufen kann.
Ich finde, das ist eine wunderbare Frage, mit der wir die Zuhörer dann jetzt in das Ende dieser Sendung entlassen können.
Danke für diese Überleitung.
Sucht euch mal selber Beschett-GPT, das ist ganz witzig.
Sucht euch mal selber Beschett-GPT, das geht?
Ich bin echt fasziniert davon, wenn man sagt, wer ist der Podcaster Sascha Markmann?
Ich will gar nicht wissen, was Beschett-GPT über mich weiß oder nicht weiß.
Vielleicht deprimiert mich das, wenn Beschett-GPT sagt, Herr Notstrom, wer?
Seitdem ich das gemacht habe, bin ich jetzt mindestens 2,58 Meter groß und habe 100 Millionen auf dem Konto.
Nicht schlecht.
Respekt. Und dann redest du noch mit uns, finde ich gut.
Gab es nicht mal diese AI-Geschichte, wo ein früheres Stadium das Machine Learning gefragt hat,
was ist der normale Mensch? Und dann hat das Machine Learning gesagt, der normale Mensch ist sehr reich.
Die Geschichte geht ganz anders. Die haben einen neuen Ansatz gesucht für künstliche Intelligenz und haben gesagt,
wir müssen erst mal Wissen verknüpfen.
Also haben sie den Tagsüber mit Wissen gefüttert und nachts hat das Programm das Wissen neu verknüpft.
Und am nächsten Tag haben sie sich diese Verknüpfung angeschaut.
Und irgendwann mal hatte dieses Programm festgestellt, dass 99,99997% der Menschheit berühmt sind.
Und dann, warum kommt das Programm auf die Idee?
Weil das Programm nicht wusste, dass dort 6 Milliarden andere Menschen auf der Welt leben
und nur die ganzen berühmten Leute aus dem Wissen, aus den Datenbanken kannte.
Klassischer Fehler.
Wenn ich mir meinen Freundeskreis und Bekanntenkreis angucke, würde ich auch sagen,
alle Menschen oder fast alle Menschen machen selber Musik.
Ja, genau.
In diesem Sinne macht selber Musik.
Schaltet jetzt ab.
Wir hören uns dann wieder, spätestens wenn unser Werder-Podcast-Gast und mittlerweile guter Podcast-Freund
wieder seinen nächsten, sehr kleinen, unspektakulären FM-Synth gebaut hat.
Auf den warten wir noch.
Ja, der kommt auch noch irgendwann.
Falls es dir zwischendurch zu langweilig wird oder wieder drei Jahre vergehen,
bist du auch gerne zwischendurch wieder hier.
Dankeschön.
In diesem Sinne, schaltet auch beim nächsten Mal wieder ein.
Wenn ihr Tobi sagen hören wollt…
Wir gehen nach Ibiza, zurück auf die Insel.
Wir gehen zu einer Party.
Ich starre hier auf den Tab, der neben dem Studio-Link ist.
Und aus irgendeinem Grund sind da die Wenger-Boys.
Was ist hier passiert?
Die Wenger-Boys?
Tobi, du bist komisch.
Die sind doch auch KI-generiert, oder?
Peter, du hast das letzte Wort.
Tschüss.
Tschüss.
Tschüss.
Mach's gut.
Bis zum nächsten Mal.
Ja, ciao.
Ciao, ciao.
[Musik]
[Musik]
[Musik]

Unterstützen:
Ihr könnt uns über Paypal direkt unterstützen oder über Steady oder über Patreon mit einem kleinen Mehrwert als Dankeschön.

Die spenden werden benötigt, um ein Teil der kosten für die Bereitstellung meiner werke, Podcast Blog texte sowie die Videos zu gewährleisten.

"Unterstützer erhalten vorab Zugriff auf die neusten Veröffentlichungen noch vor ihren regulären Erscheinen im Rohschnitt. Darüber hinaus gibt es exklusive Inhalte nur für die Unterstützer wie vor und nach Gesprächen sowie eine Art Tagebuch. Über folgende Dienste könnt ihr uns so unterstützen: Steady, Patreon und erhaltet Zugang zu den extra Inhalten."

Patreon Feed auf Spotify oder Steady Feed auf Spotfy



Zugehörige Episoden:
Feedback zur Ausgabe hinterlassen?
Dann schreib doch ein Kommentar

Audio Feedback zur Sendung?
Der Anrufbeantworter ist geschaltet. ☎ 0231 53075818

Specher:
avatar
Peter
avatar
Tobi
avatar
Notstrom
avatar
Sascha

Anzal der Downloads: 247 /  Spieldauer: 2:19:57 /
Tag der Aufnahme: 08.04.24 /  Diese Folge stammt aus der Staffel 4, es gibt insgesam 4 Staffeln.

Eine LautFunk Publikationskartell Produktion - Wo Geschichten unüberhörbar übermittelt werden.


Podcast Lizenz:


Autor: Sascha Markmann

Legastheniker am Werk (Mehrfaches lesen meiner Postings kann zu irreparable Schäden an den Augen führen z. B.. Pseudotumor-zerebral-Syndrom) Leicht gestörter bis Mittel schwerer Fall von Überlebens Künstler, Maler, Blogger, Musiker, Podcaster und Video Produzenten "Audiovisueller STUMPFSINN mit keinem Nutzwert"

Kommentar verfassen

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.