Probe Podcast 72 MYTH

Bitte hinterlasse ein Kommentar und ein Like

Beschreibung:

Wiedersehen macht Ah?! Podcast-Lieblingsgast Peter V. ist zurück, pünktlich zum Release seines neuen Software-Synthesizers, und gibt exklusive Einblicke in das, was einmal ein, Zitat “unkomplizierter, kleiner FM-Synthesizer” hätte werden sollen. Gemeinsam mit dem Erfinder watet man durch die Tiefen eines durchdachten Re-Synthese-Monsters, lernt unerwartetes, logisches und unerwartet logisches kennen, unterhält sich über gemeinschaft- und leidenschaftliches Developing, debattiert über die rasante Entwicklung von KI und philosophiert über neue Ansätze, noch nie dagewesene Musik zu machen. Zwei Stunden ausladender Nerdtalk, full on detailverliebt und latent größenwahnsinnig – und ein paar Takte MYTH gibts auch noch auf die Ohren. Viel Spaß damit.

Dawesome Myth gibt es ab dem 18.04. bei tracktion.com zu erwerben oder als 90-tägige Demoversion ohne Einschränkung zum ausgiebig testen.
Dieser Link ist kein Affiliate-Link.
Disclaimer: Die Podcaster haben Myth kostenlos zum Beta-Test und zur Nutzung erhalten, es ist aber kein zusätzliches Geld geflossen und at least der Schreiber dieser Zeilen hätte sich den Synth sowieso gekauft

Links zur Ausgabe:

▶ Hier Klicken für das Tanscript:
Tanscript:

* Musik *
* Musik *
* Musik *
* Musik *
* Musik *
* Musik *
* Musik *
* Musik *
* Musik *
* Musik *
* Musik *
* Musik *
* Musik *
Hallo und willkommen bei den
Probe-Podcasts.
Hallo Peter. Hallo.
Hallo Tobi.
Hallo. Hallo Thomas.
Moin aus Hamburg.
Und aus dem wunderbaren Nordrhein-Westfalen
unser Moderator, der Sascha. Hallo.
Hallo. Hallo.
Genau, wie man unschwer gehört hat,
wir haben einen sehr besonderen Gast,
auf den wir uns sehr gefreut haben.
Mal wieder. Peter von Dorsham. Mal wieder.
Genau. Und heute wird es
mythisch, wie man so schön sagt.
Genau. Denn in wenigen Tagen,
also das hier kommt ja heute Montag,
der 15. ist es, glaube ich,
kommt das raus und dann wird in wenigen Tagen
die Folge raus. Am 18.
Was passiert am 18.?
Am 15. kommt die Folge raus.
Und am 18.? Ach, am 15. kommt die Folge raus?
Ich dachte die Folge, ach so, naja, egal.
Ist ja noch besser.
Ja, was passiert denn am 18.?
Heute ist Portal-Tag, das wisst ihr, ne?
Heute war eine totale Sonnenfinsternis.
Das ist noch viel schlimmer, Leute.
Wir haben nicht nur eine totale Sonnenfinsternis gehabt,
wir haben eine Konstellation von vier Planeten
und die haben den Teilchenbeschleuniger in CERN hochgefahren.
Ich sagte doch. Akokalypse.
Ich sagte doch. Und die NASA hat ein paar Weltraumsonden gestartet,
soweit ich weiß. Und ich sagte doch, es wird mythisch heute.
Also das ist doch schon mal ein guter Einstieg.
Jetzt haben wir eine Fahnen verloren, oder?
Also, gut, ich übernehme den Bums jetzt mal so ein bisschen.
Am 18. wird etwas releasen.
Und wenn etwas releast von einem gewissen Plug-in-Hersteller,
den wir alle kennen, den wir alle benutzen,
den wir alle mögen und den wir sogar hier vor Ort haben,
ja, dann muss man doch diesen, ich sag mal so,
muss man doch diese Telefonleitung benutzen,
um mal direkt vor Ort ein bisschen zu fragen, was genau ist das?
Weil ich hab's aufgemacht
und war so ein bisschen ratlos.
Deswegen hab ich gedacht, gut,
es kann nicht jeder Thomas sein,
es kann nicht jeder die Bedienungsanleitung lesen.
Es gibt auch noch Leute, die Leben nebenbei haben.
Ganz ehrlich, ich hab die Bedienungsanleitung
aber nicht sofort gelesen,
sondern ich bin ja auch eher so der "What you see is what you get".
Also der, nee, wie heißt das?
Der "Devisivik"-Typ, der erstmal ausprobiert
und guckt, wie weit er ohne Anleitung kommt.
Und ich bin eigentlich ohne Anleitung ziemlich weit gekommen.
Und danach hab ich natürlich einen Blick reingeworfen,
weil die Anleitung auch, übrigens Kompliment,
Peter, sehr gut geschrieben ist.
Und sie ist vor allem auch sehr witzig, ne?
"Back to the FM".
Also ich hab das Ding aufgemacht,
hab den Kopf gesehen und hab "Tilt" gemacht.
Da ging irgendwie nichts mehr, da ist mein Kopf weggeschmolzen.
Aber dafür haben wir auch heute Abend den Entwickler hier.
Wir sprechen über "Dawson Myth"
oder wie soll ich's aussprechen?
Keine Ahnung.
Ich glaub "Myth" ist schon ganz gut,
aber tu ich mich auch schwer mit.
Den neuen großen Synthesizer aus der Indie-Butze in Hamburg.
Nein, nicht aus Thomas Wohnzimmer.
Der macht kein Indie, der macht Ambient.
Der Witz ist versandet, bevor ich ihn geschrieben habe.
Du streibst bitte auf.
Das war so trocken, Tobi.
Das staubt schon.
Aber nur, weil er so flach war.
Peter, erzähl doch mal ein bisschen,
wie bist du auf die Idee für "Myth" gekommen
und was genau ist "Myth"?
"Myth" ist erst mal ein Synthesizer-Plugin.
Das ist die eine Idee, auf die ich gekommen bin,
wäre irgendwie so ein bisschen irreführend,
weil tatsächlich war das ganz anders.
Ursprünglich wollte ich einen ganz einfachen,
kleinen Synthesizer machen,
der einen neuen Zugang hat zu FM-Synthese.
Jeder, der sich schon mal mit einem DX7-Synthesizer
befasst hat, kennt das.
Es ist toll, teilweise, wie es klingt,
aber es ist ein Horror, das zu programmieren.
Das ist das Gegenteil von intuitiv.
Man muss sich sehr gut auskennen
und dann ziemlich viel rumfrickeln,
damit man was bekommt, was einem Spaß macht.
Deswegen war die Idee, kann man das nicht vereinfachen?
Kann man da nicht eine schönere Form von haben,
mit der man arbeiten kann?
Die Grundidee war, es wäre toll,
wenn man ein Sample nimmt,
und dann wird das resynthetisiert.
Danach habe ich irgendwelche High-Level-Parameter,
wo ich das Sample, so wie es resynthetisiert wurde,
global verändern kann,
dass sich das stärker anhört in Richtung FM
oder dass sich das stärker anhört in Richtung Physical Modeling
oder in Richtung Sound.
Das heißt, ich muss nicht mehr 500 Höhenkurven
und 300 LFOs programmieren,
damit ich Bewegung in meinen Klang bekomme.
Die Idee ist, ich fange mit einem Sample an.
Jetzt nehme ich aber nicht das Sample in einem Sampler
und eigentlich bleibt es immer das Sample
und es wird ein bisschen bearbeitet.
Die Idee ist, ich mache aus dem Sample
einen Synthesizer, der diesen Sound annähert.
Dann habe ich die Möglichkeit, damit herumzuspielen.
Das war die eine Idee.
Die andere Idee war,
dass es Spaß macht,
mit einem modularen Synthesizer zu spielen.
Ich habe mich gefragt, woran liegt das eigentlich?
Dass das ein Vergnügen ist
und sich ganz anders anfühlt,
wenn ich mit einem Sample unterwegs bin.
Das eine ist das Taktile.
Man kann einfach hingehen, rechts und links anfassen
und irgendwo drehen und gucken, was passiert.
Ich glaube, gerade dieser Aspekt von explorativ
sich mit den Klängen zu befassen,
gar nicht immer ganz genau zu wissen,
wenn ich das Kabel hier nehme und es da reinstecke,
habe ich vielleicht eine gewisse Vorstellung,
was ich tue.
Aber ziemlich oft erlebe ich eine Überraschung
oder es ist doch ein bisschen anders.
Oder man hat sich einfach in der Buchse vertan
und dann passiert plötzlich etwas total Interessantes.
Eine Rauchsäule?
Das hatte ich noch nicht, aber denkbar wäre es auch.
Dieses Vergnügen
von weg,
von Sounddesign,
als ich eine Excel-Tabelle habe,
ich gehe da analytisch dran,
ich habe ganz viele Zahlen usw.
und mache mir genau eine Vorstellung
und dann gehe ich planvoll vor
und am Ende kriege ich genau das,
was ich mir am Anfang überlegt habe.
Stattdessen eher so ein "Ich gehe auf einen Spaziergang
und hier tut sich auf einmal etwas auf,
das will ich mir mal ein bisschen genauer angucken
und dann spiele ich hier ein bisschen rum usw.
Ich entwickle dabei dann genauso Klänge,
die ich verwenden kann usw.
Aber die Herangehensweise ist eine ganz andere
und eine, die mir persönlich viel mehr liegt.
So ein bisschen das Happy-Accident-Phänomen?
Genau, das Happy-Accident-Phänomen
und aber auch,
dass man,
es müssen ja gar nicht unbedingt Happy-Accident sein,
sondern dass man auch mit dem arbeitet,
was man gerade hat
und dass man das so ein bisschen verändert.
Nehmen wir mal ein Beispiel,
ich habe jetzt vielleicht schon einen ganz tollen Drum-Loop gemacht
und jetzt überlege ich,
wie kriege ich da irgendein anderes tonales Material dazu,
was ich verwenden kann,
was aber irgendwie jetzt mit dieser Baseline harmoniert.
Jetzt kann ich natürlich ein Keyboard nehmen
und mir irgendwas einspielen.
Das wäre so die klassische Herangehensweise.
Hier mit "müs" wäre die Herangehensweise,
ich nehme mir diesen Drum-Loop
und "müs" ist brutal darin,
dass man auf einer Klaviatur spielen kann.
Das heißt, der nimmt das
und schon habe ich etwas, was tonal ist.
Es hat aber die gleiche zeitliche Entwicklung,
das heißt, der Rhythmus bleibt erhalten.
Darf ich da mal reingehen?
Klar!
Und fragen, was meinst du, es nimmt das?
Du hast zwei Rhythmus-Szenen,
du hast zwei Augen, zwei Irisse
und du kannst ein Sample ablegen.
Dieses Sample wird dann
re-synthetisiert
auf vier Oszillatoren verteilt.
Oder was genau passiert da mit dem Sample?
Vielleicht zwei Sichtweisen.
Die eine ist, wie benutze ich das?
Kann ich das mit dem Sample machen?
Ich nehme einfach mein Sample,
per Drag & Drop haue ich das da rein
und danach kann ich damit weiter rumspielen.
Ich höre jetzt aber nicht das Sample
wie in einem Sampler,
es ist keine naturgetreue Wiedergabe,
sondern es ist diese Reinterpretation
als ein Instrument.
Ich habe dann sogenannte Transformer,
man kennt ja den Cut-Off mit einer Resonanz,
da kann man dran drehen und da verändert sich
der Klang auf eine bestimmte Art und Weise.
In ähnlicher Form gibt es hier jetzt auch Transformatoren,
das sind Parameter, an denen kann ich rumspielen
und die verändern das dann aber vielleicht
eher in Richtung FM oder die verändern das,
dass es sich eher anhört in Richtung Sägezahn.
Damit kann man rumspielen.
Um mal ein Beispiel zu bringen,
ich habe da zum Beispiel ein Sprachsample,
ein sehr langes Sprachsample aus irgendeinem alten Hollywood-Schinken,
die man als Public Domain runterladen kann,
hier aus den 1932,
"Die Nacht der schwarzen Toten"
oder irgendwie sowas.
Irgendein Sprachsample habe ich da reingeschmissen
und ich hatte nachher ein tonales Ergebnis.
Das fand ich ganz witzig.
Sprache wird dann quasi übersetzt in Klänge.
Ja, und zwar nutzt es natürlich auch
einerseits die Klanginformation,
die in dem Sprachsample drin ist
und andererseits die zeitliche Entwicklung.
Das heißt, wenn du jetzt ein sehr, sehr langes Sample nimmst,
mehrere Minuten Sprache,
dann bräuchte das eine so hohe zeitliche Auflösung,
dass das sehr schlecht von einem Synthesizer wiedergegeben werden kann.
Man kann sich einfach mal vorstellen,
du müsstest jetzt einen Synthesizer programmieren mit Höhlkurven,
der jetzt dieses Sprachsample gewissermaßen erzeugt.
Da würdest du eine Höhlkurve mit tausenden Punkten brauchen.
Genau, das kann man natürlich nicht. Deswegen vereinfacht er das Ganze.
Genau, das wird vereinfacht.
Aber wenn du jetzt zwei, drei Worte nimmst,
wie Probe-Podcast,
dann kannst du das hinterher auch wiedererkennen.
Dann kannst du einen Chor daraus machen.
Du kannst es dann ja tonal spielen
und du kannst es dann in alle möglichen Richtungen verändern.
Du kannst die Obertöne rausnehmen, damit es nicht so kratzig klingt.
Du kannst es danach so machen,
dass es sich eher in die Richtung Streicher anhört
und das immer alles nur mit einem Knopf drehen.
Oder du kannst es zum Beispiel so machen,
dass es sich etwas metallischer anhört.
Da kann man dann in Hand umdrehen.
Das geht dann über die Transformer, oder?
Genau, das ist einfach nur ein kompliziertes Wort.
Da sind halt so ein paar Parameter, an denen man spielen kann.
Man muss nicht mal wissen, was die tun.
Ich habe gerade festgestellt, zum ersten Mal seit einem Monat,
in dem ich das Plugin habe, da hat es unten ein Fragezeichen.
Das zeigt ja an, was die Dinger machen.
Aber ich habe das irgendwie nie gebraucht.
Ich habe die einfach intuitiv benutzt bis jetzt.
Ja, die haben auch teilweise, also die haben zwar Namen,
aber die haben auch ja so eine visuelle Repräsentation.
Also mir geht es jedenfalls so,
ich denke dann irgendwann, jetzt will ich ein bisschen mehr blau,
oder hier will ich ein bisschen mehr rot haben.
Weil wenn man das drei, vier Mal gemacht hat,
dann hat man ein Gefühl dafür, was dieses Rot,
was das macht mit einem Klang,
oder was Blau mit einem Klang macht.
Das zieht sich ja durch deine gesamten Synth-Designer eigentlich, oder?
Ja.
Also die haben ja alle irgendwo einen Farbcode, oder?
Ja, das stimmt.
Und das wird auch in Zukunft eine noch viel größere Rolle spielen.
Also wenn wir da einen winzigen Exkurs machen.
Als ich Abyss damals rausgebracht habe,
waren so die ersten Leute auf KVR oder anderen Foren so,
ja was soll denn der Scheiß, so mit Farben,
das ist ja voll das Gimmick, das braucht kein Mensch,
voll idiotisch, Spielerei, bla bla bla.
Was ich gut verstehen kann,
weil es ist ja erstmal was, was man so noch nicht gesehen hat.
Und tatsächlich ist es aber so,
die Warnierungspsychologie stellt fest,
wenn wir Klangfarben oder Klänge beschreiben,
also wie klingt etwas,
benutzen wir das gleiche Vokabular, mit dem wir Oberflächen beschreiben.
Wir sagen, das ist hell, das ist dunkel, das ist kalt, das ist warm.
Eine warme Farbe, eine kalte Farbe.
Das ist rau, das ist schrill, das ist pieksig.
Das lässt sich sozusagen eins zu eins übersetzen,
einerseits in Farben und andererseits in Texturen.
Und bisher habe ich sozusagen diesen Punkt
Klänge darstellen durch Farben ganz stark ausgenutzt.
Und ich würde mal sagen, das ist jetzt weitestgehend etabliert.
Weil witzigerweise genau die gleichen Leute auf KVR,
die damals gesagt haben, so ein Scheiß, das braucht kein Mensch,
schreiben jetzt auf KVR,
sie werden ja die Ersten gewesen, die erkannt hätten,
wie toll das ist und wie intuitiv man das dann hinterher benutzen kann.
Die Ersten waren sie nicht, sondern du warst der Erste.
Ich war auch nicht der Erste.
Ich habe ja Paper darüber gelesen und so.
Bestimmt gibt es auch irgendeinen esoterischen Synthesizer,
über den Heinbach dann irgendwann ein Video macht von 1912.
Ich glaube, dass wir alle auch so ein bisschen durch die...
Aus der Sowjetunion in den 50ern, ja.
Genau.
Ich glaube, dass wir alle auch so ein bisschen durch die iOS-Apps.
Da wurde ja auch schon ganz viel ausprobiert.
Da haben die Programmierer auch schon ganz viel ausprobiert.
Boah, wie ich so fast die Drum Machine vermisse, ey.
Das hat ja alles seinen Weg auch gefunden, mehr oder weniger.
Ich sage mal, bei den klassischen, alteingesessenen Synthesizerfirmen.
Also wenn man sich jetzt zum Beispiel mal den neuen Korg Micro Korg 2
in seiner Neuausgabe, den gibt es ja noch nicht,
der ist noch nicht lieferbar, aber wenn er dann rauskommt,
da haben die sich tatsächlich so eine App-Entwicklerbude geholt
und haben die das Betriebssystem und die grafischen Elemente
programmieren lassen.
Und die haben zum Beispiel Achievements drin.
Also du kannst tatsächlich da Achievements freischalten.
Hey, ich habe einen Cut-off gedreht und solche Geschichten.
Und die haben halt auch sehr viele grafische Elemente
in der Benutzeroberfläche.
Und da haben die sich, ich würde mal sagen,
Elektronen haben da ja auch so ein bisschen vorgelebt.
Und jetzt machen halt das ganz viele nach.
Was du aber halt jetzt hier mit dem Myth gebaut hast,
das ist, darf ich sagen, mein Kopf ist explodiert.
Als ich dann erst mal das Prinzip verstanden hatte,
dachte ich so, boah, das ist ja der Wahnsinn.
Du kannst ja wirklich auf Oszillatorebene schon
so viele Module dazuschalten.
Und dann hinterher hast du noch einen Filter
und den kannst du da noch und dann hast du sogar noch
eine Effektsektion und dann hast du sogar noch
einen Flux-Capacitor, den du da irgendwo dazwischen schalten kannst.
Ja, dazu...
Das ist der totale Wahnsinn.
Da sage ich vielleicht kurz, was du...
Also, das klingt jetzt vielleicht dann ganz schnell so wie,
oh, das ist ja so ein mega kompliziertes Ding,
braucht man 100 Jahre...
Nee, gar nicht. Das ist so eingängig.
Also, ich habe es fast ohne Anleitung hinbekommen,
mich da durchzufringen.
Wenn man so ein bisschen von Synthese,
ich mache das ja jetzt auch schon so ein paar Jahre länger,
wenn man so, ich sage mal, die Grundlagen von Synthese drauf hat,
dann sucht man sich halt so die Funktionen zusammen.
Ich habe erst ein bisschen getüftelt,
habe überlegt, Mensch, wo hat er denn jetzt das Filter?
Bis ich dann entdeckt habe, hey, das ist ja bei den Modulen
und da gibt es ja die Filter-Sektion,
da kann man ja auch noch ganz andere Sachen machen.
Das ist ja, wie geil ist das denn?
Also, das ist ein richtiger Modulkasten,
der sehr, sehr einfach zu bedienen ist.
Und es sind Module ohne Kabel.
So die Idee war eher, also ursprünglich war meine Inspiration
eher so von so einem Pedalboard irgendwie bei der Gitarre,
wo ich so gedacht habe,
da gibt es auch diese tausend verschiedenen Effekte.
Und man hat aber nicht diese Komplexität,
wo man ständig jetzt wieder analytisch nachdenken muss,
und jetzt mache ich ein Kabel von hier nach da
und dann passiert ja das Folgende.
Aber dann habe ich hier ein Feedback.
So diesen Kopf, den will ich da so ein bisschen raus haben.
Stärker hin zu dem, ich probiere mal.
Das ist glaube ich auch darum, warum alle gerade so auf Gitarrenpedale abgehen.
Also natürlich gibt es die Eurorack-Abteilung,
das befruchtet sich auch gegenseitig,
aber einfach Pedale, weil Input, Output, vielleicht noch ein Switch, fertig.
Genau, und mir kommt gerade eine Idee,
ich werde noch eine neue Funktion, glaube ich, einbauen,
wo man einfach ein zufällig ausgewähltes Modul
mit einer zufällig ausgewählten Dings dazu schalten kann.
Da muss ich nicht mal überlegen, was ich jetzt für einen Filter haben will,
ich drücke drauf und dann kommt eins.
Und wenn er mir nicht gefällt, drücke ich halt nochmal drauf und kriege einen anderen.
Gut, aber was ich eigentlich sagen wollte,
zum Beispiel dem Vorgängersynthesizer, den ich gemacht hätte,
also das ist nicht mein Vorgänger,
der Synthesizer, den ich vorher gemacht hatte, Kult.
Da war es auch schon so, dass ich gedacht habe,
ja, also wenn man jetzt einen Filter gut benutzen will,
dann ist es eigentlich toll, wenn ich vor dem Filter
zum Beispiel schon ein bisschen verzerren kann.
Und wenn ich vielleicht noch einen Comp-Filter hätte,
aber manchmal möchte ich den Comp-Filter hinter meinem analogen Filter haben
und manchmal möchte ich es davor haben.
Also die Verzerrung sollte auf jeden Fall immer davor sein.
Und so ist dann so eine statische Sektion entstanden in Kult,
die eigentlich auch schon aus mehreren Modulen besteht.
Erst eine Verzerrung, dann ein Comp-Filter, dann ein analoger Filter,
dann nochmal eine Verzerrung und nochmal ein Comp-Filter.
Und dann hatte ich 100 Ideen, was man da noch machen könnte.
Und das UI würde aber aus allen Nähten platzen.
Und dann dachte ich, es wäre doch eigentlich toll,
wenn man diese Flexibilität hätte,
sich diese Sachen frei anordnen zu können und frei aussuchen zu können.
Was insbesondere mich auch dazu in die Lage versetzt,
wenn ich eine neue Idee habe, wo ich denke,
hey, man könnte ja noch vielleicht das und das
auf diese Art und Weise das Signal verbiegen.
Dann kann ich ein einfaches Update machen
und muss nicht eine Woche damit zubringen,
mir zu überlegen, wo ich das in das UI noch reinquetsche,
ohne dass es jetzt überfrachtet wird,
dass es kompliziert wird oder sonst was.
Es ändert sich eigentlich gar nichts im UI,
sondern ich habe einfach nur eine neue Möglichkeit.
Und du hast es auch schon so ein bisschen angelegt,
also nicht wie bei Valhalla DSP, wo der Code zusammenstürzt,
weshalb die einfach ein 4.0-Update gemacht haben
und das komplette Ding neu schreiben müssen.
Also ich hoffe.
Also ja, man weiß natürlich nie,
manchmal tauchen irgendwelche Grenzen auf,
an die man vorher nicht gedacht hat.
Aber da ich ja jetzt sehr lange auch daran entwickelt habe
und das auch ziemlich angewachsen ist über die Zeit,
bin ich da jetzt mal recht optimistisch.
Ja, und dann, also man kennt das ja vielleicht so ein bisschen
von so einer FX-Section oder von Multi-Effektgeräten,
dass man da dann einen Phaser und irgendwas hat,
einen Reverb und einen Delay,
und dann kann man die in der Reihenfolge selber strukturieren.
Und hier war dann halt noch die Idee,
das halt genauso für die Oszillatoren zu machen.
Weil dann muss ich mir jetzt nicht für einen Oszillator
einmal überlegen,
ja also der soll jetzt diese sieben Knöpfe haben,
sondern ich kann meinen Oszillator
gewissermaßen auch modular zusammenstecken
oder wie ein Gitarrenpedal.
Ich kann sagen, ich fange jetzt hier erstmal mit irgendwas an,
sagen wir mal ein klassischer Siegezahn-Generator.
Dann möchte ich den aber gerne
vielleicht mit ein bisschen Ringmodulation
etwas metallischer machen.
Jetzt klingt mir das aber zu glatt,
deswegen nehme ich irgendwas Krudes
wie zum Beispiel Orbit-Modulation,
was so eine neue Erfindung ist
und mache es damit irgendwie noch ein bisschen krasser.
Und so kann ich Schritt für Schritt einfach gucken,
was passiert.
Und bewege mich aber quasi immer noch
auf der Ebene eines Oszillators.
Das heißt, es ist dann auch pro Taste,
die ich spiele.
Das heißt, es ist nicht ein Effekt,
der jetzt über alles, was ich spiele, irgendwie drüber geht,
sondern das ist sozusagen eigens für die Note.
Das heißt, ich kann es ganz toll modulieren,
also über den Verlauf des Klangs,
oder ich kann es mit einem MPE-Instrument
oder mit irgendwelchen Mod-Wheels,
Expression-Pedalen und so weiter,
kann ich jetzt alle diese Einstellungen nehmen,
um meinen Klang wirklich zu formen,
wie ein Instrument,
und ihn dann auch expressiv zu spielen.
Ich habe eine Frage.
Und jetzt lass uns mal so richtig schön
in Media Reis gehen.
Also wenn ich MÜF aufmache,
schauen mich erst mal zwei Augen an.
Und was ich mich gefragt habe, ist,
okay, ich kann da Samples ablegen.
Was ist denn aber,
wo kriege ich denn die Wellenform her,
wenn ich jetzt so ganz einfache,
virtuell analoge Wellenform haben will?
Reicht es?
Und das habe ich dann auch gemacht.
Wenn ich mir so von so einem Standard,
ich sag mal,
von so einem substraktiven Synthesizer irgendwie
so eine ganz kurze,
so eine Single-Cycle-Wave-File reinlade,
oder muss ich ein längeres Sample nehmen,
oder kann man das auch vielleicht erzeugen lassen,
dass man da vielleicht so einen Sortoos
oder einen Puls oder einen Square
oder was auch immer hat?
Oder wie hattest du das gedacht?
Also, ich denke,
die klassischen Wellenformen,
die jetzt, was weiß ich,
Square, Saw und so weiter,
die sind einfach so typisch,
dass es gut ist,
dafür etwas Eigenes zu haben,
damit man dann halt auch die Möglichkeiten hat,
das nach Belieben verändern zu können.
Und diese Iris, also diese Augendinger,
sind von der Performance her,
sagen wir mal,
ein bisschen anspruchsvoller,
als jetzt eine klassische Wellenform zu generieren.
Und deswegen würde man jetzt einfach
in dem Oszillator sich als allererstes Modul
einen Generator, das heißt Wave, reinladen,
und da hat man dann die Wahl zwischen
diesen, was weiß ich,
Sägezahn, 3-X-Welle, Square, Sinus, Bauschen,
und hat auch bis zu fünffach Unisono
und kann selber das detunen
und wie das im Stereobild aufgespalten wird,
alles einstellen
und kann diese Einstellung aber auch modulieren.
Das heißt, wenn du dir jetzt
einen einfachen analogen Synthesizer bauen willst,
sagen wir mal, zwei Oszillatoren,
dann nimmst du einfach zwei von diesen Modulen hintereinander,
dann machst du dir ein Filtermodul dahinter
und zum Beispiel dieses analoge Tiefpassfilter,
da hat man dann auch die Auswahl,
ob es jetzt ein Diode, ob es sehr dreckig sein soll,
ob es ein bisschen cleaner sein soll,
und dann bist du eigentlich fertig.
Also dann, da brauchst du nicht viel.
Ich habe sogar nur einen Oszillator genommen.
Ja, reicht ja auch völlig.
Ich habe ein 303-Sample genommen
aus irgendwie so einer, keine Ahnung,
Mars-Sample-Collection oder irgendwas,
was kostenlos im Internet verfügbar war
und habe das resynthetisieren lassen
und habe damit dann angefangen, mir Patches zu bauen
und kamen ganz lustige Sachen bei raus,
weil du ja natürlich, wie gesagt,
hast ja durch den modularen Ansatz
ganz echt verrücktes Zeug mitmachen.
Genau, das ist die eine Richtung,
das hat mir echt gut gefallen, ja.
Das ist die eine Richtung, in die man arbeiten kann
und die total Spaß macht.
Es gibt auch eine andere Richtung, in die man arbeiten kann.
Ich glaube, in der Version, die ihr habt,
sind noch nicht so viele Presets dabei.
Genau.
Wenn das released wird, werden es eher sowas
zwischen 500 plus sein.
Und da hat man jetzt die folgende Möglichkeit.
Ich nehme einfach einen Klang, der mir jetzt gut gefällt,
wo vielleicht auch sich jemand schon die Mühe gemacht hat,
dass das bei ModView sich irgendwie ein bisschen verändert,
weil es das Filter ansteuert oder sonst was.
Und jetzt kann ich aber einfach in der Iris
das Sample austauschen.
Ich nehme jetzt also mein 303 Sample oder ganz was anderes,
mein Sprachsample, das Probe-Podcast sagt
und haue es da rein.
Und auf diese Art und Weise habe ich aus dem Preset
etwas völlig Neues gemacht, aber mit null Mühe
und etwas ganz Eigenes, was niemand sonst machen kann,
der dieses Sample nicht hat.
Und das ist eine sehr schöne Arbeitsweise
und damit es noch ein bisschen einfacher geht,
kann man es jetzt auch so machen.
Es gibt so eine Freeze-Funktion.
Ich weiß nicht, ob ihr die entdeckt habt.
Die habe ich entdeckt, ja.
Und da würde man das jetzt so machen.
Man wirft sein Sample da rein und freest nur das,
wo man sagt, hey, das Sample, das passt bitte nicht an,
aber alles andere darfst du verändern.
Und dann kann man die Presets switchen
in dieser Freeze-Section und sagen,
jetzt nehme ich hier ein anderes Preset und so weiter
und kann die so durchsteppen.
Und ich habe dann immer mein Sample,
und ich verhöre das jetzt sozusagen
in den verschiedensten Verkleidungen,
wo ich jetzt einmal die 500 Presets,
wenn ich das will, durchgehen kann.
Oder ich mache mir vorher eine Auswahl und sage,
hey, eigentlich will ich aus meinem Sample
einen Pad-Sound machen.
Also liste ich mir mal hier alle Pad-Sounds,
die irgendwie dabei sind,
habe dann da vielleicht 70 Presets.
Und dann nehme ich mein Sample, das freeze ich,
und jetzt steppe ich die ganzen Pads durch,
und jetzt kriege ich 80 verschiedene Varianten
von meinem Sample reinterpretiert als ein Pad.
Also das ist ja jetzt auch noch ein Workflow,
der super effizient ist, der sehr viel Spaß macht,
und der über das...
der gewissermaßen andersrum funktioniert,
als man das normalerweise macht.
Normalerweise nimmt man ein Preset
und dann schraubt man ein bisschen.
Und hier ist es so, hier nehme ich mein Sample
und stülpe dann die Presets über dieses Sample drüber.
Ist das... kann man sagen, das ist eher...
du hast ja schon gesagt, es ist eher wie bei der...
ich versuche gerade einen Vergleich zu finden,
mir fällt gerade keiner ein.
Mir lag einer auf der Zunge, jetzt ist er wieder weg.
Verdammt.
Ja, aber es geht ja in dem Fall nicht nur um die Parametrisierung,
es geht ja auch darum, wie die Module
miteinander verkettet sind und so weiter.
Also das stülpe ich ja über den Sound drüber.
Genau.
Also sämtliche Module, nicht nur Effektmodule oder so,
sondern auch alles, was die Synthese angeht und so.
Und das ist das Geniale.
Und das Geniale ist übrigens auch,
dass du an allen möglichen Stellen,
ob es nun bei den Transformatoren ist
oder bei den Transformers
oder die Sample selber
oder die Module, die du miteinander verkettet hast,
du kannst dir das alles speichern als Preset.
Du musst es nicht, du kannst es auch insgesamt
als Preset einfach speichern
und dann ruft der alles wieder auf.
Aber man kann auch wirklich, wenn man will,
man muss es nicht, wenn man will,
kann man in die Details reingehen
und da einzelne Sachen austauschen.
Das ist das, was du gerade erzählt hattest.
Ja, man kann jetzt zum Beispiel auch,
also du überlegst jetzt zum Beispiel,
du willst vielleicht häufiger mal Klänge ergänzen
um ein Layer, wo du sagst,
der soll jetzt eigentlich eher so klassisch,
subtraktiv, analog sein.
Also machst du dir einmal so eine Sektion
aus ein paar Modulen, wo du sagst,
okay, hier ist so ein Wave-Generator,
dahinter packe ich einen Filter
und dann packe ich da noch, was weiß ich,
einen OTT dahinter.
Und damit ich das jetzt nicht jedes Mal neu aufrufen muss,
nimmst du diese drei Kombinationen
und speicherst die als ein Sub-Preset ab.
Und dann kannst du das nächste Mal,
wenn du irgendwie das Gefühl hast,
oh, jetzt möchte ich das gerne einsetzen,
kannst du das halt dann auf Knopfdruck
da wieder reinholen.
Das hatte ich gesehen, dass das so geht.
Fand ich irgendwie einen sehr interessanten Ansatz.
So ein bisschen, damit es ein bisschen gemütlicher ist.
Ich glaube, in Microtonic gibt es so etwas Ähnliches,
aber in der Form so,
habe ich das noch nicht gesehen.
Das ist anders, das ist ganz anders.
Synthplant könntest du so ein bisschen vergleichen,
aber Synthplant macht zwar auch eine Resynthese
von Samples, ist aber,
hat einen ganz anderen Ansatz,
weil Synthplant 2 dein Sample-Material
quasi in Echtzeit einmal ausprobiert und durchprobiert
und das versucht nachzustellen
mit den vorhandenen Synthese-Engineren.
Das meinte ich gar nicht.
Zusammenstöpseln alles.
Bei Microtonic kannst du halt
für jedes Modul Presets abspeichern.
Du kannst dir quasi, wenn du deine Drums...
Die einzelnen Instrumente, ja.
Wirklich jedes Instrument einzeln,
aber auch den Sequencer oder auch Automatisation,
das kannst du alles abspeichern.
Das geht hier halt auch.
Du kannst entweder pro Modul irgendetwas abspeichern,
wenn dir ein besonderes Setting gefällt
und dir mal einen Namen geben,
damit du es dann das nächste Mal wiederverwenden kannst.
Aber du kannst halt auch ganze Effektketten.
Solche Sachen wachsen halt.
Das war das Gute, dass ich keinen Chef habe.
Weil wenn ich jetzt Teil eines größeren Unternehmens wäre,
dann würde das Ganze so laufen.
Man würde sich am Anfang ein Konzept machen,
würde sich ganz viel überlegen.
Und dann würde man sagen, wie lange brauchen wir dafür?
Dann würde man sagen, das Release-Datum ist September.
So habe ich auch gestartet.
Aber im August habe ich dann gedacht,
nee, nee, nee.
Ich hatte so viele gute Ideen, wo ich gedacht habe,
bringe ich das jetzt im September raus
und dann lasse ich diese ganzen guten Ideen fallen
oder nehme ich mir noch ein bisschen mehr Zeit.
Also habe ich es geschoben auf Dezember.
Dann bin ich aber nach Japan gefahren für ein paar Wochen.
Das war so ein Lebenstraum, was ich schon immer mal wollte.
Und da hatte ich so viel Inspiration und so viele neue Ideen,
dass ich wiederkam und dachte, nix, Dezember.
Wenn ich im Dezember Release hätte,
wäre das Produkt hinter dem, was ich dann gesehen habe,
was möglich ist, so zurückgeblieben.
Und eine dieser Sachen war halt, dass man dann irgendwie merkt,
hey, so bestimmte Ketten von diesen Modulen will man immer wieder haben.
Oder dann spielt man vielleicht noch ein bisschen damit rum,
aber so Grundketten, das kommt immer wieder.
Und das nervt, weil man dann jedes Mal das irgendwie wieder neu arrangieren muss.
Und dann dachte ich, ja, es ist auch viel besser,
wenn man auch noch die Möglichkeit hat,
jetzt so eine ganze Kette zu speichern.
Und so wächst dann so ein Synthesizer halt auch über die Zeit.
Und oft ist es so, erst wenn man dann drei unterschiedliche neue Ideen
da reingebracht hat, ist das Ganze wieder auf einem Level,
dass man die vierte Idee überhaupt erst haben kann.
Und dann vielleicht noch, um das ein bisschen zu erklären,
wie das so entstanden ist.
Ich habe so einen Discord, und den habe ich mal ursprünglich gestartet,
um das Handling mit meinen Beta-Usern einfacher zu machen,
damit ich nicht immer ganz vielen Leuten eine Mail schreiben muss.
Nehmen wir mal an, dann haue ich eine Version raus,
bei der irgendwas nicht funktioniert, und dann kriege ich von 27 Leuten eine Mail,
die mir alle schreiben, dass sie jetzt gemerkt haben,
da funktioniert was nicht.
Das ist ja auch für die Leute total Zeitverschwendung.
Und deswegen habe ich gedacht, es wäre doch toll, wenn wir so einen Discord haben,
weil dann schreibt einer, hier gibt es einen Fehler,
und dann lesen das alle anderen, und dann braucht das kein anderer mehr schreiben.
Zeitverschwendung wäre es halt, wenn einer eine Mail an alle schreibt,
und alle schreiben zurück, bitte nehme ich aus dem Verteiler.
Das ist der Discord halt als proaktiver Verteiler,
in den man zuerst reinschauen muss, oder?
Aber auch, man weiß halt, was einem da erwartet.
Und es geht einem nicht in der eigenen Mailbox auf den Sack,
das ist halt so viel praktischer.
Das war halt die Grundidee, aber daraus ist was ganz anderes geworden.
Weil ich habe das dann erweitert, und das nicht mehr nur begrenzt auf die Beta-User,
sondern das ist jetzt alle Leute, die in diesen Discord kommen,
können da gucken und mitreden.
Und das tun die halt auch.
Ich habe dann so jeden zweiten Tag poste ich dann irgendwas,
wo ich gerade dran arbeite, oder was ich für eine Idee habe,
und dann sagen die Leute, oh ja, das wäre ja voll cool,
wenn man auch noch das und das machen könnte.
Oder ich habe mal irgendwo ein Feature gesehen, so und so.
Und da sind so viele Ideen entstanden.
Natürlich am Ende bin ich derjenige, der die Entscheidung trifft und sagt,
das nehme ich rein, das nehme ich nicht rein,
oder die Idee finde ich gut, aber ein bisschen verändert.
Aber es ist fast schon so eine Art Community-Prozess gewesen,
bei dem halt ganz viel Input auch von den Leuten in den Discord gekommen ist.
Und das hat, glaube ich, nicht nur mir total Spaß gemacht
und das Instrument besser gemacht,
sondern es hat auch den Leuten Spaß gemacht.
Oder die freuen sich auch, wenn sie wissen, da haben sie jetzt was vorgeschlagen,
und das ist jetzt in diesem Synthesizer drin, weil sie das vorgeschlagen haben.
Schwarmintelligenz.
Mhm, genau.
Ich habe auch den Eindruck, es färbt sich sehr aufs Handling ab.
Also ich bin ja großer Fan von so einem Bedienkonzept der alten beiden.
Ich lasse Abyss jetzt mal raus, da bin ich nicht so versiert drin,
aber gerade Novo und Kult, die finde ich in sich sehr schlüssig.
Und das hier ist jetzt was Neues.
Man merkt schon ein bisschen, dass es auf eine Art auch eine Weiterentwicklung ist,
die aber auch von den Impulsen außerhalb so ein bisschen lebt.
Und man merkt, dass du Popkultur-Fan bist
und amerikanische Filme der 80er liebst, was ich sehr sympathisch finde,
weil du hast hier quasi in Form des BTTF-Moduls,
bei einem Modulationsmodul, quasi einmal einen Fluxkompensator
mit den Parametern Biff und McFly, was ich total geil finde.
Ja, also das ist halt auch so, als ich zum Beispiel Novo oder Kult entwickelt habe,
da hat man dann oft so eine Idee, oder ich probiere was aus,
so in meiner Sicht, bei meinen Forschungen, und stelle fest,
hier kann man eigentlich was Interessantes mit Klang machen,
aber es ist jetzt nicht so gängig oder eingängig,
dass es gerechtfertigt wäre, in einem normalen Synthesizer zu sagen,
gut, dafür mache ich jetzt hier vier Knöpfe hin und verbrate damit
10% von dem zur Verfügung stehenden User-Interface.
Das heißt, solche Ideen sind früher dann einfach immer in der Schublade gelandet,
weil man sagt, ja, die sind ein bisschen zu nischig, um sie da jetzt reinzumachen.
Durch dieses Pedalboard-Konzept habe ich jetzt die Möglichkeit,
ich kann die obskursten Module machen, weil alles, was die fressen,
ist halt ein einziger Eintrag, der dann noch zusätzlich ist in dem Menü,
wo man die Module auswählen kann, und dann können halt mal solche Sachen
wie dieses BTTF entstehen.
Und man merkt an solchen Sachen dann aber auch wirklich die Liebe
vom Erfinder an sein Baby.
Ich lese mal kurz den Hilfetext vor, BTTF.
Advanced FM Synthesis with Feedback, bringing the 80s back to the future.
Geil. Sowas finde ich sehr sympathisch.
Ich schätze sowas, wenn man da so an solchen Details wirklich die Liebe
der Macher an ihren Produkten halt erkennt.
Es gibt so viele Softwareprodukte, wo man sowas sehen kann,
oder auch Hardware-Synthesizer, wo man das wirklich erkennt.
Zum Beispiel bei dem Elektron Analog 4, wenn man da aufs Mainboard schaut,
da sind so Space Invader-Figuren drauf.
Und ich mag halt solche Sachen. Ich finde das immer sehr schön, sowas zu sehen.
So kleine, so kleine, handschriftliche Notizen des Gedankens,
wenn das irgendwo hinterlassen wird. Das ist eigentlich gar nicht richtig
für die Funktion, aber es ist halt da.
Das gibt es ja auch in Prozessoren, gibt es das doch auch.
Dass an irgendeiner freien Stelle irgendwo ein kleines Männchen ist oder so.
Ja, du findest solche Easter Eggs überall.
Wobei, das Modul hat natürlich durchaus Sinn.
Das ist ja ein Delay-Modul, was sich quasi selber füttert.
Und da kommen schon auch interessante Sachen bei rum.
Mein Lieblingsbeispiel für sowas ist immer noch das Pong-Spiel in den Kurzweilsamplern.
Das war sehr cool.
Oder der Elvis bei der Elektron Maschinen-Drum,
der nach irgendwie 1000 Betriebsstunden oder so erst auftaucht,
wenn man das Gerät einschaltet.
Ich denke gerade mal in dieser Branche, wo man Musikinstrumente macht
oder Geräte, mit denen andere Leute Musik machen.
Ich würde mal sagen, die wenigsten Leute sind in diese Branche gegangen,
weil sie gedacht haben, das ist jetzt die tollste Möglichkeit,
die effizienteste Möglichkeit, um Geld zu verdienen.
Sondern die Leute sind in diese Branche gegangen, weil sie gesagt haben,
hier kann ich das machen, was ich richtig liebe.
Hier kann ich mich austoben.
Und in ganz vielen Bereichen, wenn man jetzt sagt, ich finde Autos toll,
dann kann ich nicht mit einer kleinen Bude von drei Leuten sagen,
wir entwickeln jetzt unser eigenes Auto. Das geht halt einfach nicht.
Und dieser Bereich mit Plug-Ins oder Synthesizern ist halt ein Bereich,
wo tatsächlich noch Einzelpersonen oder sehr kleine Gruppen von Leuten
die Möglichkeit haben, etwas zu schaffen, was dann andere Leute auch benutzen.
Bisher ungefähr alle Leute, die ich kennengelernt und getroffen habe,
die irgendwie in diesem Bereich arbeiten, sind da halt so mit Herzblut dabei.
Und das ist auch irgendwie toll.
Wir haben ja schon viele Leute auch hier im Interview gehabt.
Und das merkt man eigentlich bei jedem Einzelnen, hat man das gemerkt.
Ob das nur ein Faderfox ist, der Matthias, der da wirklich mit Herzblut
seine Controller da baut oder jetzt auch bei dir eben.
Und das ist immer sehr sympathisch, solche Leute kennenzulernen.
Ich habe eine Beobachtung gemacht, ist mir aufgefallen, fand ich jetzt,
ich sag mal so als Sound-Design-Option auch noch mal ziemlich interessant.
Wenn man die CPU von, man hat vier Einstellungen, man kann sie von Eco,
also sehr effizient, CPU-schonend, über Smart High auf Ultra stellen.
Und das verändert tatsächlich doch noch mal ganz schön drastisch auch den Klang.
Das fand ich sehr interessant, was da teilweise dann für ganz andere Ergebnisse bei rumkommen.
Das fand ich auch sehr ergiebig.
Um mal eben schnell zu sagen, so ey, dieser Sound hier, der langweilt mich,
ich kriege das nicht richtig hin.
Ja, dann stell doch mal hier einfach den CPU von, keine Ahnung, von Ultra auf Eco
und hör dir das dann mal an.
Ja, da vielleicht auch ein bisschen der technische Hintergrund, warum das so ist.
Vielleicht würde man sich ja wünschen, dass das in allen Einstellungen genau gleich klingt,
wäre das aber der Fall, dann bräuchte man ja auch die Einstellung nicht.
Und es gibt halt zwei so große Theorien, also Theoriegebäude,
mit denen man so Synthesizer und so weiter, die Algorithmen entwerfen kann.
Das eine ist so klassische Signalverarbeitung und das andere ist alles, was spektral ist.
Die haben beide ihre Vor- und Nachteile und aus meiner Sicht sind beide für manche Sachen
ganz, ganz toll geeignet und lassen aber auch ganz große Lücken.
Und aus meiner Sicht ist es nicht die perfekte Theorie, um wirklich solche Musikinstrumente zu gestalten.
Auch wenn diese Theorien natürlich teilweise schon 80 Jahre lang entwickelt wurden,
da sind die natürlich auch sehr leistungsfähig.
Aber beispielsweise die klassische Signalverarbeitungstheorie ist halt immer linear
und die reale Welt ist es nicht.
Das ist auch der Grund, warum das so lange gedauert hat, bis digitale Filter gut geklungen haben,
weil man sie halt eigentlich mit der klassischen Signalverarbeitungstheorie nicht erfassen kann.
Denn in einem analogen Filter ist immer irgendetwas nicht lineares,
weil da sind ja Stromspannungen, die benutzt werden und die kann halt nicht beliebig linear weiter wachsen,
sondern die geht halt irgendwann in eine Sättigung.
Wenn ich 15 Volt zur Verfügung stehen habe, kommt da niemals ein Signal, was über 15 Volt geht.
Und deswegen bin ich schon seit Jahren dabei, eine andere Theorie Schritt für Schritt jetzt selber zu entwickeln,
die aus meiner Sicht besser geeignet ist und die irgendwo zwischen dieser klassischen Signalverarbeitung und dem spektralen liegt.
Die hat ziemlich viel zu tun mit dynamischen Systemen.
Das ist ja auch in dem Synthesizer-Kult mit der Chaos-Theorie schon so ein bisschen auszelebriert gewesen.
Das bedeutet aber auch, dass diese Nicht-Linearität sozusagen das Kernelement ist.
Das heißt, da ist erstmal die Grundannahme, dass alles nicht linear ist.
Ich will es jetzt nicht zu kompliziert machen, das bedeutet aber auch,
dass solche Sachen wie eine Auflösung, mit der ich das jetzt annähere, mit der ich das jetzt in einem Computer berechne,
spielt eine Rolle, wie sich dieses Signal dann tatsächlich in der Zeit verhält.
Dieses Ultra pusht diese Auflösung wahnsinnig nach oben.
Das bedeutet, dass in den anderen Einstellungen es eine etwas vereinfachte Approximation ist,
und die hört sich dann anders an.
Das war jetzt sehr kompliziert, oder?
Nein, ich habe es verstanden.
Aber du hast auch einen Doktor in Mathematik, Sascha.
Das ist interessant. Was hast du gemacht? In welchem Bereich?
Computerwissenschaft.
Das ist jetzt sehr weit gefasst.
Ich meinte, was ist der …
Ich habe mich zum Schluss mit Primesalen beschäftigt.
Ah, abgewandte Mathematik.
Mhm.
Ich habe ja auch noch eine Ausbildung als Elektronenstallateur.
Deswegen kommst du mit, während ich gerade vor einer Minute so innerlich versucht habe, mitzuhalten.
Ich habe keine Mathematik studiert, ich habe auch keinen Doktortitel,
beziehungsweise ich hatte nur ein paar Monate auf der Uni in Informatik.
Aber ich habe noch mal eine praktische Frage.
Ich habe hier gerade den Myth offen, und ich habe jetzt noch mal einen Nachvollzug.
Ich habe tatsächlich diese Generatoren, diese Wellenformgeneratoren, nicht gefunden als Modul.
Aber jetzt, wo du es erzählt hattest, ja, ganz offensichtlich.
Ich wähle einen Oszillator aus, drücke das Pluszeichen, und dann sagt er mir einfach "Generation".
Und dann kann ich einfach einen Wave angeben.
Frage, wenn ich da mehrere Wellengeneratoren anklicke, wirken die dann additiv oder substraktiv?
Oder wie sind die miteinander dann verschaltet?
Ja, wenn du guckst, ist, glaube ich, unten links in der Ecke ein Mixregler bei dem Wavemodul.
Ja, okay.
Und das funktioniert halt so, du kannst es dir wieder vorstellen wie ein Gitarrenpedal.
Es hat einen Eingang und es hat einen Ausgang.
Über den Mixregler sagst du, wie viel von dem Eingangssignal soll er jetzt durchschleusen
und wie viel soll jetzt von dem generierten Wave dazu addiert werden.
Okay, aber mehr als drei gehen nicht.
Aber das ist eine normale Summierung, ne?
Das ist hier eine normale Summierung, genau.
Und das geht dann zusätzlich zu dem Sample, das ich reingehören habe?
Genau, zusätzlich oder alternativ.
Was Spaß macht, ist, man macht erstmal einen klassischen Synth-Sound mit diesem Wave-Generator.
Und die sind dann meistens relativ clean.
Und das ist auch das, was man in 5000 anderen Synthesizers relativ einfach machen kann.
Und dann kann man aber noch irgendein relativ statisches Sample nehmen und in die Iris,
also per Drag & Drop, da reinwerfen.
Und dann ein bisschen an den Transformers rumspielen.
Und dann kriegt man so einen, je nachdem wie man es einstellt,
zwischen subtilem Dreck oder richtig krassen Dreck irgendwie noch da drüber.
Der verbindet sich, aber das verschmilzt so ein bisschen.
Also man hat jetzt nicht das Gefühl, irgendwo ist da jetzt dieser Klang und ganz woanders ist dieser Dreck,
sondern man kann also auf diese Art und Weise sehr schön schmutzige, organische Klänge machen,
beziehungsweise einen klassischen Synth-Sound halt so ein bisschen anrotzen.
Ja, genial.
Mehr als drei gehen auch nicht, aber dann hat man halt noch andere Möglichkeiten.
Da kannst du noch ein bisschen tauschen und gehen und...
Ja, also das sind drei pro Oszillator.
Das bedeutet, du kannst ja bei der anderen Iris auch nochmal drei dazu tun.
Das heißt, du hast sechs.
Ja, Wahnsinn. Und dann so viel, wie die Rechenleistung hergibt an Stimmen.
Und wo genau gerätst denn jetzt die Iris dazwischen?
Die ist ja in sich noch ein Oszi, aber die ist auch ein Modulator.
Habe ich das richtig verstanden?
Also was macht die Iris denn mit den Wellen?
Du kannst die Iris modulieren.
Das ist ja ein Sample.
Du kannst das Sample entweder komplett abspielen oder nur ein klitzekleines Stückchen davon.
Das kannst du halt einstellen über die ganzen Icons.
Jedes Icon hat halt eine entsprechende Bedeutung.
Und die Iris besteht halt aus vier Elementen, die du übereinander, ineinander blenden kannst.
Ja, und wo ist die im Signalweg? Das versuche ich ja die ganze Zeit.
Ganz am Anfang.
Die ist ganz am Anfang. Die steht ganz am Anfang.
Und wenn man sie nicht haben will, lässt sich die auch deaktivieren.
Also man muss sie nicht benutzen, man kann sie benutzen.
Ich habe auch schöne Presets gesehen mit den Wave-Ozis, die einfach überhaupt keine Iris hatten.
Aber ganz grundsätzlich so, ich habe jetzt so eine Ansammlung an ziemlich doofen,
bis also einfach, ich sage mal, sehr, sehr naiven Fragen.
Die werfe ich dir jetzt einfach mal an den Kopf und du versuchst sie mir so weit zu beantworten.
Ich meine, wir kennen Novum, wer das mal vor sich hatte, der weiß ja so ein bisschen, wie das funktioniert.
Der zerschlägt dann ein Sample in sechs Teile und lässt dann quasi ein Granulator drüber laufen.
Ist diese Iris hier auf eine Art dasselbe, hat einfach mit einem Scannerstrich, also der so im Kreis läuft?
Oder ist das was ganz anderes und das hat nichts mit dem zu tun?
Es gibt eine Überschneidung.
Die Idee etwas in sechs unabhängige Teile zu zerlegen und wie man das macht, das ist bei Novum und bei NUS ziemlich ähnlich.
Aber was dann aus diesen Teilen gemacht wird, ist komplett unabhängig voneinander.
Und es ist nicht granular.
Es ist dieser Strich, der im Kreis läuft, oder?
Genau, man kann sich das am ehesten vielleicht noch vorstellen wie ein Wavetable.
Aber erstens, es klingt nicht wie ein Wavetable-Synthesizer.
Man kann es ein bisschen in die Richtung bringen, aber es klingt vom Grundprinzip erst einmal anders.
Und es hat halt auch mehr Möglichkeiten, die mit einem klassischen Wavetable-Synthesizer nicht so einfach möglich sind.
Weil es zum Beispiel auch inharmonische Samples, also die Inharmonizität wiedergeben kann
und auch rauschhafte Teile etwas besser wiedergeben kann.
Ja, sehe ich.
Die Iris ist quasi als Sampler der Kern.
Und dann hast du rechts unten auf der Seite Arp, zwei Ostsees, der Filter und zweimal FX.
Das ist quasi die Kette, die fix ist.
Fix in dem Sinne, dass du einfach immer links beim Oszillator einen Wet-Regler und einen Oktav-Schalter hast.
Du kannst unten noch ein bisschen was an der Stimmung ändern.
Du hast dann beim Filter noch ein Wet-Regler und ein bisschen Gain und beim FX dann quasi zweimal Sense.
Den Arpeggiator lassen wir mal außen vor, der hat einfach so ein bisschen seine eigenen Module.
Und dann kommt ja eigentlich etwas, das von den Modulen her sehr frei ist.
Also du hast eigentlich immer einen Ostsee.
Der Ostsee ist, wenn ich es richtig verstanden habe, ist das zuerst mal die Iris, außer du schaltest ihn ab, dann ist es einfach ein leerer Block.
Du kannst dir den Oszillator so vorstellen. Stell dir vor, die Iris wäre deine Gitarre.
Dann ist das, was du siehst, wenn du jetzt auf dieses Ostsee, auf diesen Block drückst, das ist jetzt dein Pedalboard für diese Gitarre.
Da hast du dann sozusagen deine Effekte.
Und die Besonderheit ist, das ist halt nicht wie ein normaler Effekt in der Effekt-Section eines Synthesizers,
weil die funktioniert immer auf der Summe, sondern hier hast du...
Und das sind halt auch Effekte, die du so in keinem anderen Effektgerät finden würdest.
Ja, das kommt noch dazu. Aber ich kann halt hier quasi einfach schon alles direkt in den Ostsee schmeißen
und es dann quasi durch den Filter jagen, statt einfach zuletzt in die Kette zu packen.
Du musst es nicht mal durch den Filter jagen, weil du kannst halt auch direkt in dieser OSC-Section
dir deinen Filterpedal sozusagen reinmachen.
Der Unterschied ist nur, also erst hast du die beiden Iris, die gehen dann jeweils durch ihr eigenes Pedalboard,
dann werden die beiden zusammensummiert und haben dann nochmal ein kombiniertes Pedalboard.
Das heißt hier Filter und man kann es so benutzen, aber auch da kann ich ja beliebige andere Sachen machen.
Ich muss da keinen Filter rein, weil per Default hat der nur Boost und Mix, also Wet in dem Sinn jetzt.
Ich kann ihn dazu mischen oder halt rausnehmen.
Aber ich kann da halt reinbauen, wie ich gerade lustig bin.
Also ich sehe hier auch wieder, ich habe sechs Filter, aber ich habe eben auch tonnenweise Modulation,
ich habe Distortion, ich habe Effekte und ich habe irgendwie noch so...
Was macht eigentlich dieses Route-Effekt? Das sind zwei Pfeile.
Ja, okay. Es gibt ja immer, hat man noch den Wunsch, vielleicht noch ein bisschen flexibler zu sein.
Und irgendwann kommt man auf die Idee und sagt, ist ja toll, dass ich das so einfach habe mit so einem Pedalboard
und das geht immer alles so von links nach rechts.
Aber dieses Mal würde ich eigentlich gerne mein Pedalboard noch spalten wollen.
Ich würde gerne eigentlich zwei Pedalboards haben, die parallel machen.
Ich möchte einmal zwei Effekte haben auf der Iris und das soll zum Ausgang gehen.
Und dann möchte ich aber nochmal andere Effekte haben auf der Iris und das soll auch zum Ausgang gehen.
Und da kann ich dann so ein Routing-Pedal dazwischen setzen,
das dann sozusagen einmal die Pedale, die links von dem Routing sind, von diesem Routing-Pedal auf den Ausgang packt
und danach die Iris wieder neu einspeist in alles das, was rechts kommt.
Das muss man jetzt aber hier im Podcast nicht verstehen.
Ja, ich glaube auch, wenn es gut erklärt ist in der Bedienungsanleitung, dann macht es Sinn.
Aber ich sehe es hier, ich klicke hier rum, drücke auf Plus und sehe immer wieder neue lustige Effekte.
Man sieht halt schon, gewisse sind nicht überall drin.
Hast du da ein bisschen geguckt, dass sich das Ganze nicht aus Versehen selbst oszillieren oder exponieren kann?
Ich habe so ein bisschen geguckt, was macht Sinn, was würde man jetzt wo tatsächlich irgendwie verwenden.
Und manchmal gibt es, manche Effekte machen keinen Sinn auf einer Summe, auf Polyfon-Material.
Das heißt, die Module, die in der Effekt-Section zur Verfügung stehen, sind andere als die für die Voices.
Aber ich will nochmal eine Sache sagen mit der Bedienungsanleitung.
Ich weiß nicht, ob ihr die Funktion entdeckt habt, es gibt auch so ein eingebautes Tutorial-System.
Und das funktioniert so, ich habe gedacht, das wäre ja toll, hat ja eh keiner Lust, eine Bedienungsanleitung zu lesen,
wenn das irgendwie da integriert wäre.
Und dann habe ich gedacht, ja, aber ich finde es auch immer künstlich, wenn da irgendwie so ein bescheutes Tutorial-System ist.
Und eigentlich, was man ja will, ist jetzt nicht so ein Tutorial, wo einem jemand was erklärt, sondern man will ja selber machen.
Und deswegen habe ich das im Mist anders gemacht.
Ein Tutorial besteht eigentlich nur aus einer bestimmten Abfolge von Presets,
die jeweils eine Erklärung haben und einen auffordern, jetzt irgendwas Bestimmtes zu machen.
Und da gibt es dann verschiedene Tutorials für die ersten Schritte, die man so durchgehen kann.
Und das funktioniert dann halt so, dass man dann dieses Tutorial startet.
Aber es bedeutet einfach nur, es wird jetzt der erste Preset davon geladen.
Und wenn man sich durchlesen will, was steht denn da?
Ah ja, ich soll jetzt hier mein Sample nehmen und da drauf machen.
Ah, dann hört sich das so an. Jetzt habe ich es verstanden, gehe ich zum nächsten Preset.
Und da werden alle diese Sachen erklärt.
Und man kann jederzeit, wenn man denkt, oh wow, das klingt ja jetzt geil, was ich hier gemacht habe,
kann man dann erst mal nach Belieben weiterspielen.
Also so ist die Idee von diesem Tutorial.
Und dann frei Schnauze rumprobieren, das abspeichern und dann irgendwann wieder sagen,
ah, jetzt will ich was Neues lernen.
Das ist genau mir passiert. Ich habe das Tutorial angefangen und dann habe ich angefangen rumzuspielen
und ich konnte nicht mehr aufhören.
So soll es sein.
Und wenn du dann aber irgendwann denkst, so, jetzt möchte ich mal wieder was Neues lernen,
dann kannst du halt wieder zurück zu diesem Tutorial gehen.
Ja, das ist schon ganz gut gemacht, das stimmt, ja.
Und solche Sachen wie dieses Routenpedal, das wird da halt auch erklärt.
Und dann versteht man das plötzlich ganz einfach, weil da dann steht, okay, jetzt nehmen wir das da drauf
und dann hört man das und das und so weiter.
Dann sind das zwei, drei Schritte und wenn man das einmal selber gemacht hat, dann ist es trivial.
Ja, dann ist es praktisch eigentlich drin.
Ja.
So, was haben wir dann da noch so?
Ich habe mal so ein bisschen geguckt.
Also wir haben jetzt den Synthesizer in der Mitte schon relativ tief besprochen.
Da gibt es außenrum noch so ein paar schöne Dinge.
Zum Beispiel hast du diesmal quasi Expressionen und Makros quasi einfach sieben Stück davon gemacht.
Aber du hast gleichzeitig rechts noch eine Sektion wieder, die so nach dem Motto Plus funktioniert,
wo du auch wieder alle möglichen Module reinsetzen kannst, wie man es auch von den anderen Synthies kennt.
So, Novum hat ja so eine Plussektion, Rude hat so eine Plussektion.
Also du hast dir ja was gedacht bei diesem Aufsplitten, oder?
Ja, also ich fange mal mit dem Problem an, was existiert.
Wenn ich jetzt zum Beispiel bei mir gucke, ich habe hier so einen Osmose-Controller,
ich habe einen Roli Seaboard und ich habe hier so eine 88-Tasten-Piano-Tastatur.
Damit bin ich relativ gut ausgestattet.
Das heißt aber auch, wenn ich jetzt ein Preset mache, dann mache ich den am liebsten auf dem Osmose,
weil das einfach das genialste Keyboard dafür ist.
Da hast du ja auch schon Osmose-Support quasi direkt reingebaut.
Genau.
Jetzt ist es aber so, jetzt mache ich diesen Preset und jetzt, keine Ahnung,
willst du den vielleicht irgendwie verwenden und bei dir sieht das ganz anders aus.
Du hast jetzt ein klassisches Vier-Oktaven-Keyboard mit Modwheel und du hast vielleicht noch ein Fußpedal.
Das bedeutet, du musst jetzt jeden einzelnen Preset, den ich gemacht habe,
sagen, hier hat der Peter, das ist ja voll scheiße gemacht,
der hat hier von Osmose das Polyphone Pressure genommen, das will ich doch auf Modwheel haben.
Du stellst jetzt alles ein, spielst und denkst, oh ja, das ist ein toller Klang,
gehe ich mal zum nächsten Preset, das ist schon wieder und das nervt total.
Das will man ja nicht und das ist heutzutage, glaube ich, ein zunehmendes Problem.
Auch die Sounddesigner haben ganz andere Geräte als die Leute, die dann hinterher diese Klänge hören.
Deswegen ist die Idee, einmal ganz am Anfang teilst du dem Synthesizer mit,
was sind denn deine drei expressiven Sachen, die du so verwendest.
Das wird meistens Velocity sein, das wird als zweites dann vielleicht Modwheel sein
oder das wird ein Fußpedal sein oder das wird Aftertouch sein oder wie auch immer.
Diese drei Sachen stellst du einmal ein und alle Sounddesigner verwenden diese drei Dinge
in einer einheitlichen Art und Weise.
Das heißt, jetzt kannst du einfach durch alle Presets durchgehen und es ist völlig egal,
auf welchem Instrument ich diesen Klang mal designt habe oder irgendein Sounddesigner,
du kannst diesen Klang mit deinem Setup jetzt vernünftig spielen.
Und deswegen sind diese drei Regler, die da E1, E2, E3, also diese Expression-Regler,
getrennt von den anderen und funktionieren halt auch anders, weil die nicht im Preset gespeichert werden,
sondern weil die für dich als ein Setup gespeichert werden.
Stellst du einmal ganz am Anfang ein.
Ja, ein bisschen global.
Genau.
Und das macht sozusagen, also da gibt es ja unterschiedliche Lösungen vor,
bei manchen Synthesizers ist es dann so, dann gibt es jeden Patch zweimal,
einmal als Nicht-MPE-Version und einmal als MPE-Version.
Aber selbst das funktioniert nicht mehr, weil Roli, dieses Keyboard, verwendet MPE anders als das Osmoser.
Also bräuchte man jetzt schon drei Varianten.
Und noch eine vierte für das Launchpad, weil das hat auch wieder eine andere Art zu arbeiten.
Und eine fünfte für den Push.
Fünfte für den Push und so weiter, und das hört nicht mehr auf.
Sechste für das Linstrument, und wenn jetzt noch irgendwas MPE-mäßiges von Arturia kommt,
hat es noch wieder ein Problem.
Genau.
Ist eigentlich ziemlich genial.
Und die Makros sind dann einfach quasi nochmal so Makros, wie man sie halt kennt, oder?
Die Makros sind Makros, wie man sie kennt, genau.
Aber ich kann die dann halt auch bei mir selbst routen,
sage, okay, ich habe hier vier Makro-Knöpfe, und es ist völlig egal, wo du deine Makro-Knöpfe hattest,
sondern die gehen dann quasi im Global Setting auf meine.
Genau.
Du kannst deine Makros dann nach Belieben sozusagen automatisieren,
in der DAW, wie du das irgendwie haben willst,
oder du kannst sie dir in Ableton routen, oder Bitwig, oder sonst was.
Du kannst sie dir auf irgendwelche Fader von deinem Keyboard legen.
Das machst du einmal, weil das passiert ja gewissermaßen außerhalb von dem Synthesizer.
Und dann, wenn das Preset diese Makros nutzt, hast du sie zur Verfügung.
Also das ist ganz klassisch.
Und diese Idee der Makros hast du aufs Expressive weitererweitert mit den E-Parametern?
Genau.
Das ist schon alles. Sehr, sehr schlau.
Bei diesen E-Parametern gibt es halt so eine Guideline für die Sound-Designer.
Ich habe dieses Mal über zehn professionelle Sound-Designer angesprochen,
die alle für MÜSS Klänge gemacht haben und die auch alle früh involviert waren und Feedback gegeben haben.
Und da gibt es halt so eine Guideline dafür, was man beachten muss,
wie man E1, E2, E3 sozusagen als Sound-Designer, was man dabei berücksichtigen muss,
damit man genau das erreicht, was man will.
Ich programmiere einmal einen Klang oder ich stelle einmal einen Klang mit meinem Setup
und danach übersetzt der sich auf jedes beliebige andere Setup von anderen Menschen.
Das sind auch nur zwei, drei Regeln, die stehen auch im Handbuch.
Das ist jetzt keine Geheimwissenschaft, nichts Kompliziertes,
aber das muss halt auch einmal irgendwo definiert sein.
Und für denjenigen, der den Synth jetzt benutzen will,
um selber für sich damit Klänge zu machen oder Presets zu nutzen,
ist es halt extrem einfach, weil ich stelle einmal an Tag 1 mein Setup ein.
Das dauert zwei Minuten, das dauert zehn Sekunden,
weil im Prinzip für die klassischen Setups gibt es bereits Voreinstellungen.
Da muss ich nur noch sagen, ich habe hier ein klassisches MIDI-Setup oder ich habe ein Osmose
oder ich habe hier ein Roli Seaboard.
Dann kann ich das benutzen und muss mir über nichts mehr Gedanken machen.
Osmose 2 ist was? Ist das irgendein Leak, den wir jetzt wieder mit der Geräte übersetzen müssen?
Nein, das hat nichts mit dem zu tun, mit einem neuen Gerät irgendwie.
Du hast zwei Herangehensweisen gebaut.
Genau, ich habe zwei Herangehensweisen gebaut, denn beim Osmose ist es so,
man hat erstmal die Velocity, wenn man die Tastatur anspielt,
und dann hat man vielleicht einen halben oder einen Zentimeter.
In dem Bereich hat man Pressure.
Wenn man noch stärker die Taste durchdruckt, also kann man, was weiß ich, bis zu drei Zentimeter tief durchdrucken
gegen so einen sehr angenehmen, unglaublich nuancierten Widerstand,
da kommt dann Slide ins Spiel.
Das bedeutet aber auch, es ist sozusagen erst Pressure, dann Slide.
Und bei dem Seaboard sind die Parameter unabhängig.
Und deswegen habe ich noch eine Kombination gewissermaßen gemacht,
die jetzt einfach diesen gesamten Hub der Taste zu einer Modulationsquelle zusammenfasst.
Dadurch habe ich dann die Möglichkeit, auch noch das Modwheel,
also das Osmose-Keyboard hat halt auch noch ein Modwheel,
oder ich kann dann einen alten Fußpedal oder irgendwas nehmen,
dass ich das noch zusätzlich zur Verfügung stehen habe.
Das wäre dann dieses zweite Setup.
Also wer das Osmose hat, der wird das sofort intuitiv verstehen und sich freuen.
Ich übergebe zwischendurch mal an die anderen.
Ich sehe da noch so ein paar kleine Features, aber ich glaube, der Thomas hat die auch schon
bei uns in den internen Chats großgepriesen.
Deswegen gebe ich ihm jetzt mal den.
Das ist so cool.
Was denn?
Erzähl mal, ich weiß jetzt selber nicht, was du meinst.
Einmal mit Profis.
Das sind so ganz viele Kleinigkeiten, die einfach diesen Synthesizer so nett machen.
Das fängt an mit der automatischen Patch-Benahmung auf Knopfdruck,
dass du dir selber keine...
Gerade ich bin halt so ein Typ, ich kann mir keine Namen ausdenken.
Ich bin ganz schlecht darin.
Also wer sich meine Veröffentlichungen anschaut, der wird den Kopf schütteln und sagen,
was denkt sich der Typ da für eine furchtbare Titel aus?
Und das finde ich sehr angenehm, dass mir die Software das abnimmt.
Die andere Sache ist, dass du da eine automatische Versionierung drin hast.
Wenn ich das will, kann ich das versionieren lassen, vollautomatisch.
Dann macht er halt eine Version 2 draus.
Das ist so ein nettes Gimmick.
Das habe ich noch nie so vorher bei einer anderen Software gesehen.
Aber jeder hat das schon mal erlebt, dass man sich irgendwas zerschossen hat.
Ja, auf jeden Fall.
Genau in dem Moment.
Und umgekehrt gibt es ja auch die, die alles automatisch machen.
Und dann ist es so, man macht und dann drückt man und dann macht man und noch mal.
Und irgendwann will man das jetzt wiederholen.
Dann sieht man, ich habe da 73 verschiedene Versionen.
Welches war denn jetzt noch mal die, die ich haben wollte?
Man muss schon beim Abspeichern die Möglichkeit haben zu entscheiden,
will ich es jetzt überschreiben oder will ich es versionieren.
Richtig.
Das sind so Kleinigkeiten, die das Arbeiten mit diesem Synthesizer so angenehm machen.
Ich bin gerade in unserem Slack und ich sehe es hier jetzt wieder weiß auf schwarz vor mir.
Du hast die Wave-Dateienfunktion.
Wo du einfach eine Wave-Datei aus dem Synthesizer exportieren kannst.
Die hast du in sehr großen Tönen, beziehungsweise sehr großen gecaps-lockten Buchstaben gelobt.
Genau, das ist auch noch so ein cooles Fitcher.
Ein Fitcher.
Fitcher und Feature.
Feature-Spinner.
Genau.
Jetzt ist es schon ein paar Tage her, dass ich mir das angeschaut hatte.
Du kannst einfach die zuletzt gespielten Noten mit aufzeichnen und die kann man sich einfach so exportieren.
Genau, weil oft ist es ja so, dass man gar nicht an einem Synth-Sound nur arbeitet,
weil man eine Melodie spielen will oder irgendwas,
sondern weil das ein Schritt ist von einem größeren Sound-Design.
Wo ich sage, jetzt mache ich ein paar Schritte in diesem Synthesizer und danach arbeite ich in dem Programm weiter.
Und dann muss man jedes Mal erst eine Note aufnehmen in der DAW, dann muss ich das recorden,
dann muss ich das zu einem Audio umwandeln und dann kann ich damit weitermachen.
Das nervt total und deswegen die Idee einfach, jetzt hat sich das gerade angehört.
Oder vielleicht will ich es auch expressiv spielen.
Dann spiele ich es einfach fünfmal hintereinander, bis es so geklungen hat, wie ich es haben wollte.
Und dann kann ich das Sample einfach nehmen und weiterarbeiten.
Oder ich kann das Sample nehmen und ich kann es dann als Re-Import wieder in die Iris werfen.
Oder es gibt ja auch noch dieses modale Filter, über das wir gar nicht gesprochen haben.
Das lässt sich ja auch mit einem Sample trainieren und dafür kann man das auch hervorragend nehmen.
Ach guck mal, das haben wir gar nicht entdeckt. Das modale Filter.
Das heißt modal und ist ganz einfach.
Das ist ein Filter, was im Prinzip kann man sich vorstellen wie ein Resonator.
Nur wenn so ein Resonator wie jetzt zum Beispiel...
"Africa Ambient Crystal Glass Handpan Hole Kitchen Aid"
Also, ich erkläre es einmal kurz.
Es funktioniert im Prinzip wie ein Resonator, nur ein Resonator hat normalerweise eine feste Stimmung.
Und bei diesem modalen Filter ist es so, der Key-Trackt automatisch.
Das heißt, ich kann diesen Resonator jetzt anregen mit irgendetwas.
Mit einem Knall oder mit etwas Rauschigem.
Field Recordings gehen total gut, Drum Loops gehen total gut.
Und dann kann ich das aber über dieses modale Filter oder diesen modalen Resonator tonal spielen.
Und das klingt dann halt so wie Physical Modeling.
Nur, dass ich diesen ganzen Scheiß von Einstellungen, das funktioniert nicht richtig und nervt irgendwie,
dass ich den nicht habe.
Und damit man jetzt direkt loslegen kann, sind so ein paar Voreinstellungen dabei.
Das sind die, die du gerade vorgelesen hattest. Das sind einfach Sample-Zieher-Nummern.
Aber der Clou ist eigentlich, ich kann jetzt jedes beliebige Sample nehmen, direkt einen Drop da drauf werfen
und dann wird dieses modale Filter trainiert und lernt aus dem Sample,
welche Resonanzen kommen denn jetzt eigentlich in diesem Sample vor.
Und also für alles, was so, sag ich mal, wie zum Beispiel Vibraphon, Marimba, Häng,
also alles, was so ein bisschen perkussiv ist an akustischen Instrumenten, funktioniert das ganz toll.
Und weil man was bekommt, was sich dann auch super organisch spielen lässt.
Ich bin gerade ein bisschen sprachlos.
Ich bin vor allem deswegen da, dass mir das entgangen ist.
Ja, und der Punkt ist, andere würden das entwickeln.
Dieses kleine Modulchen hier würden eine schöne Oberfläche drumherum bauen
und ihre Marketingfuzzis drei Monate lang darauf masturbieren lassen.
Du packst das irgendwo so in deine Filter-Sektion,
dass drei Leute, die sich das Ding willig anschauen, das komplett übersehen.
Hör zu, das Geile ist, du kannst das denn ja auch noch im Stereofeld,
also du kannst das entweder auf dem linken oder rechten Kanal oder halt aufs Stereofeld packen,
diese Modalfilter. Und wenn du die Root-Funktion benutzt,
unterschiedliche Modalfilter-Einstellungen benutzen für jeden Kanal eigen.
Und hast dadurch eine unglaubliche Sound-Design-Möglichkeit,
weil du damit dann noch organischere Klänge bauen kannst.
Ja, und du kannst zum Beispiel, klassisch würde ich es jetzt so machen,
ich würde Distortion davor packen, und das würde ich dann zum Beispiel
auf Velocity oder Pressure oder so legen, damit die Distortion sozusagen etwas krasser wird,
wenn ich stärker zulange. Dadurch wird dann der Resonator stärker ins Schwingen gebracht
und du kannst dann hinter dem Resonator dir dann zum Beispiel noch so ein Orbit-Modul
oder ähnliches hin tun, um das Ganze jetzt wieder so ein bisschen synthetischer klingen zu lassen.
Und damit kriegst du das Beste aus allen Welten, weil du im Prinzip jetzt etwas hast,
was sich einerseits so anfühlt wie so eine Hand-Drum oder wie ein Hang,
und was aber auf der anderen Seite dir auch in den Bereich synthetischer,
analog, warm klingender Wellenform irgendwie geht. Also das sind halt auch Sachen,
wo man noch viel ausprobieren kann und rumspielen.
Die ist so, sag ich jetzt mal, also bestimmt gibt es das wieder irgendwo und schon 1950
in der Sowjetunion im nächsten Heinbach-Video, aber es ist nicht so das Klassische,
was man jetzt immer überall schon tausendmal gehabt hat.
Also nochmal, liebe Zuhörer, wenn euch jetzt auch der Kopf explodiert ist
vor lauter Möglichkeiten, die sich dadurch eröffnen, dann könnt ihr mich vielleicht
jetzt ein bisschen verstehen.
Also ich spiele ja, mein eigentliches Instrument, was ich gelernt habe,
ist ja Fagott und Kontrafagott. Und natürlich hat so ein Instrument
einen relativ engen Spielraum, aber es ist trotzdem auch so, dass man sein Leben lang lernt
und neu dazulernt und neue Fähigkeiten entwickelt und so.
Und man baut halt über viele Jahre so eine Beziehung auf zu einem Instrument.
Und das ist auch so ein bisschen was, was ich vielleicht als so ein Ideal anstrebe,
dass so ein Synth nicht so was ist wie "Oh, es gibt einen neuen Synth, den probiere ich mal aus".
Zwei Wochen später "Oh, es gibt einen neuen anderen Synth" und dann geht man dahin.
Ich meine, das ist auch okay, aber und man kann "müß" auch gerne so benutzen,
aber "müß", das war jedenfalls mein Wunsch, soll auch schon die Tiefe haben,
dass man auch nach einem halben Jahr, das man sich damit beschäftigt, noch neue Sachen entdeckt.
Und zwar auf eine spielerische Art und Weise.
Und ich muss nicht alle diese Sachen verstanden haben, ausprobiert haben,
damit ich einen guten Klang machen kann. Ich kann von Anfang an tolle Klänge machen,
aber ich werde auch nach drei Monaten noch irgendetwas entdecken, was ich vorher noch nicht gesehen habe.
Also mir ist das Modal-Modul total an mir vorbei gegangen,
weil ich konnte mir da echt nichts darunter vorstellen, was das sein soll.
Und da habe ich es gar nicht ausprobiert. Ich habe mit dem Zufallsgenerator geschrumm gespielt.
Ja, Peter, da haben wir mal Negativpunkte gefunden.
Der Erklärungstext ist auch sehr sparsam, da steht einfach nur "Immodal Filter".
Ist das alles?
Ja, mehr steht da nicht. Okay, wir haben die Version 1.0.1.
Also ich habe ja auch das Handbuch bei ShedGBT reingetan und habe ein GBT gebastelt
und habe dann Fragen gestellt. Und selbst da wurde mir dann nicht erklärt, was das ist.
Du Fuchs, du hast ShedGBT trainiert, um dir Fragen zu beantworten.
Ja, ich habe das für einige Sachen schon gemacht.
Ich habe sämtliche Handbücher reingeschmissen, die ich so habe und andere Sachen.
Er hat sämtliche Kochbücher reingeschmissen, die er so hat.
Das stimmt zwar, ich habe das gerade mal ausprobiert,
er sagt tatsächlich nur "Immodal Filter", da könnte man vielleicht noch mal mehr dazu sagen,
aber bei jedem Knopf, über den man geht, erzählt er dann ja schon noch ein bisschen mehr.
Ja, aber das erschließt sich jetzt erstmal so nicht.
Man muss wirklich in die Anleitung schauen, um dann die Funktionen auch wirklich zu begreifen.
Ja, oder man macht das Tutorial.
Damit es auch erklärt.
Oder, also es wird halt auch noch eine ganze Menge, die sind jetzt gerade am Entstehen,
ganz kurze, knackige, zwei Minuten Videos, die so verschiedene Aspekte zeigen.
Wie kann ich jetzt zum Beispiel aus einem einfachen Klang, den ich jetzt auf der Mandoline geschirmt habe,
wie kann ich daraus jetzt zum Beispiel ein Pad machen.
Und die Videos sind so aufgebaut, dass sie einerseits jeweils dann so eine Sache erklären,
aber nebenbei lernt man dann immer auch eine bestimmte Sounddesign-Technik
oder etwas Spezielles irgendwie so kennen.
Das heißt, da hat man dann auch so kurzweilige Videos, die man sich dann einfach mal so nebenbei ein bisschen angucken kann,
um noch die Sachen einfacher zu verstehen.
Eine Sache, die mir auch ganz gut gefallen hat, die möchte ich hier auch nochmal herausstellen,
als ein leuchtendes Beispiel, liebe Entwicklergemeinde von Software Synthesizer,
da dürft ihr euch gerne eine ganz, ganz dicke Scheibe von abschneiden.
Und zwar ist das das Responsive Design.
Das heißt, du hast unten an dem Software Synthesizer ein Versteller, rechts unten,
wo du das Fenster groß und kleiner machen kannst.
Der gesamte Bildschirminhalt zoomt automatisch.
Ich muss nicht erst durch irgendwelche Menüs mich durchklicken, um die Zoom-Funktion zu finden.
Das ist gerade für solche Leuten mit schlechten Augen wie mich, aber guten Ohren,
dafür bin ich sehr dankbar, dass da mal ein Entwickler mitgedacht hat.
Dankeschön, Peter. Das ist eine Kleinigkeit, aber die ist so wichtig, wirklich.
Ich muss zu meiner Schande gestehen, dass zwar können diese Skalieren alle meine Plugins von Anfang an,
aber diese Problematik von Menschen, die in irgendeiner Form vom Sehen eingeschränkt sind,
die war mir bei meinem ersten Plugin auch noch nicht richtig bewusst.
Mittlerweile habe ich zwei Beta-Tester, die beide, also jeder eine sehr unterschiedliche,
aber sehr stark ausgeprägte Visual Impairment haben.
Und die geben mir dann auch ganz viele Rückmeldungen.
Das heißt diesmal bei der Auswahl des Zeichensatzes, bei der Auswahl der ganzen Kontraste
und wie groß die Elemente sein sollen usw., da haben die mir dann jeweils die Rückmeldungen gegeben,
damit sichergestellt ist, dass man das auch bei schlechter Beleuchtung,
wenn die Augen vielleicht schon ein bisschen müde sind oder dann nicht so gut gucken kann,
dass man da nicht in die Situation kommt, es ist jetzt irgendwie gar nicht mehr abzulesen oder ähnliches.
Das finde ich auch ganz toll.
Leute mit Rot-Grün-Schwäche werden auch immer gerne vergessen. Hallo Elektron!
[Lachen]
Das musste sein, das musste sein.
Mein Sohn ist elf Jahre alt, der ist jetzt noch nicht der perfekte Beta-Tester,
aber der hatte halt auch eine Rot-Grün-Schwäche und der guckt mir regelmäßig über die Schultern
und kommentiert dann auch irgendwie und deswegen habe ich zumindest das auch mit auf dem Schirm.
Ja, und ich sag mal so, ich bin stark kurzsichtig und ich komme jetzt in ein Alter,
wo auch die Weitsichtigkeit einsetzt, ich bin doppelt gehandicapt.
Das ist gemein, ne? Ich dachte auch immer, ich habe eine gewisse Kurzsichtigkeit.
Das ist sehr gemein.
Irgendwann werde ich alt, da wird man ja weitsichtig, das heißt zwischendurch muss ich mal
irgendwann normalsichtig sein und das war eine herbe Enttäuschung, als mir das erklärt wurde.
Vergiss es. Du kannst einfach dann ohne Brille besser gucken als mit Brille.
[Lachen]
Ja, also Tobi, hast du noch Fragen?
Also ich hätte noch einen größeren Kontext. Also falls wir noch irgendein Rumgenörde machen wollen
auf der Oberfläche von MIV, dann würde ich das vorher machen und dann…
Also mich würde nochmal die Engine interessieren, was tatsächlich bei der Re-Synthese…
Re-Synthese kenne ich von dem Hartmann Neuron. Das war ja auch ein Re-Synthesizer,
dem man halt auch Sample-Material…
Hat nur keiner verstanden, wie das Ding funktioniert.
Hat nur keiner verstanden, wie das funktioniert.
Ja, also es ist ein Re-Synthesizer und weil die Leute wie ein Re vor einem Auto davor gesessen haben…
[Lachen]
Hat sich auch nicht so gut verkauft. War aber eigentlich für die… wann war das?
Ende der 90er oder Anfang der 2000er?
Anfang der 2000er war es, glaube ich.
Ich glaube Anfang der 2000er, der Nullerjahre. War ziemlich innovativ für die damalige Zeit,
aber die Rechenpower war noch nicht da.
Ich habe als kleines Kind damals so Keyboard-Zeitschriften, die manchmal zur Musikmesse…
Achso, da noch der Musikmessebericht 20 Seiten lang war.
Da war halt immer so, ja, Hartmann Neuron, jetzt aber wirklich.
Jetzt aber wirklich. Er funktioniert sogar.
Oh, man hat ihn an- und ausgeschaltet und er ist nicht abgestürzt.
Großer Non-Lehrer.
Die Frage, die ich habe, Peter.
Ja.
Du hast es eben gesagt, in der Anleitung, und du hast es auch eben vorhin eingangs nochmal erklärt.
Grundlage ist für die Re-Synthese ein FM-Synthesizer, richtig?
Ne, ist nicht richtig. Das war mal die Ur-…
[Lachen]
Also die Ur-Idee war, einen FM-Synthesizer zu bauen.
Genau. Ein ganz kleinen, einfachen FM-Synthesizer, der aber die Möglichkeit hat,
sozusagen ein Sample zur Inspiration zu nehmen.
Und daraus ist dann irgendwann das hier geworden.
Und deswegen hat sich auch die Planung halt…
Also ursprünglich hatte ich, glaube ich, vier Monate oder so vorgesehen,
und jetzt sind es 18 geworden.
Wow, okay.
Also das…
So, und…
Was war jetzt eigentlich deine Frage? Sorry.
Meine Frage war, der Kern dieser Re-Synthese, wie funktioniert die?
Sind das jetzt…
Sind da Machine Learning Algorithmen, die einfach eine stumpfe Analyse machen
von dem Ausgangsmaterial anhand von Frequenz und, ich sag mal, Amplitude?
Und dann versucht das anhand der vorhandenen Synthese-Engine einfach abzubilden
auf vier Operatoren oder Oszillatoren?
Oder wie, wenn du es verraten möchtest, natürlich.
Ja, klar. Da mache ich keine Handelsfraß.
Also, tatsächlich, das funktioniert über Machine Learning.
Und die Klangerzeugung ist gewissermaßen…
Man hat vier spezielle Oszillatoren, die haben jeweils so in der Größenordnung 2000 Parameter.
Und die können jeden beliebigen statischen Ton machen.
Also, das heißt, die können einen Ton machen, der sich nicht über die Zeit verändert.
Aber von diesen Tonen, die es gibt auf der Welt, die jetzt wirklich statisch sind,
kann er jeden einzelnen Ton machen.
Wow, okay.
Und von diesen Oszillatoren gibt es vier.
Und die, wenn da jetzt also was abgespielt wird über die Zeit,
haben jeder eine Höhlkurve, nur für die Lautstärke, mit, jetzt nichts Falsches sagen,
ich glaube, bis zu 500 Punkten.
Also, nichts, was man per Hand editieren möchte.
So, und das Machine Learning nimmt jetzt das Sample und sagt,
okay, wie kann ich das Sample jetzt am allerbesten approximieren,
wenn ich vier statische Klänge habe, die im Laufe der Zeit in ihrer Lautstärke variieren können,
unabhängig voneinander.
Das heißt, das Synthesemodell gibt gewissermaßen die Einschränkung vor
und der Algorithmus ist speziell darauf hingebaut, dass er das dann entsprechend optimieren kann.
So, und weil jetzt natürlich kein Mensch Lust hat, tausende Parameter da drin rumzuschrauben
und das auch nicht sinnvoll wäre, gibt es dann so ein paar High-Level-Parameter,
wie man jetzt zum Beispiel zwischen diesen vier Oszillatoren hin und her blenden kann,
damit man andere Signalbestandteile bekommt.
Das ist jetzt auch wieder was, was man schwer in einem Podcast erklären kann,
was man aber relativ einfach versteht, wenn man zum Beispiel ein Drumloop
oder das Wort Probe-Pop, ich kann es nicht aussprechen, Probe-Podcast,
wenn man dieses Wort zum Beispiel aufnimmt und dann einfach da reinwirft und dann da dran dreht,
dann versteht man sofort, was passiert.
So, jetzt haben wir ganz viel geredet.
Eigentlich wäre es doch jetzt mal Zeit, so ein Klangebeispiel,
so eine kurze Demo hier mal reinzuwerfen, damit dann die Zuhörer einfach mal auch einen Eindruck kriegen,
wie sich das dann nachher im Endergebnis, sozusagen im Mix anhört.
Ich habe schon gedacht, ihr fragt gar nicht mehr.
[Musik]
[Musik]
[Musik]
[Musik]
[Musik]
[Musik]
[Musik]
[Musik]
[Musik]
[Musik]
[Musik]
[Musik]
[Musik]
Ja.
Ja, dazu sind vielleicht zwei Sachen zu sagen.
Das eine ist, dass alles, was man jetzt gerade gehört hat, ist halt mit Mist gemacht.
Also jedes Instrument, auch die Snare, die Geräusche, da ist jetzt nicht irgendein anderes Drumloop oder irgendwas.
Und alles sind Presets, die da mitgekommen sind.
Also da hat jetzt auch nicht einer noch 150 Stunden dran getüftelt, jetzt da noch die tollsten anderen Klänge zu machen.
Das ist das eine. Und das andere ist, man kann jetzt schlecht in einem 90-Sekunden-Demo
die Klangvielfalt, die möglich ist, gut abbilden.
Da muss man ein bisschen aufpassen, dass man nicht denkt, ach so, das ist so ein Synthesizer,
mit dem kann man jetzt also solche Lead-Sounds machen, die sich so ein bisschen gitarrig anmachen.
Das wäre so ein bisschen ungerecht.
Das kann man, man kann aber auch noch tausend andere Sachen machen.
Also zum Beispiel Abyss ist ja ein Synthesizer, den ich schon speziell gemacht habe im Hinblick auf Drones und Pads und solche Sounds.
Da kann man auch andere Sachen machen, aber es ist schon ein bisschen darauf spezialisiert.
Müss hingegen, hat diese Spezialisierung nicht, Müss ist dafür gedacht, damit nach belieben Instrumente machen zu können.
Ich hatte eigentlich gehofft, wir haben ja sehr viel über Module gesprochen,
und dass man halt die auch beliebig verschalten kann, dass die Zuhörer dann auch den Eindruck gewonnen hatten,
dass das natürlich, wenn wir jetzt so ein Klangbeispiel bringen,
dass das natürlich dann nur ein einziges von unendlich vielen Möglichkeiten ist,
wie man mit Müss Klänge gestalten kann und Sounddesign machen kann.
Also für mich ist das wirklich ein Modulbaukasten, mit dem man wirklich sehr interessante Klänge machen kann.
Und man kann einfach, wie du schon sagtest, auch in zwei Jahren, drei Jahren, vier Jahren immer noch wieder neue Sachen entdecken.
Und ich glaube, du wirst ja sicherlich auch nicht nur bei dieser Version 1.01 bleiben,
wird es da sicherlich auch noch neue Module irgendwann geben,
was die Community vielleicht auch so an Ideen vielleicht auch nochmal vorschlägt?
Ja, also da gibt es eine lange Liste, was es so an Ideen gibt dafür.
Und da habe ich mir auch so überlegt, dass es ja vielleicht cool wäre, gelegentlich ein Update zu machen,
wo man dann ein oder zwei neue Module, mit diesen ein oder zwei Modulen,
dann vielleicht auch, was weiß ich, 20, 30 Presets, die zeigen, wie man diese Module jetzt mit den anderen kombinieren kann,
was man daraus machen kann, plus so ein kleines Minitutorial,
was einem auch einmal zeigt, wie man das am geschicktesten verwenden kann.
Weil so hat man dann einen Synthesizer, den man einmal kauft,
wo man dann aber doch immer wieder was Neues geboten bekommt,
wo man die Palette dann wieder erweitern kann,
oder wo man vielleicht auch seine alten Klänge nimmt und sagt,
okay, da packe ich jetzt nochmal dieses Modul da mit rein
und bekomme wieder noch einen anderen Klang aus dem Preset, den ich vor drei Monaten gemacht habe.
Hast du das MÜV deswegen auch auf der Webseite so prominent platziert?
War es eine Entscheidung nach dem Motto, ja, das ist halt das Aktuellste?
Oder hast du das gemacht im Sinne dessen, dass das jetzt so ein bisschen,
wenn ich es jetzt mal mit den Heckmann-Sachen vergleiche,
da gibt es halt auch Zebra, das ist das absolute Monster,
und dann gibt es halt die normalen Synthies, sag ich mal.
Siehst du das jetzt so ein bisschen in diesem Vergleich, das quasi MÜV,
jetzt will ich so ein bisschen, das Überplugin ist, und der Rest so rumfliegt?
Das Flaggschiff.
Das Flaggschiff, genau. Oder ist es einfach so,
das ist jetzt halt mal das, was mir gerade aus dem Kopf gefallen ist,
und ich betrachte das jetzt als gleichwertig.
Oder würdest du sagen, es ist ein Schritt weiter wohin,
in eine andere Richtung mit einer anderen Mission?
Alle Sachen, die du gefragt hast, treffen zu.
Es ist aus meiner Sicht schon ein Flaggschiff-Synthesizer.
Von dem, was ich bisher gemacht habe, ist es das Aufwendigste.
Und auch das, was ich sage, in dem Spektrum, was man damit machen kann,
wie das Allerweiteste.
Nichtsdestotrotz sind die Synthesizer, die ich vorher gemacht habe,
dadurch nicht obsolet.
Ich kann mit KULT Sachen machen, die ich mit MÜV jedenfalls nicht so mühelos machen kann.
Oder auch mit NOVUM kann ich auf eine Art und Weise mit Samples arbeiten,
die funktioniert so in MÜS nicht.
Da habe ich nicht das Gefühl, das eine umfasst jetzt all die anderen Sachen,
sondern da steht es schon daneben.
Und dann ist es so, ich habe sehr viel Gedanken darüber gemacht,
wie dieses Modulationssystem funktioniert,
wie man das mit den Modulen machen kann,
oder mit diesem Pedalboard, damit man keine Kabel braucht,
und es übersichtlich ist und so weiter.
Auch sehr viele Gedanken darüber, wie das User-Interface funktioniert,
dass es einerseits unendlich viele Möglichkeiten gibt
und andererseits man nicht das Gefühl hat, man ist jetzt total lost,
weil man überhaupt nicht mehr versteht, wo oben, unten, rechts und links ist.
Und die Idee ist, der Synthesizer, der nach MÜS kommt,
wird im Prinzip dieses UI-Konzept beibehalten
und wird das Modulationskonzept beibehalten,
das Konzept mit dieser Expressivität.
Und das heißt, ganz viel von diesem Rahmen drumherum wird erhalten bleiben,
und nicht nur für den nächsten, sondern auch noch für den danach.
Das heißt, es wird irgendwann drei Synthesizer geben,
die von, sage ich mal, diesem User-Interface-Konzept,
wenn man einen kennt, findet man sich sofort in den beiden anderen zurecht.
Und dennoch werden die von dem, was sie klanglich machen
und wie man damit arbeitet, drei unterschiedliche Planeten.
Sagt der Mann, der einen kleinen niedlichen FM-Synthesizer hat.
Ich meine halt nur, weil ich mag eigentlich den Aspekt,
den du dir gerade als Indie-Entwickler, das hast du ja auch schon beim letzten Mal erzählt,
dass du es dir halt erlauben kannst, nicht zu sagen,
okay, das mache ich jetzt irgendwie so zusammengehörig, etc.
Weil als ich das gesehen habe, habe ich auch gedacht,
hm, FM-Synthesizer, so ein bisschen was von Abyss, hä?
Ja, nee, das ist so ein bisschen Ausgewachsenheit.
Ich habe halt drei Tage unter Thomas gebraucht,
um festzustellen, dass das ein Sampler ist.
Ja, ich habe es live...
Das ist kein Sampler, das ist ein Resynthesizer.
Ich habe es live mitgelesen und ich musste so schmunzeln.
Ja, das war witzig.
Ich habe ihm erzählt, du kannst einfach Samples reinladen.
Und er so, was?
In Caps Lock und Fettschrift.
Tobi ist halt, ich glaube, kein Sounddesign-Mensch,
aber du bist begnadet in der Anwendung von dem, was du denn da am Start hast.
Ich bin halt einfach Sounddesign-Mensch in dem Sinne,
dass ich alles veraufmache und wieder zumache,
um eine Effektkette zu bauen.
Das ist meine Art Sounddesign zu machen.
Oder ich habe irgendeinen Sampleschmeißer...
Dafür kannst du Schlagzeug spielen, Gitarre, Klavier
und ich glaube noch irgendwie so ein paar andere Instrumente.
Das kann ich zum Beispiel nicht.
Aber tatsächlich ist das ein bisschen auch die Zielgruppe.
Also eine Zielgruppe sind natürlich die Leute, die jetzt gerne rumtüften.
Aber die andere Zielgruppe sind tatsächlich die, die sagen,
eigentlich möchte ich nur Presets benutzen
und ich möchte vielleicht an den Presets noch ein bisschen rumschrauben.
Und für die, sozusagen, möchte ich es möglichst einfach machen.
Ich habe ja vorhin schon mal diesen Workflow beschrieben,
wo man dann dieses Freeze verwendet und sein eigenes Sample.
Und dann hat man diese Möglichkeiten.
Deswegen gibt es auch diesen Preset-Browser,
mit dem man sich so Selektion wählen kann nach verschiedenen Texten.
Und es gibt zum Beispiel dieses Breed, also Brüten,
dieses Küken-Feature. Ich weiß nicht, ob ihr euch das schon angeguckt habt.
Mit diesem niedlichen Ei-Logo da, ja.
Genau, und da ist halt die Idee...
Absolut großartig.
Man kann sich jetzt erstmal eine Auswahl von Klängen zusammenstellen
über diesen Preset-Browser, wo man sagt,
okay, ich möchte Pad-Sounds haben.
Meinetwegen dürfen die auch ein bisschen plucky sein,
also nehme ich mal auch solche mit dazu.
Sie sollen aber eher dark klingen und ein bisschen dreckig.
So, dann habe ich so eine Vorauswahl.
Dann sind da, was weiß ich, jetzt habe ich 74 Presets gefunden,
auf die das zutrifft.
Und dann kann ich Breed drücken, also auf dieses kleine Küken.
Und der tut jetzt so, als wäre jedes Preset quasi ein Gen
und fängt jetzt an, die miteinander zu rekombinieren.
Und erstellt jetzt aus dieser Auswahl, die ich vorher getroffen habe,
jetzt gewissermaßen ein Zombie-Preset.
Das heißt, ich habe so eine Art Luxus-Zufallsgenerator,
weil der nicht irgendwelchen absurden Kram,
der nicht zusammenpasst, macht,
sondern der baut jetzt Bestandteile zusammen aus Klängen,
die schon in die Richtung gehen, was ich gerade irgendwie suche.
Das heißt, ich kann Zufall auch so ein bisschen gezielt einsetzen.
Und auf diese Art kann man dann halt sich sehr schnell,
also in fünf Minuten kriegt man 20 oder 30 Presets,
mit denen man brauchbar arbeiten kann und die es halt so noch nicht gegeben hat.
Die halt dann auch nicht der Nachbar in seinem Song auch verwendet.
Oder Christoph van Dalen.
Da kommt man wieder zum Anfang zurück zu kommen.
Haben wir das überhaupt on-stream schon gesagt?
Oder war das Copyright-Geschenk noch außerhalb?
Ich glaube, das war noch außerhalb.
Okay, anyway.
Aber es ist eine gute Überleitung zu meiner nächsten Frage,
weil die schweben mir jetzt schon eine ganze Weile im Kopf.
Du hast es gerade sehr schön angesprochen mit dem Machine Learning.
Die Entwicklungen im KI-Bereich.
Also ich weiß noch, wie wir letzten August darüber noch so ein bisschen,
also wir haben es schon ernster genommen.
Du wahrscheinlich noch mehr als wir, weil du einfach seit 20 Jahren im Bereich arbeitest.
Aber jetzt die letzten Tage, es ging recht gut ab,
als Thomas hier einen, wie hieß dieser,
Also wir haben, ich habe,
das ein Schnipsel nach dem anderen gepunstet.
Auf Gear News ging vor ein paar Tagen und auch auf Amazona und anderen Kanälen
ging halt Zuno AI über die Kanäle.
Ich habe mich da einfach mal spontan angemeldet und habe mir,
man kann ja fünf Songs kann man ja da kostenlos erstellen mit seinem Test-Account.
Und ich bin fassungslos.
Ich bin fassungslos und ich würde mal sagen, so Gebrauchsmusik,
so Fahrstuhlmusik oder Werbejingelmusik braucht man heutzutage nicht mehr komponieren.
Also da braucht man keine Musikproduzenten mehr für.
Das kann die KI ohne Probleme.
Oder so ein Standard-Rap-Song oder so.
Den Standard-Kram in der Hitparade, das macht hier die KI mittlerweile.
In handwerklich anspruchsvoller Qualität.
Ist es wirklich? Ja, und das ist jetzt der Wendepunkt.
Ja genau.
Weil bisher war es so, dass alles, was da rauskam von der Klangqualität,
von der handwerklichen Qualität einfach echt zu wünschen übrig ließ.
Und jetzt ist es so auf dieser Qualität von 128 Kb/s MP3.
Man hört es noch so ein bisschen hier und da.
Der Sänger lispelt vielleicht ein bisschen.
Ja, oder die Texte sind manchmal ein bisschen komisch und so.
Aber zum Beispiel die Texte kannst du ja selber vorgeben.
Die musst du nicht autogenerieren lassen.
Und was ich erstaunlich fand bei den Texten,
auch wenn die inhaltlich vielleicht ein bisschen komisch sind,
wie gut er das mit dem Versmaß hinbekommt.
Absolut.
Und mit der Phrasierung und so.
Da merkt man schon, die Sachen greifen jetzt.
An den richtigen Stellen auch ein Chor einzusetzen.
Und die Dynamik von dem Ganzen.
Also ich habe damals auch gespielt.
Und das ist erst V3?
Das ist V3.
Wer weiß, was die mit V3.5 machen.
Genau.
Das heißt, wir sind jetzt an einem Punkt,
wo es sehr schwer wird zu unterscheiden,
wenn es sich in den Grenzen eines bestimmten Genres bewegt,
wo es Vorbilder gibt.
Kann man jetzt halt Musik erstellen innerhalb weniger Minuten,
wo es dem durchschnittlichen Hörer
und ich würde mal sagen in einem halben Jahr
auch dem Expertenhörer sehr, sehr schwer fallen wird,
zu unterscheiden, hat das jetzt jemand gemacht,
der sich auskennt?
Oder hat das jetzt jemand in fünf Minuten
mit der AI zusammengestöpselt?
Ja, genau.
Ich denke jetzt, und Sascha wird gleich lachen,
ich denke jetzt, Kevin MacLeod ist arbeitslos.
Das hätten wir vor 15 Jahren gebraucht,
bevor absolut jeder das immer gleiche Gedudel
unter seine YouTube-Videos geklatscht hat.
Mit immer dem gleichen Text.
Hatte der überhaupt Text?
Nee, der hatte keinen Text,
aber du musstest in der Beschreibung
ihn immer namentlich nennen.
Ja, genau, weil es Creative Commons war.
Das hat damals alle vereint.
Später waren es ein paar Sachen aus der YouTube-Audiolibrary,
die mal angeboten haben,
das darf ich immer noch tun.
Aber das sind jetzt schon andere Zeiten.
Aber tatsächlich, da gebe ich dir recht,
die Fahrstuhlmusik, die ist über kurz oder lang.
Sind die Macher der Fahrstuhlmusik oder auch alles,
was Gebrauchsmusik ist, brauchst du nicht mehr produzieren.
Die Leute, die so etwas gemacht haben,
sind jetzt arbeitslos, auf den Schlag, wirklich.
Also die Leute, die Leute, die den Lo-Fi-to-Study-and-Relax gemacht haben,
die haben gut getan, wenn sie jetzt die letzten paar Jahre,
wo sie großen Erfolg damit hatten,
wo sie in etwas investiert haben,
wo der Finanzmarkt vielleicht noch ein Moment gnädiger sein wird.
Das ist ja auch alles super volatil inzwischen.
Aber was ich mir halt denke, ich sehe es...
Oder Ballermann-Hits, das kannst du auch vergessen.
Das ist vorbei.
Nee, da bin ich mir eben gerade wieder nicht sicher.
Doch, das Ding macht ja auch Ballermann-Hits.
Ja, natürlich macht es Ballermann-Hits.
Macht es, aber du brauchst einen Künstler dafür,
denn Ballermann-Musik lebt davon,
dass alle das gleiche Stück kennen.
Und das hat ja...
Wenn dieses Ding einen Ballermann-Song für dich macht
und einen Ballermann-Song für mich und einen für Tobi,
dann können wir drei das nicht zusammen besoffen schmettern.
Also die Zuhörer hören jetzt mal weg.
Ich habe eine ganz tolle Geschäftsidee.
Lass uns doch eine Webseite bauen,
wo wir die Suno AI als API anbinden
und einfach die Leute für den Einwurf von,
sagen wir mal, für drei Euro,
kriegen sie einen individuell für sie geschaffenen Geburtstags-Song.
Für die Oma oder so was.
Aber sie kriegen alle den gleichen vom Machwerk her.
Wir tauschen zwei Parts Text aus
und dann können sie ihn alle zusammen mitschmettern.
Richtig, das machst du über ein Formular,
dann können sie dann ihre Daten eingeben
und zack, schon, jeder kriegt dann denselben Geburtstagssong.
Du musst auch nur einmal den Song bauen
und jeder muss einfach nur glauben,
der wäre gerade exklusiv für ihn.
Vor allem, wir können das in 300 Sprachen machen,
in 196 Ländern anbieten.
Wie geil ist das denn?
Ja gut.
Ich stelle mir gerade vor,
"Happy Birthday to you" auf Serbo-Kroatisch.
Ja, aber viel Spaß mit der chinesischen Firewall.
Nein, aber weißt du,
"Happy Birthday" ist Copyright-geschützt.
Stimmt, du hast recht.
Da müsste man natürlich ein bisschen kreativer werden.
Ja.
Aber ihr versteht, was ich meine?
Ja, natürlich.
Du kannst das für neue Geschäftsmodelle,
könnte man das jetzt nutzen?
Also das wäre jetzt da,
ich bin mir sicher, dass sie das auch als API anbieten.
Man kann es auch für alte Geschäftsmodelle nutzen.
Also wie gesagt, ich glaube,
Max Martin kann sich jetzt theoretisch einkoden vor Angst.
Eine Taylor Swift im Prinzip auch,
aber jetzt kommt der Punkt.
Und ich sage das mit dem Hinblick eines 1975-Konzertes
vor ein paar Wochen im Hallenstadion.
Zuno AI hat nie ein Auto auf der Rückbank gefickt,
hat nie Heroin genommen,
hat all diese Sachen, die wir quasi popkulturell,
zumindest voraussetzen,
zu glauben, dass sie der Künstler irgendwo durchlebt hatten.
Du kannst diese Gefühle nicht an einen Algorithmus koppeln.
Ja, das fehlt.
Naja, und die Projektionsfläche fehlt.
Ein Künstler, also...
Ernsthaft, guckt euch mal um,
was da in der K-Pop-Szene los ist.
Da hat ja auch hier,
das ging doch auch vor ein paar Monaten durch die Kanäle,
oder vor ein paar Jahren sogar schon,
dass da virtuelle Stars,
da Plattenvertrag von Universal genommen wurde.
Mittlerweile haben sie den wieder rausgenommen,
war wahrscheinlich zu früh,
aber es bietet sich an, das jetzt wieder reinzunehmen.
Aber die virtuellen Stars,
die sind nicht entstanden, weil man Geld sparen wollte
oder weil man es sich einfacher machen wollte.
Es ist sogar sehr viel mehr Arbeit dahinter,
hinter den Kulissen, um diese virtuellen Stars,
um diesen Content zu produzieren.
Das Problem, was man hatte, war,
dass die realen Stars irgendwann älter werden,
dass die irgendwann anfangen,
vielleicht einen Partner haben zu wollen.
Und das macht die Fanbase nicht mit.
Oder komische Ansprüche stellen,
mehr Gage wollen oder sowas.
Genau.
Und das heißt, da war dann eine ganze Gruppe von Experten dahinter,
die genau daran gearbeitet haben,
dass diese virtuellen Stars diese Projektionsfläche bieten können.
Und das ist ja auch überhaupt nichts Neues.
Hatsune Miku, das ist doch irgendwie 15 Jahre alt, das Phänomen.
Und die Gorillas sind bald 30 Jahre alt.
Aber bei den Gorillas sind ja nur Avatare.
Dahinter stecken ja echte Menschen.
Bei Miku war ja der erste Versuch von Yamaha,
synthetische Gesang darzustellen.
Nee, nee, nee.
Vocaloid gab es ja vorher schon.
Das Problem war einfach, dass die damals,
das war einfach der schöne Umstand,
dass die sich plötzlich gecrushed haben auf eine Zeichnung,
auf eine Verpackung, einer bestimmten Expansion.
Genau, das war eine Extension.
Wie gesagt, meine Freundin hat ein Rap-Lied gemacht.
Und ich hab den Text genommen und hab den auch bei Subo reingeschmissen.
Und hab dazu halt einen Prompt geschrieben.
Und das Ding hat natürlich perfekt das Ding ausgespuckt.
Das war ein perfektes Rap-Ding.
Und dann hab ich gesagt, mach mal so einen anderen Stil.
Und dann hat er das Lied genommen und hat daraus eine Ballade gemacht
oder so einen schmusigen Kuschelsong.
Und erstaunlicherweise hat das jedes Mal funktioniert.
Mhm.
Das ist krass, ne?
Ja, aber du hast immer noch keine Projektionsfläche.
Und ich glaube halt, weil wir jetzt am Punkt sind,
wo wir, ich denke, wir waren mit der Playlistisierung,
mit Spotify und all den Entwicklungen im Internet und so,
in den letzten Jahren, waren wir durchaus mal für einen Moment an einem Punkt,
wo wir tatsächlich die Musik für sich sprechen lassen konnten.
Also ich kenne Leute, die feiern Songs ab, also Kids,
sie bezeichnen das halt ihre Lieblingssongs.
Und die kennen weder den Künstler noch das Album, die kennen das Cover.
Und die wissen halt, wo sie es gespeichert haben.
Die wissen vielleicht auch, wer der Songer ist, oder?
Und der Künstler ist völlig losgelöst vom Song.
Und der Song wird autark betrachtet.
Ich denke, in meiner Zeit hat das schon so ein bisschen angefangen,
weil ich direkt halt quasi so 10 wurde,
als das Web 2.0 gerade so am Starten war, so um 2.5 rum.
Aber ich denke, gerade bei euch, also Thomas, Sascha,
bei Peter will ich das Alter jetzt nicht mutmaßen,
aber gerade die, die halt noch aus einer sehr Rockstar-dominierten Zeit kommen,
wo du halt wirklich quasi das ganze Produkt
auch an eine Projektionsfläche, an einen Künstler gekoppelt hast.
Ich denke, das war eine Zeit lang, war das entkoppelt,
aber mit dieser AI-Geschichte,
ich glaube halt, das kommt jetzt mit voller Wucht zurück.
Und warum mache ich das fest?
Weil, The 1975, das ist eine britische, ich sag mal, Indie-Popband,
das sind so eigentlich die klassischen Kids,
die mit dem Internet aufgewachsen sind, die sind glaube ich Mitte 30 oder so.
Die waren, also das ist so ein Quartett,
das schon in der Highschool zusammen gespielt hat, etc.
Waren so 10 Jahre völlig unbekannt,
haben sich so eine kleine kultartige Fanbase aufgebaut.
Kein Label wollte die, dann hat ein Kumpel gesagt,
hier, ich habe 10.000 übrig, ich mache ein Label.
Debutalbum rausgelegt, zack, eine Million Verkäufe.
Was bei denen halt wirklich auffällt, ist,
die haben sich ihre, ich denke, die Musik spielt natürlich eine große Rolle,
aber die haben sich ihre Fanbase wirklich eigentlich komplett mit ihrem Frontman zusammen,
also gesammelt, weil der Kerl halt wirklich einfach schwer einander Waffel hat,
weil der Kerl die ideale Projektionsfläche für deine,
ich sag mal, popkulturell-jugendlich konnotierten Sorgen ist,
oder der Kerl hat auf der Rückbank gefickt,
der Kerl hatte ein Heroinproblem damals, war fast krepiert daran.
Also das Ganze ist so dermaßen personenzentriert,
es ist nicht nur der Frontman, auch so die anderen,
und ich glaube halt genau dieses Feeling,
dass du, ich weiß nicht, ob das so eine kleine Mädchenthematik ist,
weil mir wäre es eigentlich egal, also wenn mir eine AI diese Musik ausspuckt,
würde ich sagen, ja, die ist tatsächlich objektiv gut,
aber dass halt immer noch niemand, und da sind wir dann auch wieder bei den Gorillaz,
dass niemand, der sich die Idee zusammenbrütet,
dass niemand, auf den man die Idee zurückverfolgen kann und sagen,
ja, klar, geil, das triggert so ein bisschen den eigenen Künstler in einem,
da baut mir niemand eine Bühnenshow hin,
da trinkt niemand auf der Bühne irgendwie aus einer Blumenvase,
weil es zur Show gehört, oder?
Also diese ganze Randomness, und da sind wir wieder beim Punkt,
dass sich die AI immer noch nicht gegenseitig außerhalb ihrer erlernten Muster arbeiten kann.
Kommt vielleicht mal, oder?
Aber ich habe immer noch den Eindruck, du gibst dem Prompt ein,
und er rechnet sich perfekt zusammen, was der Prompt ist,
aber er denkt nicht darüber hinaus.
Und die Leute, die das wissen und die das wissen wollen,
die sind dann auch fähig, den Künstler vor sich haben zu wollen, oder?
Pass auf, ich will den ganzen noch eine Story aufsetzen, um das Ganze,
ich hatte das bei uns auch in einem internen Chat schon gepostet.
Es gibt einen Artikel auf backstagepro.de,
da in dem Artikel geht es darum, dass ein 53-jähriger Däne mit KI-generierten Liedern
Tantiemen von Streamingdiensten verdient hat.
Der ist jetzt von einem dänischen Gericht zu 18 Monaten Haft verurteilt worden.
Seine KI-generierten Lieder, und er hat also mindestens so 600, 700 Stück halt erzeugt,
er ist verurteilt worden, weil er außerdem KI-Tools eingesetzt hat,
um die Streamingzahlen zu erhöhen und höhere Tantiemen zu erhalten.
Ist natürlich Win-Win, oder? Auf die Idee musst du erstmal gucken.
Der Verurteilte verdiente mit diesem Betrug 2 Millionen dänische Kronen,
also ungefähr 270.000 Euro, und landete damit auf Platz 46
der bestverdienenden Musikrechte-Inhaber in Dänemark.
18 Monate Haft für 270.000 Euro.
Ja, aber das war ja nicht, weil er da KI-Musik gemacht hat, sondern weil er da Betrug verdient hat.
Die Streamingdienste da betrogen hat, genau.
Ich hab noch eine Frage, lieber Peter.
Ah, okay.
Du hattest vorhin ganz am Anfang darüber gesprochen, dass du halt auch gerne Klänge mit,
oder wir alle, mit verschiedenen Eigenschaften, also mit warm, kalt, rau, spitz, scharf, beschreiben.
Wenn ich mir so deine Plugins anschaue und das Konzept so,
dann kriege ich immer so die Idee von Synesthesie.
Also wenn halt mehrere Sinne miteinander verschmolzen sind.
Ist das bei dir irgendwie ein Thema, oder ist das halt so ein Gedankending bei dir?
Ne, das ist bei mir auf jeden Fall ein Thema.
Im Sinne von, ich hab so das Gefühl,
also als ich aufgewachsen bin, hatte ich erstmal so einen ganz engen Musikbegriff,
was die Eltern oder Lehrer einem erzählt haben, was jetzt Musik ist oder was nicht.
Im Laufe des, je älter ich wurde, umso mehr Sachen erfasse ich als Musik.
Erst in diesem ganzen akustischen Bereich, also dass man irgendwann hört,
wie der Wind durch die Bäume geht und denkt, da ist so eine musikalische Struktur plötzlich vorhanden.
Da ist so eine Dynamik, die schwellt auf, die schwellt ab, das hat eine räumliche Positionierung usw.
Und das ist für mich auch eine unendliche Inspirationsquelle,
wenn ich selber Musik mache, irgendwo so etwas zu nehmen und umzuwandeln.
Und je mehr ich das hatte, fiel es mir dann auf, dass ich so, ich sehe irgendwas,
was weiß ich, ein Aquarell irgendwie, also häufig sind das so abstrakte Sachen,
oder ich sehe so eine Textur von irgendwie etwas und ich denke, ich weiß genau, wie das klingt.
Ich habe eine genaue Vorstellung davon, welcher Klang dazu passen würde.
Als ob das zwei Seiten von einer Medaille sind.
Auf der einen Seite ist es der Klang und auf der anderen Seite, im Optischen, würde das irgendwie so aussehen.
Und das ist so ein bisschen auch so, ich habe eine sehr langfristige Vorstellung,
was ich für ein Tool schaffen möchte.
Vielleicht in zehn Jahren bin ich soweit.
Die Technologie dafür muss ich entwickeln.
Ich muss, glaube ich, auch den Markt dafür entwickeln.
Weil wenn das jetzt sich plötzlich manifestieren und aus dem Himmel fallen würde,
würde, glaube ich, kaum jemand was damit anfangen können.
Und wo ich aber halt glaube, man kann Sounddesign und Musik anders machen,
als dass man jetzt 20 Regler hat, so runde Regler, mit denen man jetzt irgendwie hin und her dreht.
Das hat auch seine Berechtigung. Und Ähnliches gilt für Noten.
Diese Idee, eine Note ein aus, jetzt die nächste Note ein aus, das ist alles irgendwie schön und gut.
Wenn man als Musiker mit einem richtigen Instrument jetzt Noten interpretiert,
dann dichtet man ja auch ganz viel dazu.
Man erkennt ja, man hat ein Gefühl dafür, was die Phrasierung ist.
Man bringt ja die Emotionen mit rein und so weiter. Das ist ja alles nicht notiert.
In der Notation ist es sehr binär.
Und genauso habe ich das Gefühl, die heutige Technologie, auch von Software-Synthesizern,
ist halt rudimentär. Und da ist ein Riesenbereich, der offen steht,
wie man ganz anders mit Klängen und mit Harmonien und so weiter arbeiten kann.
Dazu gehört auch, es gibt eine sehr interessante Arbeit von einem Musikwissenschaftler namens Setaris,
der ist allerdings ziemlich unbekannt. Der hat halt so eine Verbindung gefunden,
wo er sagt, dass Klangfarbe, was weiß ich, eine Violine anders anhört als eine Klaviernote,
selbst wenn es von der Frequenz das Gleiche ist.
Also diese Klangfarbe auf der einen Seite und auf der anderen Seite Harmonien
oder in welcher Skala ich spiele, ob ich jetzt in Duo spiele, ob ich in Moll spiele
oder vielleicht in einer Ganztonskala. Das sind eigentlich nur zwei Enden von einem Spektrum.
Und dazwischen ist ein Riesenbereich und das ist aber eigentlich ein Kontinuum.
Und das bedeutet auch, wir sind es so gewohnt, traditionell Musik zu machen,
weil wir halt in diesem binären Konzept denken. Aber so langsam hat man das Gefühl,
und die AI macht das ja auch vor, eigentlich hat sich das so ein bisschen erschöpft.
Deswegen fällt es der KI ja auch leicht.
Ja, weil es klare Regeln sind.
Es sind relativ klare Regeln, genau. Und ich glaube, dass da ein Riesenbereich ist,
der sich öffnen wird, wenn man die richtigen Werkzeuge hat.
Und Stand heute hat man sie noch nicht.
Frage. Also wenn ich Musik mache und sie aufnehme, ist meine Hoffnung immer,
dass sich das, was ich an Emotionen transportieren möchte, durch den Aufnahmeprozess am Ende
auch bei den Zuhörern ankommt und sie sozusagen dann mit meiner Musik, Achtung, in Resonanz gehen.
So als Idee wäre nicht zum Beispiel das Thema Elon Musk Neuralink auch so eine Geschichte,
um Klänge, Instrumente, Klangerzeugung zu steuern und vielleicht Emotionen sichtbarer zu machen.
Aber selbst dann brauchst du –
Oder hörbarer.
Ich behaupte, selbst dann brauchst du eine andere Musik.
Weil, nehmen wir jetzt mal dein emotionales Vokabular, da gibt es sehr, sehr fein ausdifferenzierte Stimmungen usw.
Nehmen wir jetzt, um es ein bisschen einfacher zu machen oder klarer zu machen,
nehmen wir jetzt mal Instrumentalmusik nur. Lassen wir mal Text für den Moment außen vor.
Das heißt, du hast jetzt dein komplexes Innenleben oder eine sehr spezielle Stimmung.
Die Stimmung, die du ausdrücken willst, ist ja nicht "Ich bin traurig",
sondern deine Stimmung ist vielleicht die "Ich möchte gerne die Traurigkeit, die ich neulich Abend hatte,
als mir bewusst wurde, dass es zwar schön ist, dass es warm ist,
dass aber andererseits das auch ein Zeichen des Klimawandels ist und ich hatte diesen leckeren Duft vom Grill in der Nase
und wurde irgendwie ein bisschen traurig und mir wurde bewusst, dass ich eines Tages sterben werde".
Eine total schräge Zusammenstellung, aber sie ist halt genau das Gefühl, was du in dieser Sekunde hattest.
Das hat dich vielleicht stark berührt und das möchtest du jetzt gerne in Musik fassen, damit das transportiert werden kann.
Aber die Musik, wie wir sie heute kennen, hat gar nicht das Vokabular, um das alles ausdrucken zu können.
Die Musiksprache, die wir haben, hat Duo und Moll und dann kannst du noch ein paar Tensions dazu packen.
So kriegst du mit der Harmonie schon mal eine ganze Menge hin.
Du kriegst ziemlich viel mit über das Tempo und die Dynamik,
aber bestimmte Sachen lassen sich leicht ausdrucken und bestimmte andere Sachen weniger oder weniger präzise.
Ich habe dieses Wort Resonanz deswegen so betont, weil ich glaube, dass du recht hast.
Ich glaube, es gibt ja Studien, es gibt Experimente, das Militär forscht da auch schon lange dran rum.
Sie haben, glaube ich, auch schon entsprechende Waffen entwickelt, mit denen man unterschwellig Massen,
zum Beispiel bei einer Demonstration, eine Menge an Menschen, eine Menge x an Menschen, in Unwohlsein versetzen kann durch Infraschall.
Die Scheiße, ey.
Ich könnte mir aber auch vorstellen, dass wenn man bestimmte Frequenzen, die eine Geige erzeugt oder die auch ein Klavier erzeugt,
wenn man die identifizieren könnte, dass bestimmte Frequenzanteile vielleicht bestimmte Emotionen auslösen können bei Menschen,
und zwar bei allen Menschen, egal welchen Alters, welches Geschlecht,
dass das vielleicht eine Ausdruckmöglichkeit wäre, sehr emotionale Musik zu kreieren.
Genau.
Das ist, glaube ich, das, was du meinst, oder?
Genau. So ein klassisches Beispiel haben wir dafür ja. Es gibt die Mollterz und die Durterz, oder den Mollakkord und den Durakkord.
Es gibt diese übereinstimmende Resonanz, dass man den Mollakkord eher traurig, bisschen gedämpft irgendwie,
jedenfalls im Vergleich zum Dur, der etwas optimistischer.
Jetzt ist das natürlich im Detail viel komplizierter, weil ich vielleicht eine Progression habe, bla bla bla.
Ja, aber im Endeffekt läuft das ja nur darauf hinaus, dass ich ja nur um einen Halbton verschiebe.
Genau.
So mache ich ja oft aus einem Dur halt einen Mollakkord.
Und alleine nur diese kleine Verschiebung der Frequenzen, der Schwingungen führt zu einem kompletten Umkehr der Stimmung.
Ja, aber das, da bewegen wir uns in einem westlichen Zwölftonsystem.
Was ist denn mit den anderen Tonleitern?
Was die, zum Beispiel die fernöstlichen Tonleitern oder…
Genau.
…klassisches Beispiel, FX Twin arbeitet auch mit mikrotonalen Skalen ganz viel in seiner Musik.
Genau. Und wenn man sich jetzt historisch das anguckt, dann gibt es Kulturen, die da eine ganz andere Sprache…
Also zum Beispiel, es gibt ja, sage ich mal, in der europäischen, deutschen klassischen Tradition, da haben wir nur Dur, Moll.
Und wir haben dann noch diese Kirchentonarten irgendwie.
Wenn wir alles in einen Sack werfen, kommen wir vielleicht irgendwie auf zehn.
Im indischen hat die Musik hunderte in vielen, vielen Variationen.
Und die haben sozusagen eine super fein ausdifferenzierte emotionale oder inhaltliche Bedeutung.
Und das heißt, da steht ein ganz anderes Vokabular zur Verfügung für diese Sachen.
Aber selbst da ist es so, dass es noch ein relativ fest vorgegebenes System gibt, was jetzt mal den Tonvorrat betrifft.
Jetzt gibt es diese Mikrotonalität und viele Leute haben so das Gefühl, ich habe Mikrotonalität, das hört sich dann immer so an wie ein Westernklavier, irgendwie verstimmt.
Irgendwie hört es sich nicht richtig an. Es hört sich so an, als spielt da jemand mit einem nicht richtig gestimmten Instrument.
Und das ist halt das, was dieser Setaris genauestens herausgefunden hat, wieso das so ist und was da eigentlich der Fehler liegt.
Denn es gibt diesen Zusammenhang, die Physik, die wir haben, die sagt, es gibt diese und diese Obertonreihe.
Wenn ich jetzt etwas anstoße, dann ergeben sich automatisch bestimmte Resonanzen.
Das bedeutet, ich habe meinen Grundton bei 100 Hertz, dann habe ich die nächste Schwingung bei 200 Hertz, die nächste bei 300 Hertz, die nächste bei 400 Hertz und so weiter.
Das ist die klassische Obertonreihe und die nimmt dann irgendwie ab.
Ob das jetzt ein bisschen mehr so klingt oder so, das sind dann halt die Feinheiten, wie stark das abnimmt, ob da noch ein paar Wellen, Berge und so weiter sind.
Und wenn man das jetzt vorgegeben sieht, dass die Physik diese Kämme mit gleichen Abständen macht,
dann guckt man sich, wie könnte ich denn jetzt verschiedene Noten finden, sodass ich Töne zusammenspielen kann,
dass Menschen zum Beispiel zusammen singen können, aber nicht nur unisono, sondern auch einen Akkord.
Bum, bum, bum, machst du ein bisschen Mathematik und stellst du fest,
ich habe eigentlich nur die Möglichkeit, entweder sieben Töne zu nehmen oder zwölf Töne und als nächstes ist 18, aber 18 funktioniert schon nicht mehr so richtig gut.
Pentatonisch gibts auch noch.
Wie bitte?
Pentatonisch.
Genau, pentatonisch. Entschuldigung, ich meinte, ich habe sieben gesagt, ich meinte fünf.
Aber das folgt ja festgelegten mathematischen Formeln.
Und dabei ist es ja egal, ob der Grundton dann 440 Kilohertz, 440 Hertz oder 432 Hertz ist.
Genau, aber es stammt halt aus der Physik und zwar liegt es daran, dass es einen Klang hat.
Man kann folgendes Experiment machen mit jedem Synthesizer.
Man nimmt nur Sinuston und spielt jetzt Akkorde mit Sinuston und wählt sich die wildesten Skalen aus.
Dann kann ich plötzlich Harmonien spielen, ohne dass es sich schräg anhört.
Und was der Citarus herausgefunden hat, ist, dass er sagt, ah, wann immer ich eine bestimmte Abfolge habe von Obertönen,
und die muss nicht zwangsweise jetzt so gleichmäßig sein wie in dem physikalischen,
dann ergibt sich daraus eindeutig mein Tonvorrat und der muss dann nicht mehr zwölf Töne wohltemperiert sein.
Ich kann auch umgekehrt vorgehen und sagen, ich möchte jetzt eine Skala haben, wie was weiß ich,
ich teile meine Oktave jetzt in sieben exakt gleiche Bestandteile, also wohltemperiert, nur statt zwölfstufig siebenstufig.
Wenn ich das jetzt mit einem normalen Klavier spiele, hört es sich gruselig an.
Ein Klavierstimme kann das so stimmen, aber es hört sich scheußlich an.
Wenn ich jetzt aber jeden einzelnen Klavierton, die Obertonreihe, so mache, wie sie für dieses Siebener-System machen muss,
dann kann ich plötzlich Melodien und Akkorde in diesem Kram spielen.
Ich habe dann Experimente damit gemacht und das Ausprobierte, das Verblüffende ist halt,
auf einmal kann man Emotionen, also du spielst eine Melodie, die eine Emotion ausdrückt, die sich einfach im Zwölftonsystem nicht ausdrücken lässt.
Du spürst diese emotionale Stimmung, die es in unserer Musik nicht geben kann, aber da geht es.
Dafür braucht man aber ein Instrument, das genau dieses Kunststück macht, das die Skal mit den zugehörigen Obertonreihen verschränkt.
Das geht ja aus der Theorie der Schwingungen heraus, dass im Endeffekt alles Schwingungen sind.
Es gab ja hier diese String-Theorie, das sind ja auch im Endeffekt nur schwingende Fäden.
Darauf baut sich unser gesamtes Universum auf, was sich gesamter Materie auf Schwingungen aufbaut.
Das fließt damit ein. Wir sind jetzt an einem Punkt, wo wir gerade hochphilosophisch und fast esoterisch sind.
Ja, an dieser Stelle ist es halt so, dass das stimmt. Das mag hochphilosophisch und esoterisch sein oder vielleicht auch eine tiefe Wahrheit über irgendetwas offenbaren.
Aber ich rede auch von etwas Handfestem, Praktischem, was ich hier im Labor, vielleicht noch nicht toller Qualität,
aber wo ich das bereits hören kann, wo ich weiß, dass da etwas ist, was es so nicht gegeben hat und was interessant ist.
Weil es ja klare Regeln gibt dafür.
Und weil es außerhalb der Regeln agiert.
Ich finde es total spannend. Ich bin sehr neugierig und sehr gespannt, was du da noch so machst, Peter.
Ja, ich auch. Es ist ja für mich auch eine Entdeckungsreise.
Ich weiß, in welche Richtung ich mich bewegen will, aber es ist auch jeder Tag ein Abenteuer, wo ich auch immer wieder Überraschungen erlebe.
Was ich mich frage, ist, hat Peter bei sich zu Hause eine Serverfarm voller Grafikarten oder ein stinknormaler Desktop-PC?
Ich habe mehrere stinknormale Desktop-PCs, aber nicht deswegen, weil ich Computer so toll finde oder weil die so viel rechnen,
sondern einfach, weil ich unterschiedliche… Ich brauche einen Apple mit einem Intel, einen Apple mit einem Silicon,
ich brauche einen Windows-Rechner und das ist eher so der Hintergrund.
Und sonst, wenn ich Berechnungen bräuchte, wo ich das Gefühl habe, da braucht man jetzt irgendwie ganz viele Grafikkarten oder so,
würde ich die ganz sicher nicht bei mir hier aufstellen, sondern das würde ich einfach online buchen, stundenweise.
Das lässt sich einfach viel besser skalieren.
Genau, es skaliert einfach besser.
Und das kannst du sogar bis auf die Funktionen runterbrechen, dass du sagst, ich brauche das jetzt mal für diese eine Funktion,
brauche ich mal eben hier 200 CPU-Kerne, zack, buchst du die mal eben für eine halbe Stunde und dann ist die Funktion durchgerechnet.
Ja, ist auch bei den Preisen ja gar kein Ding, so zu zerstören, weil sie so billig…
Ja, also mittlerweile… Ich erinnere mich noch, wie Future waren, das glaube ich, die mussten für irgendein älteres Musikvideo die Wasserwände haben.
Die haben halt alle ihre YouTube-Kumpels angerufen und denen Schnipsel geschickt und haben gesagt, hey, könnt ihr das bitte mal auf euren Gaming-Bühnen laufen lassen.
Und dann haben die sich quer durch die Bundesrepublik, die waren halt damals noch klein, die haben sich quer durch die Bundesrepublik von den Kollegen
irgendwie einen kurzen Wasserschnipsel zurückschicken lassen, der dann halt gerendert war.
Dann haben die das zusammengesetzt und fertig waren. Und das ist keine zehn Jahre her. Heute buchst du dir eine Cloud-Farm.
Genau, aber auch da ist es ja so, dass beispielsweise für diese Modelle von, was weiß ich, JetGPT oder Stable Diffusion oder auch jetzt dieses Sono,
das ist dann natürlich doch schon wieder, dass dann da mehrere Hochhäuser vollgestopft mit den Hochleistungstensorschips dann über Monate an sowas rechnen.
An die Modelle, an die LLMs, ne?
Ja, genau.
Da rechnen die wirklich verdammt lange dran. Aber später, das eigentliche Ding…
Die Inferenz, ja.
Das kannst du tatsächlich auf einer ordentlichen GPU laufen lassen.
Ja.
Das ist unglaublich, also.
Das ist natürlich die Frage, auch wieder in der Frage der Nachhaltigkeit, okay, willst du so viel Energie verpulvern für Entwicklung,
aber da beißt dich die Katze dann halt auch wieder in den Schwanz, oder? Du willst wohin kommen, also musst du diese Ressourcen auch aufwenden,
um irgendwo hinzukommen, damit es dann nachher auf dem Look eben laufen kann.
Ich finde, das ist eine wunderbare Frage, mit der wir die Zuhörer dann jetzt in das Ende dieser Sendung entlassen können.
Danke für diese Überleitung.
Sucht euch mal selber Beschett-GPT, das ist ganz witzig.
Sucht euch mal selber Beschett-GPT, das geht?
Ich bin echt fasziniert davon, wenn man sagt, wer ist der Podcaster Sascha Markmann?
Ich will gar nicht wissen, was Beschett-GPT über mich weiß oder nicht weiß.
Vielleicht deprimiert mich das, wenn Beschett-GPT sagt, Herr Notstrom, wer?
Seitdem ich das gemacht habe, bin ich jetzt mindestens 2,58 Meter groß und habe 100 Millionen auf dem Konto.
Nicht schlecht.
Respekt. Und dann redest du noch mit uns, finde ich gut.
Gab es nicht mal diese AI-Geschichte, wo ein früheres Stadium das Machine Learning gefragt hat,
was ist der normale Mensch? Und dann hat das Machine Learning gesagt, der normale Mensch ist sehr reich.
Die Geschichte geht ganz anders. Die haben einen neuen Ansatz gesucht für künstliche Intelligenz und haben gesagt,
wir müssen erst mal Wissen verknüpfen.
Also haben sie den Tagsüber mit Wissen gefüttert und nachts hat das Programm das Wissen neu verknüpft.
Und am nächsten Tag haben sie sich diese Verknüpfung angeschaut.
Und irgendwann mal hatte dieses Programm festgestellt, dass 99,99997% der Menschheit berühmt sind.
Und dann, warum kommt das Programm auf die Idee?
Weil das Programm nicht wusste, dass dort 6 Milliarden andere Menschen auf der Welt leben
und nur die ganzen berühmten Leute aus dem Wissen, aus den Datenbanken kannte.
Klassischer Fehler.
Wenn ich mir meinen Freundeskreis und Bekanntenkreis angucke, würde ich auch sagen,
alle Menschen oder fast alle Menschen machen selber Musik.
Ja, genau.
In diesem Sinne macht selber Musik.
Schaltet jetzt ab.
Wir hören uns dann wieder, spätestens wenn unser Werder-Podcast-Gast und mittlerweile guter Podcast-Freund
wieder seinen nächsten, sehr kleinen, unspektakulären FM-Synth gebaut hat.
Auf den warten wir noch.
Ja, der kommt auch noch irgendwann.
Falls es dir zwischendurch zu langweilig wird oder wieder drei Jahre vergehen,
bist du auch gerne zwischendurch wieder hier.
Dankeschön.
In diesem Sinne, schaltet auch beim nächsten Mal wieder ein.
Wenn ihr Tobi sagen hören wollt…
Wir gehen nach Ibiza, zurück auf die Insel.
Wir gehen zu einer Party.
Ich starre hier auf den Tab, der neben dem Studio-Link ist.
Und aus irgendeinem Grund sind da die Wenger-Boys.
Was ist hier passiert?
Die Wenger-Boys?
Tobi, du bist komisch.
Die sind doch auch KI-generiert, oder?
Peter, du hast das letzte Wort.
Tschüss.
Tschüss.
Tschüss.
Mach's gut.
Bis zum nächsten Mal.
Ja, ciao.
Ciao, ciao.
[Musik]
[Musik]
[Musik]

Unterstützen:
Ihr könnt uns über Paypal direkt unterstützen oder über Steady oder über Patreon mit einem kleinen Mehrwert als Dankeschön.

Die spenden werden benötigt, um ein Teil der kosten für die Bereitstellung meiner werke, Podcast Blog texte sowie die Videos zu gewährleisten.

"Unterstützer erhalten vorab Zugriff auf die neusten Veröffentlichungen noch vor ihren regulären Erscheinen im Rohschnitt. Darüber hinaus gibt es exklusive Inhalte nur für die Unterstützer wie vor und nach Gesprächen sowie eine Art Tagebuch. Über folgende Dienste könnt ihr uns so unterstützen: Steady, Patreon und erhaltet Zugang zu den extra Inhalten."

Patreon Feed auf Spotify oder Steady Feed auf Spotfy



Zugehörige Episoden:
Feedback zur Ausgabe hinterlassen?
Dann schreib doch ein Kommentar

Audio Feedback zur Sendung?
Der Anrufbeantworter ist geschaltet. ☎ 0231 53075818

Specher:
avatar
Peter
avatar
Tobi
avatar
Notstrom
avatar
Sascha

Anzal der Downloads: 326 /  Spieldauer: 2:19:57 /
Tag der Aufnahme: 08.04.24 /  Diese Folge stammt aus der Staffel 4, es gibt insgesam 4 Staffeln.

Eine LautFunk Publikationskartell Produktion - Wo Geschichten unüberhörbar übermittelt werden.


Podcast Lizenz:


Probe Podcast 65 Stephan Schmitt

Bitte hinterlasse ein Kommentar und ein Like

Beschreibung:

Interview-Finale des Probe-Podcast-Jahres 2023, heute mit dem Mann hinter Big N und Little N gleichermassen. Stephan Schmitt, legendärer Tüftler und nach eigener Angabe entgegen Wikipedia nicht Musiker, erzählt aus seinem Leben und Wirken – von der Altbarockblockflöte bis zum Fender Rhodes, vom Modularbaukasten für den Heimcomputer bis zum dicken Digitalsynth-Hardware-Polyschlachtschiff, von 25 Semestern Elektrotechnik bis zur wahnwitzigen Marktstörung per Direktvertrieb, von Native Instruments bis Nonlinear Labs. Ausserdem: Berlin, DX7, Web 1.5, Kreativnachwuchs, ungeliebte Elektromucker, Möbelstücke, Kammfilter, Resonatoren, Magnetfolien und gelebte Jugendträume. Viel Spass damit.

Stephan Schmit

Links zur Ausgabe:

▶ Hier Klicken für das Tanscript:
Tanscript:

Hallo und willkommen zum Probe-Podcast.
So leicht aus dem Krankensimmer, aber gemütlich beim Talk aus dem Proberaum.
Ich begrüße unsere Gäste oder mittlerweile Stamm-Co-Moderatoren und sage Hallo Thomas.
Moin aus Hamburg.
Hallo Tobi.
Das Leben ist grauenhaft.
Ich weiß, ich leide mit dir.
Und wir haben einen sehr speziellen Gast, über den wir uns sehr freuen heute.
Wir haben den Stefan Schmidt.
Wir haben jetzt alle so "Yeah".
Stefan, du bist einer von den Gästen, die eigentlich einen eigenen Wikipedia-Eintrag
verdient hätten, aber keinen haben.
Ich habe tatsächlich auf Wikipedia geguckt.
Ich habe zwar Stefan Schmidt gefunden, aber die waren irgendwie so Physiker und SPD-Politiker
und sowas.
Aber kein, also nicht dich.
Aber was ich gefunden habe, ist ein Eintrag, ein Firmen-Eintrag und zwar "Native Instruments".
Und da war ganz prominent im Wikipedia-Eintrag ganz am Anfang, ich lese das mal vor, weil
das ist so wunderschön.
"Native Instruments, das Unternehmen geht auf die Idee des Ingenieurs und Musikers Stefan
Schmidt zurück.
Schmidt fühlte sich 1994 einerseits vom Gewicht und den Möglichkeiten von Synthesizern eingeschränkt,
andererseits sah er Personalkomputer so leistungsfähig werden, dass sie die Rechenarbeit eines fest
verdrahteten Synthesizers übernehmen und dabei viel flexibler sein könnten."
Und dann geht es noch ein bisschen weiter, das lese ich jetzt nicht alles vor.
Aber ich würde mal sagen, Stefan aus Berlin, herzlich willkommen beim Probe-Podcast.
Ja, danke für die Einladung.
Jetzt bist du aber nicht nur, ich sag mal, Ideengeber, Gründer der Firma "Native Instruments".
Du hast auch jetzt eine, neu kann man schon gar nicht mehr sagen, weil er da schon relativ
lange existiert, du hast auch die Firma "Non-Linear Labs" gegründet.
Das ist sozusagen jetzt dein aktuelles Tätigkeitsfeld, könnte man sagen.
Möchtest du noch dem etwas hinzufügen?
Mich würde vor allem der Part interessieren mit Ingenieur und Musiker.
Ja, so stimmt das nicht.
Also als Musiker würde ich schon eher Leute betrachten, die wirklich, sag mal, professionell
oder einen Großteil ihrer Zeit mit Musik verbringen.
Also ich habe nie mit Musik Geld verdient.
Ich habe mich immer sehr für Musik interessiert, aber ich habe E-Technik studiert.
Also ich habe von daher eine Elektrotechnikausbildung und habe als Ingenieur angefangen zu arbeiten
nach dem Studium.
Von daher, Ingenieur stimmt schon.
Und ja, Musiker aus, sagen wir mal, Leidenschaft am Spielen, ja, aber eben nicht im Sinne eines
professionellen Karriere.
Hast du ein Instrument gelernt?
Ich habe in jüngeren Jahren, ich habe mit einem ganz schrecklichen Instrument angefangen,
nämlich der Blockflöte.
Ich glaube, so zieht nicht jedes Kind in Deutschland, was zur Schule gehen muss.
Ich habe auch noch meine Blockflöte.
Ich habe dann drei.
Ich habe das leider ziemlich lange durchgezogen.
Meine Eltern haben mir dann Unterricht besorgt, dass ich auf der alten Blockflöte dann Barockliteratur
gespielt habe und damit aufgetreten bin und so.
Also es gibt ja solche aus der Literatur, die Blockflöte.
Aber so ein Blockflötenstudium dauert, glaube ich, gleich lange wie ein Medizinstudium,
also auf Profilevel.
Ja, habe ich auch gehört.
Und man kann damit richtig am Konservatorium nachher im Orchester spielen dann.
Ja, klar.
Also wie gesagt, in der Barockmusik war das durchaus ein etabliertes Instrument.
Aber es ist doch ein Instrument, was jemanden wie mich, der mich sehr stark für Rockmusik,
für Blues, für Jazz und sowas interessiert habe, dann doch als Sarkaste sich erwiesen hat.
Passt dann nicht ganz so gut.
Und die ist halt sowas von harmlos und, wie soll man sagen, einfach kommt nicht durch
gegen den Rest.
Es gab dann einen weiteren Einfluss, sagen wir mal, von der Barockmusik, weil mein Vater,
der hatte mal ein bisschen Klavierunterricht in der Jugend und später hat er sich ein
Cembalo angeschafft, weil er nämlich auch immer ganz viel Barockmusik gehört hat.
Und dieses Cembalo stand dann unbenutzt bei uns herum, weil er dann merkte, dass er dann
doch nicht so wieder quasi auf das Niveau kam.
Und dann habe ich angefangen, auf dem Cembalo herumzudrücken und auszuprobieren.
Dann habe ich irgendwann gesagt, da hätte ich gerne auch ein bisschen Unterricht.
War aber auch für meine eigentlichen Musikinteressen auch eine Sarkasse.
Das Cembalo ist auch ein Instrument, was auch sehr steif und sehr…
Ist halt keine Gitarre, ne?
Ein E-Cembalo?
Nein, das Hohner Klavinet, das ist eine tolle Lösung.
Und das habe ich aber erst sehr viel später kennengelernt.
Und dann hat ein Freund von mir, der war schon in der Schule, kann man sagen, so in Richtung
Profimusiker unterwegs, der wollte sich ein Fender Rhodes anschaffen und fragte, ob wir
uns das teilen könnten, dass wir die Anschaffungskosten halbieren.
Und mit dem hatte ich dann zusammen ein Fender Rhodes.
Dann ist er nach den USA gegangen zum Studieren und ich hatte das Fender Rhodes dann für
mich.
Und das war mein erstes Instrument, mit dem ich dann auch in Bands spielen konnte.
Ja, mit dem kann man auch schon ganz schön abrocken dann, ne?
Ja.
Dann habe ich in Amateurbands, also ich habe in Bordwey studiert und da mit Leuten halt
Musik gemacht in verschiedenen kleinen Jazzrock, Funkbands, so in der Richtung.
Und dann mit auf dem Fender noch ein CX-3, glaube ich, oder so, von Korg, so ein Orgel.
CX-3, so ein Transistororgel, ja.
Ja, ja.
Und später dann ein Polysix, das war das, was man sich gerade noch leisten konnte, als
es losging mit Polyphon-Synthies.
Und dann habe ich eben Elektrotechnik studiert und in der Zeit aber, ja, auch viel mich abgelenkt.
Also ich bin schließlich am Ende, bin ich im 25.
Semester exmatrikuliert worden.
Ja, ich sage das immer allen Kollegen und so, ich bin ein wahrendes Beispiel dafür,
wie man es nicht machen sollte, mit dem Studieren.
Also wenn wir Studenten haben und Praktikanten und so weiter.
Ich habe alles gemacht.
Ich habe sogar, ja, alle Studienarbeiten, die Diplomarbeit mit eins und so, alles abgeliefert.
Aber ich hatte keine Lust, Praktikantenberichte oder Praktikumsberichte zu schreiben.
Und das war dann im Prinzip das, was noch fehlte für das Diplom.
Und dann irgendwann war ich schon längst in der Industrie tätig und ja, hatte vollwertige
Jobs und dann hat man mir gesagt, ich könnte ja mal irgendwann anders weiter studieren
und naja, dann habe ich mich exmatrikuliert.
Ich würde mal sagen, der Erfolg gibt dir recht.
Also man muss nicht unbedingt sein Studium abschließen.
Man muss nur das, was man dort gelernt hat, einfach praktisch anwenden.
Ja, das ist auch bei Bewerbern und Leuten, mit denen ich zu tun habe, die irgendwie arbeiten
wollen.
Die gucken mir an, was sie praktisch gemacht haben und nicht, was sie für Abschlüsse
haben.
Und in dieser Braunschweiger Zeit jedenfalls, da habe ich mich viel abgelenkt mit Musik
machen, aber auch mit Studiojobs.
Also im Sinne, dass ich, oder mit Live-Mix-Sachen.
Ich war immer auch der Techniker für Bands.
Ich habe Bands betreut und ich habe nachher dann so für einen PA-Verleih gearbeitet, da
die Konzerte und Stadtfests und was immer zu beschallen war, bin ich halt rausgefahren,
habe die Anlage aufgebaut, habe da Beschallung gemacht, solche Sachen.
Dann hatten wir da ein Studio auch in den Räumlichkeiten dieser Firma.
Das habe ich betrieben und mit Leuten und irgendwelchen anderen Musikproduktionsprojekten
meistens eher von der technischen Seite betreut.
Da habe ich eine ganze Menge Erfahrung sammeln können im Audiobereich.
Beim Elektrotechnikstudium selber hat man ja doch, da ist Audio nur ein ganz kleiner
Ausschnitt und wird auch nicht besonders ernst genommen von den Professoren.
Da hat man irgendwie so einen Kommunikationswissenschafts- oder Nachrichtentechnik-Bereich, da ist dann
wieder ein bisschen Audio drunter.
Aber das heißt, was ich im Audiobereich weiß oder kann, das habe ich mir eigentlich alles
selber beigebracht.
Trotzdem hat das Studium schon eine Menge gebracht.
Ich habe so einen Schwerpunkt gehabt, Nachrichtentechnik und Regelungstechnik.
Da hat man halt mit Signalen zu tun, Signalübertragung, Konvertierung von Signalen und so weiter.
Dementsprechend hatte ich ganz gute Grundlagen, auch später dann im Audiobereich.
Eine kurze Verständnisfrage, in welchem Zeitraum bewegen wir uns gerade?
Ende 80er, Anfang 90er?
Stand die Mauer noch?
Ja, genau.
1976 habe ich Abitur gemacht, bin dann nach Braunschweig zum Studium gegangen und 1988
bin ich nach Berlin gekommen.
Da stand die Mauer gerade noch.
Dann habe ich erstmal in Berlin in einer Firma angefangen, in einem Bereich, in einem Entwicklungsbereich
für Glasfaserübertragungssysteme.
Das hatte also mit Audi nichts zu tun, war aber Kommunikationssysteme im allgemeinen
Sinne und Übertragungstechnik.
Da hat man mich hingelockt, weil mich von der Uni jemand kannte, der Assistent an der
Uni war und später in der Industrie angefangen hatte.
Der wollte mich gerne haben, deswegen bin ich eigentlich in Berlin gelandet, weil er
mich dahin gelockt hat.
Viele andere Freunde sind nach Berlin gegangen, weil Berlin so cool war zu der Zeit, Hausbesetzerzeit
und ja, irgendwie wilde, freie Jahre.
Das war doch auch die Hochzeit des Technos, oder nicht?
Bist du da auch in den Clubs gewesen?
Ja, wobei ich nie verstanden habe, wie man zu der Musik tanzen kann.
Es war schon spannend.
Es war spätestens als die Mauer dann fiel, 1991, gab es natürlich so viele brachliegende
Gelände und Gebäude und so viele Leute, die da mit was angestellt haben und dabei eben
auch diese Technokultur mit begründet haben.
Und ja, zum Beispiel im Tacheles im Keller, da war ich oft zum, ja, das war auch noch
einigermaßen gemischte Musik, oder das WMF, das war so ein legendärer Club, da ist man
irgendwie über einen Hinterhof, über Schuttberge geklettert und irgendwo gab es einen Kellereingang,
wo man ganz tief runterging, das war alles völlig irrsinnig, quasi, was die Sicherheit
da gegenwärtig…
Also nicht mehr so durchgestylt, wie es heutzutage ist?
Nee, nee, sehr…
Sondern noch richtig underground?
Richtig underground und ohne jede Genehmigung.
Natürlich, das hat ja damals den Charme ausgemacht, ne?
Ja, ja, ja.
So in der Zeit.
Ich kenn die Sachen auch noch.
Diese Löcher mit fettem Soundsystem, aber das war eher zusammengeschustert und als
Lichteffekt ein Stroboskop.
Und dann lief da Acid-Musik.
Ja, das ist schon brutal.
Also ich hab erst später gemerkt, also für mich war es auch irgendwie…
Also ich war sehr viel in Discos, wie das noch hieß, bevor es Club genannt wurde.
War manchmal jeden Abend unterwegs oder mehrmals die Woche und hab auch viel Zeit auf der Tanzfläche
verbracht, aber ich hab immer zu Sachen getanzt, die schwarze Einflüsse haben, so Funk und
Soul und sowas.
Wo jemand seine Instrumente noch beherrscht hat.
Das kommt dann später auch zum Tragen bei mir, weil ich mich mit der typischen Kundschaft
von Native Instruments nie richtig identifizieren konnte.
Ich fand es trotzdem sehr spannend, was da so passiert ist in der Zeit und es waren natürlich
eine Menge Freiräume, die die Leute genutzt haben.
Würdest du jetzt, als gerade jemand, der jetzt nicht halt wirklich so mitgetanzt ist,
wenn ich dann Erfahrungen zuhöre, würdest du hier Tani zustimmen, der es mal in "We
Call It Techno" gesagt hat, ab dem Moment, wo es groß wurde, war es vorbei.
Also mit der ersten oder zweiten Mayday, als er dann gesagt hat, ja, das wird jetzt auf
der Kirmes laufen, das ist over.
Ja, das Gefühl, das kann ich gut verstehen.
Ich habe die allererste Love Parade zufällig miterlebt und dann glaube ich auch die zweite.
Später war ich eher beruflich da noch.
Aber bei der zweiten, das war noch ziemlich spannend.
Das ging noch über den Ku'damm und da war glaube ich auch Jeff Mills oder einer von
diesen Detroit Leuten auf einem Wagen dabei oder Carl Craig.
Und das war, obwohl es immer "4 on the Floor" war, was mich eigentlich normalerweise abschreckt,
hat das irgendwie gegroovt.
Das hat wirklich funktioniert.
Aber das war eben noch Detroit Techno.
Und was später auf den Love Parades zu hören war, das war halt Kirmes Techno.
Ja, und es ist ja nachher auch mit einem riesen Desaster dann da in Düsseldorf, nee, in Duisburg.
Es war in Duisburg.
Es ist ja mit einem riesen Desaster in Duisburg geendet, wo die Leute sich dann da gegenseitig
totgetrampelt haben.
Zehntausend Betriebte durch einen Tunnel.
Wer kam auf die Idee?
Ein Kollege von mir war da, war da Sanitäter, der hat mir Geschichten erzählt.
Okay, das ist aber, wir wollten eigentlich einen Unterhaltungs-Podcast machen.
Sorry.
Also, na gut, also jetzt.
Also abgesang einer Ära, aber ich sag mal, im Zuge dieser ganzen Techno-Bewegung, da
bist du auf diese grandiose Idee gekommen, lass uns mal mit dem Computer Musik machen.
Oder wie kam es dazu, zu diesem ersten Software-Synthesizer, zum Generator?
Ich hab dann eine ganze Menge Synthesizer gehabt nach dem Polysix.
Aber ich war immer so ein bisschen antizyklisch unterwegs.
Als der DX7 groß angesagt war, hab ich mir den nicht besorgt, weil ich dachte, den haben
jetzt alle.
Später hab ich gemerkt, was ich verpasst habe mit dem DX7 und hab mich völlig auf
den DX7 konzentriert und hab dann also kein anderes Instrument mehr gespielt, sondern
fünf Jahre lang DX7 programmiert.
Und da hat mir wieder geholfen, diese E-Technik-Ausbildung, weil das ist halt wirklich ein sehr, wie soll
man sagen, abstraktes, technisches, anspruchsvolles Ding.
Mit dem DX7 hab ich dann so Solo-Konzerte gemacht, mal eine Weile lang.
In der Kunstszene, auf Galerienöffnungen oder sowas.
Sehr abstrakte, experimentelle Musik auch gemacht.
Die Leute haben mich auch gefragt, ist das ein Sampler, weil Sampler waren zu der Zeit
dann angesagt und das klang anscheinend eher so akustisch.
Ich hab mich da ziemlich reingefuchst und hab eigentlich seit den 80ern die ganze Synthesizer-Entwicklung
sehr intensiv verfolgt.
Mir immer alles ausprobiert, immer in die Musikgeschäfte gegangen und gemerkt, naja,
so toll find ich das meist nicht.
Und in den 90ern ist das auch in eine ziemliche Sackgasse gelandet.
Oder schon Ende der 80er mit den Workstation und dem ROM-Plan.
Also Geräte, die ganz viel fertig eingebaute Sample-Material haben, was möglichst realistische
oder im Zeitgeist der damaligen Zeit entsprechende Soundquellen geboten hat.
Und das Thema Synthese war eigentlich nicht mehr wirklich im Fokus der Firmen wie Roland,
Korg, Yamaha und so weiter.
Und ich fand das ziemlich frustrierend und hab dann überlegt, wie könnte ich einen
eigenen Synthesizer rausbringen.
Ideen hatte ich da genug.
Ich hab mich erst mal eher auf der Parameter-Ebene vom DX7 ausgetobt.
Ich hatte mit einem Editor, einem Synthworks-Resourcing von Steinberg auf dem Atari damals, den vollen
Zugriff auch über eine visuelle Schnittstelle, ein visuelles User-Interface.
Und das ist, kann man sagen, in gewisser Weise auch der Vorgänger gewesen von dem, was ich
dann später gemacht habe.
Also Software-Synthesizer haben ja den großen Vorteil, dass man eben auch eine sehr ausgefeilte
visuelle Bedienungsabfläche haben kann.
Jedenfalls die digitalen Instrumente, und das war eine Zeit lang ja eigentlich nur das,
was angesagt war und was auch viel leistungsfähiger ist aus meiner Sicht als analoge Instrumente.
Die digitalen Instrumente basierten alle auf ASICs, also Application Specific ICs, also
integrierte Schaltungen, die für den Hersteller Yamaha zum Beispiel von irgendeiner Chipbude
dann produziert werden.
Ja, die bekanntesten sind ja die analogen integrierten Schaltungen.
Das sind ja die Curtis-Chips.
Genau, die Curtis-Chips und so weiter.
Richtig.
Ich hatte eine analoge Phase, aber da war ich noch Teenager, und dann habe ich mit Elektro
Schaltung und so, aber auch mit eigenen Entwürfen habe ich mir Oszillatoren, Filter und so was
gebaut.
Und dann kamen aber die Curtis-Chips und da dachte ich, jetzt kann das jeder.
Das fand ich dann irgendwie auch langweilig, weil also die ganzen Probleme, die man lösen
musste, um jetzt einen stimmstabilen Oszillator zu bekommen und so weiter, die waren da ja
gelöst da drin.
Von sehr guten Leuten, von denen, die da eben im Silicon Valley das gemacht haben.
Ich glaube, Dave Frossom war auch ziemlich beteiligt da dran.
Jedenfalls war das für mich schon ein bisschen so das Ende, wo ich dachte, jetzt bastelt
man nur noch Chips zusammen.
Das ist irgendwie nicht mein Ehrgeiz gewesen damals.
Aber jedenfalls fand ich auch eben die Möglichkeiten, zum Beispiel beim DX7 metallische Klänge
zu produzieren, eben diese Modulationsergebnisse, die Produkte, die dabei rauskommen.
Auch wenn man nur zwei Sinus- oder drei Sinus-Operatoren miteinander kombiniert, das fand ich sehr
spannend.
Aber es war schwer für eine kleinere Firma, für eine neue Firma oder für einen Einzelentwickler
umzusetzen.
Deswegen kam mir das entgegen, dass die Prozessoren immer schneller wurden.
Ein Gründer von Intel, der Herr Moore, hat ja dieses Gesetz zur Verdopplung der Rechnerleistung
alle anderthalb Jahre etwa da aufgestellt.
Das wurde auch lange eingehalten.
Das heißt, man konnte also dauernd damit rechnen, dass man immer schnellere Prozessoren bekommt,
die immer mehr Leistung bringen.
Dann wurde mir dann klar, dass ja, okay, warum ja noch Spezialchips?
Warum nicht einfach irgendwas, was in einem PC steckt, nehmen?
Wir reden vom Zeitraum her.
Ich kürze da zwischen ein.
Das ist so Anfang der 90er.
Da ging es los.
486, Intel, 486er.
Der Pentium war schon am Horizont zu sehen mit unglaublichen 90 bzw. 100 Megahertz.
Die ersten Homecomputer in den 80ern hatten 1 Megahertz.
Deswegen auch das Moore-Gesetz.
Ja, genau.
Das exponentielle Maximum der Verarbeitungsgeschwindigkeit.
Und der Pentium war für mich auch der Punkt, an dem es interessant wurde.
Der hatte auch von der Ausstattung her, was Register und Rechenwerke so anging.
Der war wirklich DSP-tauglich.
DSP heißt digitale Signalverarbeitung.
Dass man da Echtzeitfähig werden konnte.
Mit Pentium und Windows 95.
Das waren so die beiden.
Richtig, genau.
Windows 95 war ja auch damals die Revolution.
Bis das endlich 32-Bitig wurde.
Und Mac war gerade am Wegsterben.
Da war also noch nicht der Highland wieder erschienen.
Weil sie noch auf Motorola-Prozessoren gesetzt hatten.
Ja, ja.
Deswegen habe ich gesagt, okay.
Ich habe dann jemanden gefunden in einer Firma, in der ich damals gearbeitet habe.
Das war im Mischpult-Bereich.
Die Firma wurde aber dann auch wieder umrandticht gemacht.
Und wir gingen in die Arbeitslosigkeit.
Und mit dem habe ich mich hingesetzt und gesagt, komm, du hast Ahnung von Compilern und von
Software und ich habe Ahnung von Signalverarbeitung.
Lass uns mal probieren, ob wir nicht einen Synthesizer auf der Basis von ganz normalen
PC-Prozessoren und Betriebssystemen hinbekommen.
Das war der Volker Hinz, richtig?
Genau, Volker Hinz.
Und ja, Volker hat sich da durchgebissen durch die ganzen Entwicklungsumgebungen, die dann
dafür nötig waren, bis hin zu einer Treiberentwicklung, die wir dann gemacht haben.
Wir haben festgestellt, dass die Soundkarten zu der Zeit unzufrieden große Latenzen hatten.
Man konnte also nicht über normale Soundkarten Keyboard spielen.
Der Ansatz war, man nimmt ein MIDI-Keyboard, der Computer hat einen MIDI-Eingang, im Computer
läuft die notwendige Signalerzeugung und dann gibt man es aus über eine Soundkarte
und das hat dann hoffentlich was in Echtzeit spielbares und das war mit den Soundkarten
nicht möglich.
Da hatte man 120 Millisekunden oder so Latenzen.
Das waren noch die ISA-Karten, die über den ISA-Bus angeschlossen waren.
Genau.
Der Systembus war so quälend langsam.
Wir haben damals auch eine eigene Karte entwickelt.
Das war auch eine ISA-Karte.
Das ging schon.
Man musste nur ganz direkt in den Handler schreiben und dann ging das.
Wir hatten damit die ganze Kette von der Bedienoberfläche, MIDI haben wir genommen, wie es war, bis zum
Audioausgang hatten wir dann unter Kontrolle und konnten auf die Art und Weise befriedigende
Performance bekommen.
Der Ansatz war, dass wir am Anfang dachte ich, irgendein Synthesizer, mir fällt schon
was ein von der Struktur her und dann fängt man an mit irgendwelchen Oszillatoren, irgendwelchen
Filtern oder so.
Dann haben wir gemerkt, wenn man Software entwickelt, ist sowieso alles modular.
Man schreibt Software-Module, die man nachher wiederverwenden kann, sonst verschwindet man
ja seine Zeit.
Und die man auch jedes Modul für sich weiter optimieren, weiterentwickeln kann.
Deswegen hat sich schnell der Gedanke bei uns etabliert, dass wir gesagt haben, wir
können das eigentlich auch an den User durchreichen.
Wir schreiben hier Software-Module auf der Software-Ebene, aber wir können diese Module
auch im User-Interface sichtbar machen und wir können dem User die Möglichkeiten geben,
diese Module miteinander zu verdrahten, indem man einen Wire zieht vom Ausgang eines Moduls
zum Eingang eines anderen.
Das war dann ein radikaler Ansatz, der aber mir sehr mächtig erschien, dass wir uns damit
gar nicht festgelegt haben, auf irgendeinen Klangerzeuger, auf irgendeinen Effekt oder
sonst was.
Sondern wir haben erstmal eine Plattform entwickelt, auf der dann wir und andere, und das wurde
dann eben auch ziemlich wichtig, dass da neue Leute dann hinzukommen konnten, die dieses
Modularsystem, diesen Baukasten dann eben benutzt haben.
Und deswegen ist Generator als Vorgänger vom Reaktor schon so angelegt worden, dass
man eben in die Struktur was reinpacken muss.
Dann sieht man auf dem Panel, das ist dann die zweite Ebene, sieht man eventuell Bedienelemente.
Und man kann aber immer wieder in die Struktur reingehen und alles editieren und weitermachen,
was allerdings auch sehr Ingenieursmäßig ist, muss man auch sagen.
Wir haben die potenziellen User also komplett überfordert damit.
Sorry, du wolltest was sagen?
Ihr habt, als ihr die Version 1.5 von dem Generator rausgebracht hattet, ich habe da
tatsächlich bei Sound on Sound einen Testartikel gefunden für Native Instruments Generator
1.5, aus dem September 1998, geschrieben von Martin Walker.
Und er führt hier auf, ihr habt das, was du gerade erzählt hattest, ihr habt also
140 fertig designte Instrumente in dieser Generator Library mitgeliefert.
Davon waren 70 unterschiedliche Synthesizer, die in solche Kategorien sortiert sind wie
Atmosphere, Basic, Analog, FM, Modeling, Organ, Padstring, Percussions und so weiter und so
fort.
Und ihr habt aber auch, und das finde ich war für die damalige Zeit total, ich sag
mal, ja, bahnbrechend, ihr habt auch Effektverarbeitungsmodule quasi, also Effektgeräte, Chorus, Kompression,
Distortion, Filter, Flanger, Delays und so weiter und so fort, habt ihr auch mit reingepackt,
dass man das entsprechend dann auch schon nutzen konnte, um sein Audio, was man eben
im Bahnrechner hatte, dann entsprechend auch dann schon zu verändern.
Und das ist, glaube ich, also mittlerweile ist das ja Standard, das macht jede DAW, die
bei 12 nicht auf dem Baum ist, aber damals war das, also soweit ich mich erinnern kann,
ich hatte damals Generator, das war der Hammer.
Ja, Generator war in sich schon ein kleines Studio, ne?
Also man konnte Instrumente, also die höchste Ebene, das Ensemble, das konnte Instrumente
beinhalten und Instrumente, das war jetzt nicht unbedingt nur Klangerzeuger, das konnten
auch eben, ja, Units sein, die halt als Effektprozessoren laufen.
Und man konnte sich auch einen Mixer bauen und so weiter, also mehrere Instrumentenkanäle
über mehrere Effekte auf mehrere Mixerkanäle bringen oder so.
Es gab, also jetzt nur so als kleine Bemerkung, also dieses Effektprozessing war schon etabliert
zu der Zeit, ja?
Also in den DAWs.
Also es gab auch schon Effektplugins, also sagen wir mal für Dings hier, wie heißt
das, Pro Tools und so.
Ja, aber dass du das alles miteinander verbinden kannst und mit deiner Klangerzeugung über
virtuelle Patchkabel verbinden kannst, das gab's noch nicht.
Bitwig hat das jetzt zum Beispiel und in Ableton Live haben sie es halt auch irgendwie über
Max MSP reingebastelt, aber so, dass das halt, ich sag mal, patchbar war, das gab's nur im
Zusammenhang hier zum Beispiel mit dem Klavier modular oder so.
Aber ansonsten war das schon ziemlich groundbreaking.
Ja, wir haben das, glaube ich, schon alles sehr gründlich angegangen und so und gedacht,
okay, was möglich ist, das geben wir auch an den User weiter.
Das war dann auch den, also Audio Inputs, also wenn eine Soundkarte Inputs und Outputs bietet,
dann konnte man auch einen Reaktor, also Reaktor einfach als, oder Generator als Effektgerät
betreiben.
Irgendwann, ja, in 99, 2000 gab's dann die Plug-In-Version davon.
Aber erstmal war es eben als Standalone, in sich geschlossene Applikation konzipiert.
Und es hat auch eine ganze Menge Leute gegeben, die einfach damit ihre Performances gemacht
haben, auch in diesem Electronic Live Performance Bereich und die damit aufgetreten sind.
Weil man konnte dann nämlich auch noch Sequencer bauen damit, also die Eventverarbeitung hat,
also die Verarbeitung von Steuersignalen war genauso möglich wie von Audiosignalen.
Und ja, von daher, also Lazy, ähm, nicht Lazyfish, ähm, ja, Aerosmith, also Erik Wiegand, der
tolle Live Performance ist gemacht, nur mit Reaktor.
Und, oder Tim Exile hat auch ganz massiv Reaktor eingesetzt in seinen Live Setups.
Was ja das Besondere an einem Generator war und auch natürlich an den ganzen Nachfolgeprodukten,
das ist natürlich auch der Sound gewesen.
Ihr habt jetzt nicht versucht, irgendwelche alten analogen Klassiker da zu simulieren,
sondern das war, das war auch klangtechnisch, war das schon, ja…
Es hat halt das Neue embraced, sozusagen.
Richtig, genau.
Es war nicht krampfhaft, versuchen, das, was schon da war, zu simulieren, sondern zu sagen,
hier ist ein Baukasten, baut mal.
Weißt du, das ist so der Vergleich, wie die Leute, die sich Lego-Sets kaufen, zum sie
nach Anleitung zusammenbauen und dann in die Hütte stellen.
Reaktor ist halt eher so, okay, das ist e-modular, ab in die große Kiste, oder?
Also so, wie ich Lego gebaut habe als Kind.
Und zwar ohne, dass du irgendwie so einen Kasten hier irgendwo hinstellen musstest,
sondern du konntest das einfach mit deinem, ja, quasi mit deinem Heimcomputer, mit deinem
Spielerechner, konntest du dir plötzlich ein Studio installieren, einen Synthesizer
installieren.
Wie geil war das denn?
Das war halt auch ein Kasten damals, muss man immer sagen, so rein platzbedingt.
Ja, aber du weißt, was ich meine.
Also du hast den Kasten ja schon gehabt, weil du hier als Spielerechner oder was…
Ja, das ist Simulisation.
Genau, das war für uns, ja, also auch ein wichtiger, also ich hab lange Jahre, hab ich
immer für Software-Synthesizer, sagen Evangelist gespielt, ne, irgendwie, warum Software-Synthesizer
so viele Vorteile haben.
Und eben, ja, vorhandene Hardware zu nutzen, die bei jedem schon rumsteht, ist eben, ja,
auch eine effiziente Sache.
Und das Problem ist nur, also in der Anfangszeit, dass da Leute hatten halt mit Windows immer
schön viele Blue-Screens und Ärger und Konfigurationsthemen und viel.
Also Computer hat man oft mit, ja, mit Problemen oder mit Büro, sozusagen, Applikationen vor
allen Dingen, assoziiert, ne, und auf dem Computer als Musikinstrument oder auf, weil
es irgendwie mit, was man auch mit auf den Bühnen nehmen kann und so weiter, zu begreifen,
das, ja, das hat eine Weile gedauert, bis da so das Vertrauen da war.
Die Robustheit von Soundkarten, von Betriebssystemen und so weiter, das hat dann, ja, zum Glück.
Ja, das ist auch der Technologie geschuldet, ne, also die Betriebssysteme, die waren halt
noch nicht so weit, für so Echtzeit-Signalverarbeitung wirklich da hundertprozentig zu laufen.
Und heute rennen wir alle mit irgendwelchen Smartphones rum, die die damaligen Rechner
um haushoch was Rechenkapazität tragen, ne.
Ich hab halt auch immer noch das erste Mac OS X vor Augen, ne, so grauenhaft, wie das
war.
Ja, aber es war doch generell die Zeit, wo die ganze Technik super uncool war, da sind
doch die ganzen Gitarrenbands aus dem Boden geschossen und irgendein Metal-Produzent wurde
von seiner eigenen Fanbase auf irgendeinem Festival verprügelt, weil er es gewagt hat,
Synthesizer einzusetzen.
Jaja, also die Synthesizer wurden eben von der Techno-Szene hochfähig gemacht, oder
waren da.
Die haben sich ja total dafür begeistert, allerdings haben sie dann auch viele alte
Schätzchen so aus dem Gebrauchtmarkt sich besorgt und konnten dann noch an Knöpfen
drehen und deswegen war es ein großer, oder ist ja immer noch ein großer Kult um die
Artwehr und um das analoge Zeug und das alte Zeug.
Und wir haben das auch zu spüren bekommen, dass sie kamen auf uns zu und sagten, ja,
kann man damit auch eine 303 machen, kann man damit auch ein Minimoog machen und so
weiter.
Also es kamen dann schon mal die Anforderungen und die Anfragen aus der Synthesizer-begeisterten
Szene.
Also mein persönlicher Standpunkt, den sieht man auch im Reaktor, wir haben da eben kein
Moog-Emulationsfilter irgendwo drin und das sind alles kleinere Bausteine und generischere
Bausteine, die wir da angeboten haben.
Viel kleiner auch als das, was, wie soll man sagen, die Granularität ist eben viel kleiner
als das, was klassische Modularsysteme geboten haben.
Nordmodular hat sich eher an den klassischen Modulen orientiert, während Reaktor war also
viel kleinteiliger.
Man musste jedes Bedienelement, da musste man sich auch dafür entscheiden, dass man
das haben will und wie das aussehen soll und wie das heißen soll und wo das angeschlossen
sein soll.
Also wenn man sich quasi aus ein paar Chips und ein paar Poti's was zusammenbaut eher,
das ist gewesen.
Ja, da hast du halt irgendwann einfach ein Platzproblem, oder?
Und zwar ein Platzproblem im Sinne von, du musst das Mikroskop holen, oder?
Auf Software-Ebene ist das kein Problem, du zoomst rein und gehst irgendwie in die Transistoren
und kannst da alles modular auswechseln.
Ja, oder du arbeitest mit Macros halt, brauchst hier ein Macro-Modul.
Das Reinsummen bei dem Reaktorkonzept ist eher so, dass man eine Hierarchie hat, dass
man auf der oberen Ebene eingekapselte Strukturen hat, in denen wiederum Macro-Module liegen,
wenn man da reinsteigt, weitere Macro-Module und so weiter.
Das ist auch wieder diese Wiederverwendbarkeit natürlich, wenn man einmal was Gutes entwickelt
hat, will man das auch vielleicht in der Bibliothek legen und nachher wiederverwenden.
Auf diese Weise war das Ganze sehr ungebunden und unabhängig von Legenden und Vorbildern
und so.
Und physikalischen Gegebenheiten vor allem, oder?
Ja, mir war das wichtig, also den Leuten Möglichkeiten zu geben, die sie vorher nicht hatten und
die neue kreative Potenziale freisetzt.
Und das ist für eine kleinere Gruppe von Leuten auch gelungen.
Wir haben dann Leute gefunden, die richtig tief eingestiegen sind und Zeug entwickelt
haben, wo ich dachte, das geht gar nicht mit Reaktoren.
Das war für mich selber dann oft überraschend, wenn ich gesehen habe, oh Gott, also Lazyfish,
so ein russischer Entwickler, was macht der da?
Teilweise war ich auch sauer, weil ich dachte, missbraucht der da so, dass das an die Grenzen
kommt.
Aber es war sehr, sehr fruchtbar in vieler Hinsicht.
Vielleicht nochmal was zu den 150 oder 140 mitgelieferten Instrumenten und Effekten,
was du vorhin erwähnt hast, Thomas.
Das waren oft ziemlich kleine Instrumente.
Das ist auch ein wichtiger Aspekt, wenn man Instrumente bauen kann und die im Prinzip
nichts kosten oder eine Bibliothek von diesen Instrumenten haben kann, dann muss man nicht
ein Instrument bauen, das alles kann und das total flexibel, die super Mega Maschine ist,
sondern man kann Spezialisierte, also so einen String Synthesizer kann man bauen oder einen
Glockensynthesizer oder, ja, also Spezialisierte Klangerzeuger mit relativ überschaubarer
Bedienoberfläche.
Davon hatten wir eine ganze Menge am Anfang.
Also später kamen auch eher die Mega Synths, aber eigentlich das Konzept von so einem Modularbaukasten
erlaubt dir eigentlich mit kleineren Komponenten und kleineren Instrumenten auch zu arbeiten.
Wenn ich das noch richtig im Kopf habe, wart ihr ja damals mit der Reaktor Library eigentlich
auch so ein bisschen die Ersten, die das wirklich, also in einem Zeitalter, wo wirklich quasi
jeder noch Dongles und Festplatten und USB-Sticks verschickt hat, wart ihr eigentlich mit der
Reaktor Library da einfach irgendwo auf Github rumgeschwebtes oder so in der Art, eigentlich
ein bisschen so Pioniere, weil es eben so klein war, oder?
Weil wir gar nicht von riesigen Megabytes geredet haben, sondern wirklich von Kilobits, die
dann in den Rack gepackt wurden.
Genau, man brauchte eigentlich nur Kilobytes, ja, um so ein Instrument zu verpacken.
Wir konnten da so gut als E-Mail-Attachment wohin schicken, zum Beispiel irgendeinem Freund
oder ein Mitentwickler oder so, schnell das Instrument rüberschicken.
Und wir haben dann ziemlich schnell so ein Forum und ein Download-Area da aufgemacht,
wo User ihre Kreationen hochladen konnten und andere die halt dann wieder runterladen
und ausprobieren konnten.
Also wir haben das Internet schon ziemlich gut zu Nutzen gewusst damals, oder es war
ziemlich wichtig für uns.
Nur mal so aus morbidem internethistorischem Interesse, wie lange hat es gedauert, bis
da irgendwelche Spaßvögel, Leuchter, so Zeug in die Patch-Library reingesetzt haben,
das da nicht reingehört?
Also so, keine Ahnung, Viren, Wolven, Vorr…
Nee, ich glaube es gab relativ wenig.
Ja, du musst verstehen, 1900, ich sag mal 1900, oder sagen wir mal die 2000, die Nullerjahre.
Ich war auch da in der Zeit, Kollege.
Aber es hat halt nicht jeder im Internet gesurft und da haben sich wirklich auch nur die Leute,
die sich wirklich dafür auch interessiert haben und da auch wirklich ein Interesse dran
hatten, sich in den Foren, in den musikrelevanten Foren getummelt.
Also zum Beispiel hier, wir haben es ja vorhin schon genannt, Sequenz hat die E-Forum, Synthesizer-Forum
hieß es da noch.
Das war wirklich eine eingeschworene, ich will nicht sagen eine Clique, aber das waren
jetzt nicht so viele Leute, wie es heutzutage sind.
Das war aber auch nicht besser.
Neulich haben sie eine Tread-Leiche von vor 22 Jahren ausgebuddelt und die sind sich da
2003 schon genauso angegangen, wie sie es heute tun.
Dass der Mogulator überhaupt noch so ein Archiv pflegt, ist auch der Wahnsinn.
Ich muss zugeben, ich habe mir den Luxus erlaubt, mich nicht im Forum großartig rumzutreiben,
weil ich auch immer gehört habe, dass im Forum wieder geschimpft wird oder so.
Ich habe das sozusagen filtern lassen von den Kollegen.
Ich habe gesagt, okay, die sollen sich mal ruhig aufregen im Forum.
Aber ich habe nicht mitgeschimpft oder nicht mitgemacht.
Und ja, was nicht unbedingt die beste Lösung war.
Aber es gibt natürlich, es gibt immer bei Leuten, denen man Software verkauft oder man
eine Software verkauft, die auch immer sich besorgt haben, gibt es die Unzufriedenheit,
das geht anders, das geht besser, weil man ja auch dauernd Updates rausbringt.
Warum habt ihr jetzt nicht das Updates, sondern nur das?
Und so weiter.
Die ganze Meckerei, die dann kommt, die ganze Enttäuschung, irgendwie Ansprüche, die dann
plötzlich anscheinend bestehen.
Warum wir nicht aufs Forum gehört haben oder warum wir nicht auf den Herrn X gehört haben,
der doch alles besser weiß als wir.
Aber es war, wie gesagt, diese Upload-Area, die haben wir, glaube ich, auch gefiltert,
wie das dann von File-Typen irgendwie her nur eben Charakter-Ensembles und Instrumente
waren.
Zwangsweise, dass da keine Viren verbreitet werden und so was.
Ja eben, es war halt da noch wirklich wilder Westen, oder?
Aber was da eben kam in den Upload-Areas, das war für uns teilweise wirklich faszinierend,
jetzt von den seriösen Beiträgen.
Und das waren eben auch so eine Talent-Präsentation.
Wir haben da so viele Leute entdeckt, die unglaublich gutes Zeug gemacht haben und haben
die eingeladen, bei uns mitzuarbeiten und Teil der Firma zu werden oder zumindest als
Externe weiter mitzumachen.
Das war wichtig.
Und da sind so Leute, mit denen ich heute noch zusammenarbeite, Mike Dalio zum Beispiel,
der war einfach ein durchgeknallter, lernbegieriger Anfänger zu der Zeit und hat alles mögliche
ausprobiert und hat tausend Fragen gestellt.
Und der ist ganz schnell ganz gut geworden und ist heute, würde ich sagen, einer der
besten Instrumentenbauer überhaupt, die es gibt.
Der hat vorhin schon erwähnt, Eric Rezifisch, so einige Namen.
Tim Hacksal und die anderen.
Ja, Tim Hacksal.
Der hat ja auch ganz krasses Zeug für Reaktor gemacht.
Ich bin nicht so tief drin im Ökosystem, was ich von dem mal gesehen habe, aber das
war irre.
Also es ist ein bestimmter Typ von Mensch, der eben auch in der Lage ist und bereit ist,
sich ganz tief einzugraben und wochenlang quasi mit, im Prinzip ist es ja ein grenzenloses
System, wo man immer nur an den eigenen Unfähigkeiten oder an die eigenen Grenzen stößt.
Und wenn man da den Biss hat, dann kommt man halt sehr weit.
Wenn wir einen kleinen Zeitsprung machen und wir gehen mal so ein paar Jahre weiter, also
ich sag mal vielleicht so ungefähr so 20 Jahre weiter ins Jahr 2012.
Wie kam es dazu, dass du gesagt hast, Native Instruments ist super, aber ich will mal was
anderes machen?
Was ist da passiert?
Wenn du das verraten darfst.
Ja, ja, ich kann da schon drüber reden und ich werde auch ganz drüber.
Also ich bin von der Rolle des Gründers eigentlich auch ziemlich schnell, sag mal, in so einer,
also war ich eher der technische Leiter.
Wir hatten dann den CEO, der lange Jahre den Laden sehr massiv vorangebracht hat.
Aber da ist auch ein anderer Mindset dahinter.
Und also dieses sehr auf Wachstum und Marketing orientierte.
Und dann gab es halt neue Leute, die herangeholt wurden.
Es gab andere Einflüsse.
Also ich bin auch mit der Zeit immer mehr in den Hintergrund gekommen und habe aus dem
Hintergrund heraus immer noch viele technische Projekte voranbringen können.
Aber insgesamt in der ganzen Produktgestaltung und der Produktphilosophie nicht mehr so meine
Handschrift gesehen.
Das waren andere Leute.
Und das war eben auch von der Zielgruppe war ich auch nicht der Beste.
Also Native hat eben sehr stark die Producer und DJ Szene bedient.
Und da gibt es Leute, die sich da besser zu Hause fühlen und auch sich besser begeistern
können dafür.
Und ich habe zum Beispiel für Traktor die erste kleine Soundengine, die es gab für
Traktor, die habe ich mitentwickelt und ich habe Traktor wirklich auch stark mit angeschoben.
Ich habe mich mit Maschine beschäftigt, habe da meinen Prototypenbau mitgemacht und so.
Wo ich allerdings mehr als Oldschool Musikfan irgendwie mich gesehen habe, war zum Beispiel
bei Guitar Rig.
Das war auch ein Projekt, was ich angeschoben habe damals, weil ich gesehen habe, wir konnten
zum Beispiel in Reaktor wunderbare Gitarren-Effekte machen.
Und mit einer Low-Latency-Soundkarte konnte man das schon ganz gut vorführen.
Daraus wurde dann irgendwann Guitar Rig, aber dann hat irgendwann das Management festgestellt,
dass man sich da nicht verzetteln sollte und dass es nicht die Kultur der Firma sei, Gitarristen
zu bedienen.
Das sind so Richtungsentscheidungen, was Zielgruppen angeht, was Produktphilosophie angeht und
so.
Und deswegen habe ich mich auch teilweise wirkungslos gesehen oder konnte bestimmte Ideen nicht umsetzen
und hatte dann die Chance, weil wir viel mit Investoren, Einstieg von Investoren, Ausstieg
von Investoren und so um Umbauten zu tun hatten, gab es dann einen Moment, wo ich mit aussteigen
konnte und Anteile verkaufen konnte.
Die letzte Reaktor-Version, das war glaube ich die Fünfer, oder?
Wo ich noch beteiligt war, das war 5.9 oder so.
Ich glaube aber seitdem hat sich Reaktor auch nicht weiterentwickelt, oder?
Es gibt eine 6 und es ist eine Ansammlung von leeren Versprechen und einer so halbwegs
funktionierenden Oberfläche.
Sie haben es jetzt gerade mit viel Krampf auf M1 gekriegt und ich bastelte auch zwischendurch
noch rein Razor ist cool oder auch jetzt Polyplex.
Ich mag das Zeug, aber man sieht halt schon, die Betriebsphilosophie ist komplett anders.
Also, konntest du das, also Stefan, konntest du das auch irgendwie dann loslassen oder
fühlt sich das eher so an, wie wenn jetzt die eigenen Kinder sich ans Brandenburger
Tor kleben würden?
Ne, also inzwischen bin ich da ganz cool, was das angeht.
Ich hatte ein paar Jahre noch, als ich noch bei Native war, da hatte ich so ein bisschen
schlechte Laune und da bin ich halt froh, nach dem Ausstieg wurde meine Laune schon
besser.
Also die schlechte Laune war eben vor allen Dingen da, darin begründet, dass ich nichts
mehr umsetzen konnte oder wohnte.
Und inzwischen, es gab schwere Krisen, die die Firma durchgeschüttelt haben und wo viel
versucht und auch viel wurde und viel auch gescheitert ist.
Umbauten, die also auch stark auf Kosten der Mitarbeiter gingen.
Das tat mir wirklich leid um die Mitarbeiter, weil ich viele von denen halt auch kenne oder
so.
Also da war ich, ich war sauer, wie man Mitarbeiter behandelt hat.
Was die Produktpolitik angeht, hat mich nichts gestört oder überrascht oder so.
Ich habe auch Reaktor loslassen können.
Also das war für mich jetzt nicht, also ich könnte jetzt irgendwie meckern über Reaktor
6, aber im Prinzip sind da auch ganze Menge gute Verbesserungen drin, die ich auch sinnvoll
finde.
Und ja, also von daher, jetzt ist so ein bisschen die Frage, was wird aus Reaktor langfristig?
Ja genau, das wollte ich nämlich gerade fragen.
Ich habe so das Gefühl, dass das so ein bisschen das stiefmütterliche Kind jetzt ist bei Native.
Mal abgesehen von ihrer Webseite.
15 Jahre Trauer.
Die haben sie jetzt sogar komplett umgebaut, die ist nicht besser geworden, im Gegenteil.
Nein, die Webseite von Native Instruments, die ist schon sehr, also unübersichtlich
sagen wir mal so.
Es gibt eine Sache, die schlimmer ist für so einen durchschnittlichen Webbrowser, und
das ist das Schneeplaggen auf irgendwelchen Webshops.
Ansonsten Native Instruments all over the world.
Ich glaube halt Produktphilosophie, also ich meine, die hauen ja regelmäßig so Zeug raus,
aber ich habe auch so den Eindruck, da sind so wenige Dinge kohärent.
Zum Beispiel, ich habe gerade heute wieder Massive X in den Fingern gehabt, weil ich
gerade Zeit brauche für dem Next.
Geh mal wieder live.
Und das ist ein total genialer Synthesizer, aber warum zum Arsch haben die das Ding Massive
X genannt?
Die hätten ihn keine Ahnung, irgendwie Ravioli nennen können und der wäre, ja hätte jetzt
nicht Serum gekillt, aber der wäre halt durchmarschiert.
Aber dadurch, dass er halt so in diese halb Nostalgie-Ecke, halb Futurismus-Ecke, dass
er das ganze Ding verreckt.
Und das Problem sehe ich halt bei der Firma gerade an allen Ecken und Enden.
Und ich glaube, dass der Sad State of Native Instruments Thread by Carverway irgendwie
400 Seiten hat, ist halt auch so ein bisschen, hängt halt auch so ein bisschen damit zusammen.
Ja, also da muss man nochmal dazu erwähnen, dass Native Instruments natürlich ein absolutes
Schwergewicht ist.
Eben.
Und du findest, ich glaube, kaum eine Top-10-Produktion, wo man nicht irgendein Native Instruments
Sound hören kann.
Also das ist schon alleine, Kontakt ist quasi der Platzhirsch, was auf dem Software-Sampler
mag.
Es gibt eigentlich nichts anderes.
Die machen ja auch geile Stuff.
Die waren, glaube ich, die ersten, die nach solchen furchtbaren Dingen wie Automap oder
VIP, das hat alles nichts funktioniert.
Und dann kommt Native und kriegt irgendwie den gesamten Markt mit NKS unter die Hütte,
dass das Control-Plugin irgendwie fünf Minuten braucht zum Laden gerade in der aktuellen
Version, ist so ein kleiner Schönheitsfehler.
Aber die haben halt trotzdem noch den Markt gemacht.
Vielleicht kann ich da noch mal ...
Zumindestens ein Battery oder so ist in den aktuellen Produktionen als Drum-Footer überall
zu hören.
Also ich kenne so viele Leute, die Battery verwenden.
Das ist ja auch schön zu sehen.
Das war eigentlich der Mann, der nachher der Kopf hinter Kontakt war, der hat, glaube
ich, mit Battery seinen Einstand gehabt bei uns.
Und Battery war ein relativ schlankes Tool und funktioniert immer noch bestens.
Hat sich irgendwie gut gehalten.
Und Kontakt wurde dann halt so ein sehr ausgefeilter Sampler und hat sich zum Industriestandard
gemacht.
Ausgefeilt ist nicht das Wort, das ich verwendet hätte.
Ich hätte aufgebläht gesagt, aber das kam ja danach.
Ja, Fakt ist, du kommst um Kontakt, du kommst so nicht mehr rum.
Ja, weil da 20 Jahre Community und Entwicklungsarbeit drin stecken.
Aber wenn du halt auf aktuelle gut klingende Libraries setzen willst und was aus den eigenen
Häusern nachgeliefert wird, das ist immer ein ganz hoher Qualitätsmaß.
Es gibt ein paar Sample-Libraries, die hauen mir regelmäßig die Ohren aus meinem Gesicht,
weil ich nicht weiß, was da gerade passiert und wo der Sound herkommt.
Das ist wunderbar.
Das ist eben, was ich auch mit ausgefeilt meine.
Das Ding ist echt mächtig und hat ja auch das ganze Scripting-System noch darunter.
Das heißt, man kann Bedienoberflächen drauf bauen, die aussehen wie neue Instrumente.
Und das hat eben viele Third-Party-Entwickler angesprochen.
Hat funktioniert, hat sich etabliert.
Und ja, man muss sagen, es gibt diese Kontaktschiene oder die Kontaktplattform bei Native und es
gab die Synthesizer-Gruppe und die Kontaktgruppe hat gewonnen.
Es war so in der Zwischenzeit, also das Management hat ja jetzt x-mal gewechselt und der Produktchef
für eine Weile war auch der Mann, der aus der Kontaktecke kam.
Also es gibt ja bei den Synthesizern zwei Plug-ins, die bei mir in wunderbarer Erinnerung
sind.
Das eine ist FM7 und das andere ist Absynth.
Absynth war so geil.
Siehst du?
Absynth war so geil.
Den hab ich auch gehabt.
Ich hab ihn geliebt.
Richtig.
Absynth von Brian Klevinger ist ein hervorragendes Instrument geworden.
Es ist völlig unabhängig von Native entstanden.
Also der war als externer Entwickler immer nur locker mit Native verbandelt.
Das ganze Konzept und Signalverarbeitung stammt von ihm.
Die ganze Musikalität von dem Teil, das ist ihm zu verdanken.
Und Native hat sich dann um ein bisschen Bedienüberflächendesign gekümmert und hat
Sounddesigner angesetzt und hat Handbücher geschrieben und so, was doch so nötig ist,
wenn man Produkte vervollständigt.
Und hat es vor allem in Vermarktung betrieben.
Das war in so einer Phase, wo wir versucht haben, dass man eigentlich mit Reaktor alles
abdecken kann.
Dass man gar keine neuen Produkte braucht.
Dann haben wir aber gemerkt, dass die Leute damit überfordert sind und dass es einfach
zu viel ist.
Viele wollten einen vertrauten Anblick haben, vertraute Bedienelemente.
Deswegen haben wir den Pro5 erstmal als Reaktor geprototypt und ausprobiert.
Das war ein Profit-Clone.
Das wurde dann das erste ernsthafte VST-Plugin, das es überhaupt mal gab am Markt.
Das war dann eine ganz andere Lösung.
Das war nicht mehr der Baukasten, sondern ein kompaktes, in sich geschlossenes Instrument
mit einer sehr begrenzten Bedienoberfläche und einem altbekannten Aussehen.
Das war halt wie ein Profit.
Der Michael Kurz, der den Pro5 da gemacht hatte, der hat dann weitergemacht.
Der hatte einen FM7.
Nee, der kam erstmal in die B4, glaube ich.
Die Orgel.
Da haben wir uns eine Hammond besorgt und der hat die analysiert.
Michael hat richtig viel Signalprozessing und Messtechnik Ahnung.
Der hat daraus eben so einen Orgel-Clone gemacht.
Die ganzen Entwicklungen haben immer im Reaktor stattgefunden.
Bis wir das Gefühl hatten, das klingt gut und funktioniert gut, wurde das übersetzt
als C++-Projekt für Plugins.
Das gleiche war FM7, später FM8.
Der Fall, auch da, das ist noch so ein Michael Kurz-Produkt.
Da haben wir uns halt am DX7 orientiert, aber haben dann gesagt, da stehen zu bleiben.
Die alten 32 Algorithmen da irgendwie wieder abzubilden, das ist eigentlich ein bisschen
zu wenig mit den neuen Möglichkeiten, neuen Bedienoberflächen.
Deswegen gab es dann diese sehr sinnvolle Matrix, in der man jeden Operator mit jedem
anderen irgendwie frei verbinden konnte.
Der FM7.
Ich glaube, ansonsten können wir auch gerne mal, weil wir sind jetzt wunderbar abgeschweift
nochmal ins Reich der nicht mehr skalierbaren Oldschool-Synthesizer.
Auch ich hatte meinen Spaß neulich auf einer Reise, als ich die alle nochmal auf einen
alten Laptop geladen habe.
Aber jetzt gehen wir, wie Thomas schon wollte, ins Jahr 2012.
Stefan Schmidt ist ein freier Elf und macht was.
Genau, 2012 und gerade wo du gesagt hast, Tobi, in sich geschlossene Klassiker, da kommt
Stefan Schmidt 2012 auf die grandiose Idee, sich ein Bier aufzumachen.
Nee, kein Bier.
Wer war das?
Warst du das?
Ich war's.
Ein Energy Drink.
Hey, ein Energy Drink.
Sehr gut.
Jetzt habe ich den Faden verloren.
Mach einfach weiter, Stefan.
Okay, 2012.
Ich hatte zum Schluss einige auf Reaktor basierende Produkte rausgebracht.
Das gab es ja auch.
Reaktor kann eben auch als Plattform benutzt werden für Einzelprodukte, die man nach Einzelner
Produkten wirbt, wo dann Reaktor Player quasi dahinter läuft.
Das gab es zum Beispiel eben vom Eric, den Racer, der sehr erfolgreich lief.
Von mir gab es unter anderem, Moment, jetzt müsst ihr alles rausschneiden.
Alles rausschneiden?
Das ist Content Gold.
Ihr könnt mir alles rausschneiden.
Ich habe manchmal so eine Namensplakate.
Nee, das ist menschlich, das lassen wir drin.
Das ist Content Gold.
Ich habe jedenfalls drei kleine Synthies da rausgebracht.
Zum Beispiel Prism war eins davon.
Als wir Modalsynthese eingeführt hatten in Reaktor, war das ein gutes Demo, wie Modalsynthese
genutzt werden kann.
Die Erfahrung, die ich da so gemacht hatte mit diesen kleinen Reaktor-Instrumenten, hat
mich ein bisschen genervt und gewurmt.
Die Leute haben gesagt, ich habe das installiert und ich benutze das.
Dann habe ich ein, zwei Fragen gestellt und gemerkt, der hat das nicht wirklich benutzt.
Er hat das nur mal offen gehabt.
Das ist auch klar, die Leute haben 200, 300 Plugins auf ihren Rechnern.
Die machen vieles wahrscheinlich nur kurz auf oder benutzen ein paar Presets davon.
Dafür ist mir aber irgendwie das ein bisschen zu schade, was ich da entdeckt habe.
Also die Eitelkeit, die da getroffen ist.
Das war halt so der Moment, wo du gedacht hast, Speichermedien werden immer kleiner,
ich baue jetzt was, wo man was anbauen muss im Haus.
Dann braucht man ein bisschen.
Genau.
Und dann ist es dieses Commitment, wenn man sich ein Stück Hardware hinstellt.
Das ist in mehrerlei Hinsicht ein ganz anderes Commitment, als wenn man sich ein Plugin irgendwo
unterlädt und installiert.
Total.
Das Plugin nimmt nicht dauernd Platz auf dem Bildschirm weg, weil man klickt einfach
auf den "Use"-Button und es ist weg.
Bei einem Hardwaregerät, da stellt man sich hin, dafür gibt man relativ viel Geld aus,
das steht dann da, nimmt Platz weg, steht da und sagt "Spiel mich, spiel mich" oder
"Ich verstaube".
Das ist eine gute Eigenschaft, weil Hardware will ernst genommen werden.
Ich kenne jetzt auch eine Menge Kunden, die haben einfach 20, 30, 50 Synthesizer rumstehen
und nehmen die auch nicht ernst.
Das sind die typischen Sammlertypen.
Was mir vorschwebte, war ein Instrument, das im Vergleich zu einem Fast Food, was man in
der Software-Ecke bekommt, sozusagen Slow Food ist.
Wo man sich ransetzt und stundenlang dranbleibt und monatelang mitarbeitet, jahrelang am besten.
Und das sich auch lohnt.
Das ist natürlich auf der anderen Seite auch unsere Verpflichtung, etwas zu liefern, was
sich auch wirklich lohnt, dass man lange Zeit damit verbringt.
Da hat sich das letzte Konzept, an dem ich da so gearbeitet hatte, das war dieser Phase-22-Synthesizer,
der später noch zur Kontur wurde und dann auch in C15 gelandet ist als Soundengine.
Das hat sich für mich so dargestellt, dass das eigentlich ein ziemlich simples Teil ist.
Es besteht nur aus zwei Oszillatoren und zwei Filtern.
Aber da kann man Ewigkeiten mit verbringen.
Das ist also sounddesign-technisch ein hochinteressantes Feld, auf dem man sich überlegt.
Lass mich da eine Frage dazwischen schieben.
Oder was heißt ja dazwischen schieben?
Lass mich das Gespräch mal in genau diese Richtung lenken, und zwar in Richtung C15.
Der Hamburger Künstler, der Hamburger Musiker Stimming hat über den C15 gesagt, das wäre
das Rhodes des 21. Jahrhunderts.
Peter Kern von Create Digital Music hat geschrieben, dass es ein ultra-expressive-keyboard-instrument
sei und auf beat.de ist über den C15 zu lesen "high-end synthesizer".
Was ist es denn jetzt?
Wir haben ja den Claim "for those who love to play keys".
Es geht schon um das Keyboard-Spielen sehr stark.
Mich interessiert an einem Instrument auch die Spieloberfläche.
Was spiele ich da, was fasse ich da an und wie spielt sich das?
Wenn man oldschoolmäßig unterwegs ist und eher vom Jazz herkommt oder von der Rockmusik,
Expressivität, Ausdrucksmöglichkeiten sind da wichtig.
Und Synthesizer sind nicht unbedingt bekannt dafür, dass man besonders expressiv spielen kann.
Oft ist es klischeehaftes Abrufen bestimmter Soundflächen oder Arpeggien oder Sequencer-getriebenes Zeug.
Was mich gereizt hat, war elektronisches Musikinstrument zu bauen, was für nicht elektronische Musik gedacht ist.
Elektronische Musik hat ja nicht nur die elektronische Klangquelle, sondern vor allem auch diese
Produktionsweise als Merkmal. Elektronische Musik ist eigentlich ohne Sequencer nicht zu denken.
Oder was als elektronische Musik so bezeichnet wird.
Es kommt halt von da. Ich kenne jetzt schon Leute, die den Sequencer nicht versuchen zu ersetzen,
sondern sagen, wir wollen diese Pattern-basierte Musik machen, jetzt live.
Die machen das live relativ gut. Und Mos D. Robert, dieses NE-Projekt, das da über Festivals geschleift wurde,
die haben es nicht ganz so gut hinbekommen. Aber ich verstehe natürlich, was du meinst.
Also raus aus dem Grid, raus aus den Patterns.
Das war für mich musikalisch gesehen nicht unbedingt ein großer Fortschritt.
Aber diese Grid- und Pattern-orientierte Musik fand ich eher...
Wenn man James Brown hört oder sich Videos anschaut, nachher, okay, in vieler Musik sind dann James Brown Loops drin.
Wo der Drummer von James Brown oder so.
Der weltberühmte Amen Break.
Ja, der Amen Break oder so was. Die ganze Sample-Kultur hat das ja.
Und die Loop-Kultur hat sich die Rosinen rausgepickt und da raus versucht, neuen Kuchen zu machen.
Die haben ganze Musikgenres damit begründet.
Der Amen Break ist verantwortlich für Drum'n'Bass, Jungle, Grime und unzählige andere Musikstile oder Musikrichtungen.
Wir sind aber inzwischen am Punkt, wo Leute den Amen Break samplen und in den YouTube-Kommentaren steht,
das stammt aus dem und dem Soundpack.
Ja, das ist das Recycling des Recyclings.
Und jedenfalls, mich haben immer improvisierende Musiker interessiert.
Musiker, die live auftreten, Musiker, die live auch alles live spielen.
Also für jede Note verantwortlich sind, die sie spielen.
Und wo eben auch viel schief gehen kann, die Risiko eingehen.
Und wo aber auch die Spannung da ist.
Für das Publikum auch wirklich was geboten wird.
Ich habe keine Lust, Leuten zuzugucken, die an Knöpfchen drehen oder Schalter drücken.
Also das ist okay auf der Produktionsebene, aber auf der Performance,
ich bin eben total auf 100% live ausgerichtet als Konsument.
Und zu solchen Musikern wollte ich was bauen.
Darum geht es also, dass beim C15 ein Instrument, das, wenn man es gut spielen kann, auch sehr gut klingt.
Wenn man schlecht spielt, klingt es auch schlecht.
Oder wenn man nichts bewegt, bewegt sich nichts.
Und wenn man keine Ideen hat, dann kommt halt nichts raus.
Es gibt keinen Arpeggiator, es gibt keinen Step Sequencer, es gibt nichts, was von alleine anfängt zu spielen.
Es gibt keine eingebaute Musik.
Was aber drin ist, oder was heißt "drin"?
Warum hat Stimming das Rhodes des 21. Jahrhunderts genannt?
Weil du tatsächlich auch quasi den Synthesizer mit einem entsprechenden Software-Editor gekoppelt hast.
Also man kann quasi den Synthesizer auch direkt am iPad oder am Computer editieren.
Das ist der 21. Jahrhundert-Anteil, ja.
Richtig.
Ansonsten beim Rhodes, also vielleicht noch so,
also ich denke Stimming war fasziniert von bestimmten Sound-Aspekten.
Stimming ist auf der Suche nach Sounds.
Stimming ist natürlich ein Producer, der das Ding nicht live spielt.
Der aber eben zu schätzen weiß, was die Sound-Engine so hergibt
und wie man da auch relativ schnell eingreifen kann.
Bei Stimming ist es eine Soundquelle, die er absamplet und weiterverwendet.
Das ist ein anderer Aspekt. Die Verweigerung oder der harte Bruch, den ich da gemacht habe,
mit der Szene, für die ich vorher gearbeitet habe,
die Verweigerung von Midi, okay,
das hat eben damit zu tun, dass ich mich erst mal darauf fokussieren wollte,
ein Instrument, das wirklich spielbar ist,
zu machen für Leute, die spielen können und spielen wollen.
Und damit hat man eben ein ganz starkes Filter.
Wenn kein Midi dran ist, fühlen sich alle abgestoßen, die halt nicht spielen können.
Inzwischen haben wir das nicht mehr so rigoros.
Nachgereicht.
Ja, wir haben es nachgereicht.
Wir haben als zweites irgendwie keine Automatismen.
Es gibt also nichts, was auch die typische Synthesizer-Erwartung ist,
dass da schon was vor sich hin tuckert.
Und wenn man nur eine Taste drückt, dann passiert schon ganz viel.
Das passiert hier nicht.
Es gibt keine LFOs, keine Stepsequencer, nichts,
was irgendwie selber so Strukturen, Patterns oder irgendwas generiert.
Entweder ich habe Pattern im Kopf und kann sie spielen,
oder ich habe halt keine Pattern.
Das dritte ist, wir benutzen kein komplexes, vorgeformtes Material.
Wir benutzen keine Samples.
Wir benutzen nichts, was viel Information enthält.
Die Komplexität der Klänge entsteht erst in der Millisekunde, wo ich sie spiele.
Nicht nur durch Spielen, sondern auch durch die Struktur der Synthengine,
die Feedback-Loops hat und sowas.
Und das vierte ist, ich habe keine Lust auf Vintage und Retro.
Mich interessiert nicht, wie irgendwelche Legenden geklungen haben
oder wie irgendwelche alten Filter und Oszillatoren funktioniert haben.
Die Branche ist voll mit Firmen, die sich nur darauf fokussieren,
die alle alten Schätzchen noch einmal irgendwie neu rausbringen.
Für 2,99 Euro und jetzt Black Friday Sale für 2,79 Euro.
Ich glaube, wir wissen alle, wer gemeint ist.
Kannst du noch mal erklären, was der C15,
okay, das sollte ein richtiges Instrument sein,
wie sieht die Klangerzeugung denn aus?
Du hast erzählt, zwei Filter, zwei Oszillatoren, nur Sinewave?
Oder gibt es noch andere Wellenformen?
Und was hast du denn für Modulationsmöglichkeiten eingebaut in das Instrument?
Erstmal ist es ein voll digitales Instrument.
Da drin läuft im Prinzip auch ein Computerboard
und am Anfang lief da drin auch das Reaktor, ohne dass es von außen sichtbar war.
Das haben wir inzwischen nicht mehr, weil wir da erheblich bessere Performance haben,
wenn wir das nativ implementieren.
Die Soundengine, die da läuft, ist Polyphone, 24-stimmig inzwischen,
vielleicht noch ein paar mehr in Zukunft.
Wir haben in der Struktur zwei Sinus-Oszillatoren im Kern
und einen Kammfilter und einen State-Value-Filter.
Und dahinter noch eine Kette von Effekten,
einen Output-Mixer, wo man die Signale der Oszillatoren und der Filter zusammenführen kann
oder einzeln rausführen kann,
einen Feedback-Mixer, der erlaubt, alles Mögliche aus den Filtern oder auch aus den Effekten
wieder zurückzuführen auf die Oszillatoren oder auf die Filtereingänge,
so dass sie in Selbstoszillation gehören.
Und wesentlich ist, dass die beiden Sinus-Oszillatoren eine Ähnlichkeit haben mit den Yamaha FM-Operatoren.
Das heißt, auf Sinus wird allein schon durch, wenn man in Phase-Modulationen eingänge,
also Phase-Modulation und FM, das ist jetzt synonym,
Yamaha hat FM gesagt, aber es ist eigentlich Phase-Modulation.
Die Phase-Modulationseingänge der Oszillatoren erlauben also Selbstmodulation,
die Modulation durch den jeweils anderen Oszillator,
dann auch eben kreuzweise, A moduliert B, B moduliert A
und dann auch Modulation durch das Feedback-Signal,
das irgendwie von weiter hinten aus dem Signalweg kommen kann.
Selbstmodulation von Sinus führt zu einer Verformung des Sinus bis hin zu einer Art Sägezahn.
Das ist das ganze Spektrum mit der hohen Grad von Selbstmodulation.
Damit hat man also schon ein Spektrum als nur diese eine einzige Linie, die ein Sinus liefern würde.
Die Modulation durch den anderen Oszillator, das Ergebnis hängt sehr stark von dem Verhältnis der Frequenzen ab.
Wenn der eine also irgendwie Vielfaches der Frequenz des anderen hat,
entstehen da andere Muster, sagen wir mal, von Obertönen,
aber noch harmonischer, wenn man nicht in Vielfachen denkt, sondern in irgendwelchen Krummverhältnissen.
Wenn der eine zum Beispiel 1,3 mal die Frequenz vom anderen hat,
dann entstehen alle möglichen nicht-harmonischen Teilfrequenzen.
Das erzeugt dann ein metallisches, teilweise geräuschhaftes Klangbild.
Das ist auch für mich der interessantere Teil.
Das ist eben was bei analogen und virtuell analogen Synthesizers,
höchstens wenn die auch mal Ringmodulation oder FM oder sowas erlauben.
Aber der Standard-Oszillator ist immer ein harmonischer Oszillator,
der irgendwie Rechteck, Sägezahn, Dreieck oder sowas liefert.
Das Gute, wenn man Sinus-Oszillatoren benutzt und die dann mit variabler Modulation,
Modulation wird von den Envelopes auch mitgesteuert,
dann ist es fast so, als würde man einen Filter anwenden.
Wenn die Modulation hoch ist, habe ich einen hellen Klang,
reduziere ich die Modulation, fällt der Envelope zum Beispiel ab,
dann bekomme ich einen weichen Klang, bis runter zum Sinus.
Das ist also, als wenn ein Tiefpassfilter geschlossen wäre oder runtergefahren wird in der Eckfrequenz,
dann bleibt auch nur noch ein Sinus übrig.
Aber hier ist es so, der Sinus ist immer der Ursprung.
Und das merkt man den Klängen auch an.
Die können ganz brillant werden, die können aber auch wieder ganz soft werden,
ohne dass ich da immer dramatische Filterbewegungen machen musste.
Was aus den Oszillatoren kommt, wenn man das auf die Ausgänge bringt,
ohne die Filter überhaupt zu benutzen, dann kriegt man eine Menge perkussive,
E-Piano-artige, Glocken-artige, Zupfinstrument-artige Klänge
oder auch irgendwie schrilles, schräges Material schon raus.
Das könnte man jetzt durch den State Variable Filter,
das ist unser Filter, der eher dem klassischen analogen Multimode-Filter entspricht,
führen. Und da kann man mit Filter, Filterresonanz, wobei wir zwei Cut-offs haben,
also die dann wie zwei Formanten bilden können,
kann man das vielleicht zu wilde, zu helle Spektrum von Oszillatoren im Filter ausdünnen oder begrenzen.
Oder das Filter wie einen Resonator betrachten.
Man sagt ja, der Oszillator macht vielleicht ziemlich geräuschhafte Signale
und das Filter filtert dann quasi auf seiner Resonanz irgendwas raus,
was wie ein Ton klingt.
Aber viel besser als Resonator funktioniert eigentlich der Kamm-Filter.
Das ist eine Delay-basierte Einheit.
Man kennt das, wenn man Flanger hoch auftritt im Feedback,
dann erzeugen die auch einen Ton.
Wenn es noch gelingt, die Modulation auf Null zu stellen,
ist das ein Ton, der nicht mal so auf- und abwärts geht, einfach ein konstanter Ton.
Und wenn man da ein Geräusch reingibt, dann wird diese Resonanz angeregt.
Resonanzen gibt es überall, vieles funktioniert so.
Seiten zum Beispiel, wenn man sie anreißt.
Das Kamm-Filter ist wie der klassische K+Ton-Resonator aufgebaut.
Das heißt, man hat eine Delay-Line, ein Feedback,
was fast bis 1 in sehr feiner Auflösung gesteuert werden kann.
Bei 1 wäre eine Dauerozillation,
darunter sind es vielleicht 10 Sekunden oder 1 Sekunde Decay-Time.
Wir schreiben auch nicht Feedback, sondern Decay.
In dem Loop, der da läuft, haben wir einen Altpass-Filter und einen Tiefpass-Filter.
Das Tiefpass-Filter ist der klassische K+Ton.
Ein Einpol-Tiefpass-Filter würde bei jedem Durchlauf des Loops,
also immer wenn das Signal reflektiert wird und wieder in den Eingang zurückgebracht wird,
wird es ein bisschen gedämpft.
Da es tausende Male durch diesen Delay-Line-Loop geht,
habe ich eine schnell abfallende Frequenz.
Am Anfang ist es noch hell, ich habe einen hellen Impuls reingegeben.
Nach einiger Zeit wird er immer dumpfer und ich höre nur noch diesen Grundton,
der durch die eigene Resonanz des Kamm-Filters gegeben ist.
Das klingt nach einer Gitarren-Saite, der Klassiker bei den K+Ton-Algorithmen.
Das Altpass-Filter hat einen Phasengang, der nicht linear ist über die Frequenz,
macht nichts mit der Amplitude und erzeugt Gruppenlaufzeiten, die nicht konstant sind.
Das bedeutet, dass sich Obertöne verstimmen,
weil die Gruppenlaufzeit für den Oberton eine andere wird als die für den Grundton.
Dann habe ich plötzlich schräge Obertöne und kriege auch wieder metallische Klänge,
die nach Platte, nach Glocke, nach Stab klingen und nicht mehr nach Seite.
Diesen Kamm-Filter-Resonator kann ich mit allem möglichen Material vom Eingang antreiben,
eben kurze Bursts draufgeben, was mit den Oszillatoren möglich ist.
Ich kann die Oszillatoren auch in einem Jitter-Modus betreiben, dann werden die eher zu Rauschquellen.
Wenn ich permanentes Rauschen draufgebe, dann ist es wie angestrichen, angeblasen, wie sich das anhört.
Ich kann aber das Sate-Vibral-Filter noch dahinter schalten,
ich kann vom Sate-Vibral-Filter wieder ein Feedback auf den Eingang vom Kamm-Filter geben,
dann kriege ich angehobene Resonanzen.
Das ist eine wilde Spielwiese und der Feedback-Mixer erlaubt mir,
Signale aus der Struktur herauszupicken und sie wieder irgendwo zurückzuführen.
Das ist so, wo das Ganze auch überraschendes Verhalten entwickelt.
Wenn man dir so zuhört, Stefan, und ich erinnere mich jetzt an den Beginn unseres Gesprächs,
da hast du erzählt, wie du Blockflöte gespielt hast, wie du Spinett gespielt hast.
Hier war das nicht wild genug, weil damit konnte man keinen Funk spielen.
Kann es sein, dass du dir hier damit deinen eigenen Blockflöten-Spinett gebaut hast,
mit Feedback-Möglichkeit, dass man damit auch Funk und Blues und generell einfach Rockiger werden kann?
Du hast hier quasi einen Jugendtraum erschaffen.
Ja, klar. Ich habe immer Gitarristen geliebt. Gitarristen waren meine Helden,
die ich bewundert habe. Auch deren Sound, deren Arbeit mit Feedback usw.
Keyboarder stehen häufig so daneben und dürfen irgendwas auffüllen, klanglich so.
Das ist eher die Rache an den Gitarristen.
Großartig. Das nenne ich mal ein Motivationsgrund.
Die Rache an den alten Bandkollegen.
Der sieht ja gerade in der Holzversion edel und wie ein Wohnzimmermöbel aus.
Ich hatte mal eine Vorführung bei Reinhold Heil.
Da hat er gemerkt, der ist wirklich böser als er aussieht.
Wenn man sich so ein C-15 zulegt, das ist natürlich auch ein entsprechendes Instrument.
Man kriegt tatsächlich, kauft man bei euch dann nicht nur einfach den Synthesizer.
Man kriegt auch ein entsprechendes Rundum-Sorglos-Paket.
Ihr habt tatsächlich auch an die Nachsorge, also an die Zeit danach gedacht,
dass ein Techniker vorbeikommt und da möglicherweise was dran macht.
Allein schon, dass man das Instrument nicht unbedingt kaufen muss.
Man kann es auch mieten bei euch.
Ihr habt da wirklich den Kunden in den Vordergrund gestellt,
was auch heutzutage nicht mehr selbstverständlich ist.
Man wird ja hier doch mehr oder weniger auch teilweise von der Musikindustrie
als Konsumvolk einfach abgeschweißt.
Alpha-Tester hätte ich jetzt gesagt.
Oder als Alpha- oder Beta-Tester.
Alpha, Alpha.
Ihr steckt da so viel Liebe und auch, wie man an deinen Ausführungen jetzt auch noch mal gemerkt hat,
sehr viel Liebe und auch sehr viel Detail.
Auf sehr viele Details achtet ihr.
So Kleinigkeiten, die auch wirklich einem Instrument näher bringen und ans Herz wachsen lassen.
Ja, wir haben uns von vornherein für Direktvertrieb entschieden.
Die Firma hier ist ein Experiment auf vielen Ebenen.
Es ist nicht nur technisch eine spannende Sache,
sondern auch kommerziell, sozial, kulturell.
Ich wollte gerne die typischen Vertriebswege vermeiden,
weil die auch nicht viel leisten für die Instrumente.
Das war jedenfalls mein Eindruck.
Und das lieber selber machen.
Das andere ist, dass das Instrument sowieso schon relativ teuer ist.
Wenn man es über Läden und Vertriebe oder Importe und dann noch über Läden verkauft,
dann wird es bestimmt 40 Prozent teurer sein.
Wir sind jetzt schon bei 4.500, dann wäre es bei 6.000 bis 7.000.
Und dann erreicht man nur noch die ganz reichen Säcke.
Deswegen haben wir uns für Direktvertrieb entschieden,
um für den Kunden möglichst die Kosten zu kappen.
Aber wir haben auch gesagt, wir wollen mit den Kunden in Kontakt sein.
Es gibt einen Grund, das Instrument ist schon erklärungsbedürftig.
Jemand, der von einem anderen Synthesizer kommt, wird hier wahrscheinlich,
wenn er am Cut-Off dreht, wird oft nichts passieren,
weil der Filter vielleicht gar nicht im Signalweg ist.
Das heißt, ich wollte, dass wir den Leuten das auch erklären,
dass wir sie betreuen, wenn sie Fragen haben, dass sie sich an uns wenden können,
wenn sie Sounddesignbedarf haben, dass wir das teilweise zuliefern können.
Wir haben damit auch eine perfekte Übersicht über das, was passiert mit dem Instrument.
Wer setzt es ein, wofür, wer kommt damit klar, wer kommt damit nicht klar.
Da ich ganz viele Schulungen gemacht habe, kann ich immer den Leuten zuschauen,
wie sie scheitern an bestimmten Bedienvorgängen.
Wir konnten die Bedienung optimieren.
Wir konnten auf Requests von den Leuten reagieren
oder sehen, was besonders gut ankommt.
Wir wollten eine der nettesten Firmen der Welt sein.
Erstmal, weil mir junge, weniger betuchte User am Herzen liegen,
weil die oft die musikalisch größeren Talente sind,
gibt es dieses Rent-to-Own-Modell.
Das heißt, das Risiko oder die Einstiegshürde ist sehr gering.
Bei Rent-to-Own kann man auch jederzeit abbrechen und zurückgeben.
Dann haben wir ein Gerät, das wir als refurbished herausbringen können.
Wir haben sogar den Leuten, die den vollen Preis zahlen,
also gleich kaufen, dafür gibt es auch ein Rückkaufangebot.
Der Gedanke dabei war, den Gebrauchtmarkt lieber selber zu bedienen
und dafür zu sorgen, dass nur heile und refurbished Teile unterwegs sind.
Wir haben es sicherlich übertrieben, aber wirtschaftlich betrachtet
war das ein teurer Ansatz, den wir hier erfahren haben.
Für mich selbst hat es auch bedeutet, dass ich sehr viel Zeit
bis in die Nächte oder so in den richtigen Schulungen verbracht habe,
die ich den Leuten gegeben habe.
Aber die Erfahrungen, die wir sammeln konnten,
die wir bekommen haben und die Marktforschung, die man sonst betreiben müsste,
wer hat das eigentlich gekauft, wer kann das wofür gebrauchen,
die ergibt sich automatisch.
Ich habe auch diesen Nachhaltigkeitsgedanken.
Ein Hardware-Instrument soll nicht dauernd neu gekauft werden,
nur weil Konzepte und technische Lösungen besser geworden sind.
Das heißt, in der Oberfläche gibt es Magnetfolien.
Falls wir mal den Parametersatz ändern, was wir einmal schon gemacht haben,
dann schicken wir den Leuten neue Folien.
Falls es mal eine ganz neue Soundengine gibt, schicken wir denen neue Folien.
Und die haben eine neue Beschriftung.
Wir haben also damit einmal gekaufte Hardware mehrfach genutzt.
Das ist ja genial. Ist das so die Idee hinter diesem einen Encoder-Prinzip?
Und wie viel von denen musst du dir schon austauschen?
Wie viel von den Encodern? Gar nicht.
Da ist, glaube ich, kaum einer kaputt gegangen.
Die Oberfläche ist sehr generisch gehalten.
Es sind ja vier Panels, a 24 Tasten, also 96 Tasten,
die von Magnetfolien beschriftet sind.
Und im mittleren Feld sind feste Beschriftungen,
weil das sind so Grundfunktionen, was weiß ich,
Decrement, Increment, Enter, Edit, Store und so was.
Wenn ich ein Instrument haben will, was offen sein soll,
für die Zukunft, für Dinge, die mir heute noch gar nicht eingefallen sind,
dann kann ich da nicht einen festen Satz von POTYs verbauen.
POTYs sind sowieso Quatsch, aber, sagen wir mal, Inkrementalgeber,
die dann in besonderen Positionen, hier ist der Filter,
hier sind die vier Stück für den ADSR oder so was,
wenn ich nachher dann mehr ADSRs habe, ja, passt nicht mehr,
dann muss ich alles ins Menü packen, wie beim Virus,
und dann lieber von vornherein generisch halten,
eine ganz flache Oberfläche quasi, aber trotzdem haptisch.
Wir haben sehr gute Taster, wir haben so eine Gruppierung,
die man auch quasi blind so tasten kann.
Man hat irgendwann eine Diskussion um Körpergerechtnis,
oder Muskelgerechtnis, wo man weiß, wo man hingreifen muss.
Die Fläche ist ziemlich groß, ähnlich wie bei einem Mischpult oder so,
man greift nach links oben, hat dann den Envelope A,
und rechts oben ist der Flanger.
Und man kann diese Oberfläche kritisieren,
und wir waren auch am Anfang ein bisschen skeptisch,
weil es immer einen Schritt bedeutet, Parameter auswählen,
dann Parameter bedienen.
Das ist eben nicht dieser direkte Zugriff auf ein Bedienelement pro Parameter,
sondern es ist eben noch dieser Zwischenschritt mit der Auswahl,
aber man kann verdammt schnell damit arbeiten.
Ihr habt ja auch noch zwei Ribbon-Controller an dem Instrument dran,
und ihr habt ja auch noch die Möglichkeit geschaffen,
dass man einfach Pedale anschließen kann.
Da hat man natürlich noch mehr Direkteingriffsmöglichkeiten,
die auch vielleicht intuitiver zu bedienen sind,
als wenn man erst unter 25 Reglern den Cut-Off finden muss.
Genau, wenn man jetzt live beim Spiel eingreifen will in den Sound,
dann muss man dafür dedizierte Elemente haben, die so funktionieren.
Und das kann auch jedes Mal bei jedem Preset auch was anderes sein.
Wir haben Makro-Controls, die das ein bisschen abstrahieren,
wo man sagt, mit dem Makro-Control A bestimme ich den Geräuschanteil in dem Klang
und mit dem Makro-Control B die Helligkeit.
Die wirken dann auf beliebig viele Zielparameter.
Und die Makro-Controls können von den Hardware-Sources,
also von den physikalischen Elementen,
beliebig über eine Matrix zugeordnet werden.
Dann kann ich einen Makro-Control auf dem oberen Rippen,
einen auf dem unteren Rippen und gleichzeitig vielleicht auch noch
auf dem linken Pedal und auf dem rechten Pedal haben.
Wir liefern das meistens mit drei Pedalen.
Das können Leute sich noch dazu besorgen.
Die Pedale sind mit dabei?
Naja, sagen wir mal so, die stehen schon getrennt auf der Rechnung,
aber wir überzeugen fast jeden Kunden davon.
Aber ihr liefert das dann mit Pedalen aus und der kennt das dann?
Das ist natürlich sehr wichtig.
Ich wollte noch einen Aspekt herausgreifen,
weswegen Stimming gesagt hat, das wäre das Roads des 21. Jahrhunderts.
Und zwar ist das die, ich lese es einfach mal auf Englisch vor von eurer Website,
das ist die Continuous Digital Audio Capture-Funktion.
Das heißt, die Ausgabe, das was man spielt,
wird permanent aufgezeichnet.
Ich weiß jetzt nicht, ach so, 80 Minuten.
In einem 80 Minuten langen Puffer und dann kann man sich jederzeit
das über WLAN von dem Instrument einmal holen und in seine DAW importieren.
Wie geil ist das denn?
Warum hat das nicht jeder Synthesizer?
Genau, also mitschneiden.
Ja, irgendwann, also wir haben da drin, da läuft ein Linux-Rechner.
Das habe ich mir schon gedacht gehabt.
Das ist der der Dateien, die ihr liefert auf eurer Seite.
Da hätte ich mich auch noch ein paar Fragen zu gehabt.
Und der hat ein paar Gigabyte RAM.
Und davon können wir ruhig 500 Megabyte abzweigen.
Wenn man jetzt mit Flak-Kompressionen arbeitet,
dauert es lange, bis man 500 Megabyte voll hat.
Weil die Leute die meiste Zeit nicht spielen, und dann spielen sie wieder ein bisschen.
Das heißt, die 80 Minuten wären die Zeit, die man hätte,
wenn man die ganze Zeit durchspielen würde.
Und da dann eben auch absolute Stille herrscht am Ausgang eines Synthesizers,
wenn ich nicht spiele, dann erzeugt das mir eben kaum Memory Verbrauch.
Und ein Kollege hat das mal irgendwann,
also wir haben da solche Möglichkeiten diskutiert,
aber er hat das dann irgendwann mal implementiert und meinte,
geht eigentlich ziemlich gut und einfach und dann braucht man halt noch eine User Interface dafür.
Und das User Interface ist ja sowieso, wir haben eine zweite Ebene,
das haben wir noch nicht erwähnt, mit dem über WiFi angekoppelten Device.
Das kann vom Telefon bis zum Computer alles sein, was WiFi und Browser hat.
Genau, ihr habt einen Web-Server, der auf dem Instrument läuft,
und den man dann einfach benutzen kann, um den zu programmieren.
Ja, wir haben, also das war auch, diese zweite Bedienungsfläche ist quasi gleichwertig
mit dem, was man auf der Hardware bedienen kann, und noch ein bisschen mehr.
Und man könnte auch, weil das Gerät besteht ja auch aus zwei Teilen,
wir haben so eine Basiseinheit und die Panel Unit,
die Panel Unit könnte man auch zu Hause lassen,
weil die ganze Rechentechnik ist in der Basis drin.
Und da ist eben dieser WiFi Access Point auch,
und ich kann eben irgendeinen Browser öffnen,
und wenn ich mit dem Netzwerk verbunden bin vom C15,
die entsprechende Adresse eingebe, dann sehe ich eine Webseite.
Und die Hauptseite enthält alle Parameter in so einem grafischen User Interface,
und sie enthält alle Presets, die kann ich da hinschmeißen, wo ich will,
und hin und her schieben, also Presetbänke.
Und das kann dann auch ziemlich groß und unübersichtlich werden,
das ist vielleicht nicht die beste Lösung geworden,
aber ich habe also Zugriff auf alles mit der Maus oder auf einem Touch-Device,
wir haben es so touchgerecht auch ausgelegt,
und kann Parameter ändern, kann Presets aufrufen,
ich kann vor allen Dingen, was wichtig ist in der Arbeit,
wenn man ernsthaft arbeitet, dass man sich Presets zusammenstellen kann,
nicht immer einfach mit Drag und Drop, ich ziehe mir das Preset in die Bank,
also ich mache einfach eine neue Bank auf, ziehe mir die Presets rein,
kann die irgendwie mit Farbmarkierungen versehen und so weiter,
habe also dann eine ziemlich gute Umgebung,
in der ich viel Komfort habe, schon in der Presetverwaltung.
Gibt es eine Morph-Funktion, dass man zwischen zwei Presets überblenden kann?
Ich habe das ganz früh in die Ankündigung geschrieben,
wir haben es immer noch nicht hundertprozentig implementiert,
wir können nur so einen Zeitmorph machen,
wie wenn man ein Licht anladen könnte,
das heißt von einem Preset zum nächsten können wir mit einem festgelegten Zeitübergang,
z.B. 5 Sekunden oder so, das geht, das zeigt also was Morphing so kann,
aber wir haben kein Bedienelement, mit dem ich die Morph-Position eingeben kann,
ich kann nur Morphen mit dem Pedal.
Aber das Thema Morphing hat einen ziemlichen Einfluss auf das Design der Audioengine,
es gibt nämlich keine Schalter,
ich kann ja nur Morphen, wenn ich Parameter habe, die alle kontinuierlich sind,
kann ich auch Morphen.
Stimmt.
Ich schalte also nicht zwischen Wellenformen um,
es gibt keine verschiedenen Wellenformen,
ich schalte nicht zwischen Filtertypen um, es gibt nur einen Filter.
Bei Effekten, es gibt nur diesen Flanger,
wenn ich den entsprechend parametrisiere, wird er zum Chorus oder zum Phaser usw.
Alles ist nur kontinuierlich, nur über Crossfades und Mixamounts und Modulationsamounts und so zu bestimmen.
Deswegen kann ich auch, wenn ich jetzt am Pedal,
sagen wir mal, ich habe das Pedal oder über Makrokontrollen mit 20 Zielen verbunden,
die ich irgendwie beeinflusse, dann komme ich auch zum Morph-artigen...
Das ist dann auch schon quasi Morphing, würde ich sagen.
Genau, ja.
Und in der grafischen Oberfläche noch ganz kurz wegen dem Recorder, den wir vorhin hatten.
Also da kann man auch ein zweites Fenster, man kann eigentlich beliebig viele Tabs aufmachen,
die dann irgendwie alle verschiedene Aspekte irgendwie vom...
Also da hilft uns die Browser-Technik, weil die ja sowieso Tabs bieten.
Und in einem Tab kann ich also diesen Recorder laufen lassen,
dann kriege ich so eine Art Wellenform-Anzeige für die Geschichte.
Was ich heute schon so alles gespielt habe, kann ich beliebig zurückgeben, mir das anhören,
kann dann markieren, in einem bestimmten Bereich, weiß ich, ein paar Sekunden oder Minuten,
und die dann downloaden als Plug-File oder als Wave-File.
Und dann, wenn ich dann am selben Rechner bin, wo meine DAW leuchtet,
brauche ich also nur noch Drag & Drop, wenn die DAW machen.
Vorteil ist, erstmal, ich verliere nichts, also frühere Ideen und geniale Momente sind irgendwo alle erhalten,
auch ohne, dass ich... Ich brauche keine Soundkarte anschließen und irgendwo auf "Record" drücken oder so.
Das Ding nimmt einfach in dem Moment, wo ich es einschalte, nimmt an, aufzunehmen.
Aus Privacy kann man es auch abschalten.
Und das andere ist, ich habe auch eine Aufnahme in denkbar bester Qualität.
Das ist vor unseren Wandlern, also noch in der digitalen Domäne aufgenommen.
Es geht nicht nochmal über Kabel in ein weiteres Audio-Interface.
Das war übrigens, by the way, der Auslöser, muss ich sagen.
Ein guter Kunde und Sounddesigner, Aro Vane,
als wir MIDI hatten, meinte ich, willst du eine Beta- oder eine Vorversion haben mit MIDI?
Nee, MIDI interessiert mich nicht.
Okay, ihn würde digital Ausgang interessieren.
Ich sagte, geht nicht, ist eine Hardware-Änderung.
Dann habe ich weitergedacht und dachte, ja, digital Ausgang, in dem Sinne, geht schon,
wenn wir einfach intern digital aufnehmen.
Dann ist es komplett verlustfrei.
Man hat sowohl diese Notizbuchfunktion, das alles irgendwo, was man irgendwann mal improvisiert hat, erhalten bleibt,
als auch diese High-End-Aufnahmefähigkeit.
Der Recorder hat noch ein weiteres ziemlich frappierendes Feature,
nämlich wir haben ein Undo-System, weil wir mit einem richtigen Computer arbeiten
und mit richtig gutem Programmierer arbeiten.
Der Henry, unser Chef-Programmierer, der hat ein unendliches Undo mit beliebiger Verzweigung.
Alles, was ich jemals gemacht habe, befindet sich in irgendwelchen Ando-Zweigen.
Ich kann zurückgehen an die bliebige Stelle meiner Arbeit.
Das heißt, er hat so eine kleine Versionierung, so ein kleines Git für die Soundprogrammierung eingebaut?
Für alle Operationen, die man ausführt am Gerät und das eben auch jede Parameteränderung.
Das ist ja auch oft so, dass man beim Sounddesign,
schraubt man und schraubt man, und das wird besser, dann schraubt man weiter und das wird wieder schlechter.
Ich sag mal, Roland Synthesizer sind da ein schlechtes Beispiel,
wie man es nicht machen sollte mit der Presetspeicherung.
Was meinst du da jetzt gerade?
Es gibt von Roland einen neuen Synthesizer, den SH4D.
Da muss man das Pattern speichern, man muss den Sound speichern, man muss die Sequenz speichern,
man muss die Drums extra speichern.
Alles einzelne Schritte, die man durchführen muss.
Und dann kann es dir passieren, dass du einen Regler aus Versehen drehst und es ist alles weg.
Das ist mir schon bei vielen Geräten passiert.
Und deswegen, wenn du sagst, ihr habt da so ein unendliches Ando implementiert,
das ist natürlich schon ziemlich geil.
Wir können zurückgehen, vor 20 Minuten war das schon richtig geil.
Also irgendjemand, der neben mir rückwärts...
Das ist auch noch zeitbasiert?
Ja, genau.
Erst hatten wir dieses unendliche Ando, und dann hatten wir den Recorder.
Dann haben wir das beide miteinander kombiniert.
Das heißt, du kannst auf der Recorder Timeline an eine beliebige Stelle springen und sagen,
jetzt rufe ich das auf, was zu diesem Zeitpunkt auch die Einstellungen waren.
Wahnsinn.
Das heißt, ich habe jetzt nicht nur die musikalische Idee, zumindest als Audio-File, festgehalten,
sondern ich weiß auch noch, mit welchem Sound das war.
Wir haben auch so Marken, immer wenn ich ein Preset aufrufe, wird da eine Marke gesetzt,
sodass ich schon mal sehe, okay, das war anscheinend das Preset.
Aber wenn ich an dem Preset noch rumgeschraubt habe,
dann werden diese Änderungen halt auch vom Ando-System erfasst, mit Zeitstempel erfasst,
und ich kann dann diese Stelle wieder zurückfahren.
Deswegen das Rhodes des 21. Jahrhunderts.
[Lachen]
Naja.
Ich könnte dir noch stundenlang zuhören, aber ich glaube, wir haben schon über eine Stunde mittlerweile.
Eine Stunde und 47 Minuten.
[Lachen]
Ich habe noch so viele Fragen.
Hau raus, sonst hätte ich noch zwei Fragen zum Abschluss.
[Lachen]
Wenn man sich bei euch auf der Seite umschaut,
dann steht da ja auch was von zukünftigen Engines, die hinzugefügt werden.
Da ist so der kleine Techniker in mir, der sich dann fragt,
okay, irgendwann mal ist ja die Leistungsfähigkeit von so einem Rechner ausgeschöpft.
Was habt ihr da für einen Rechner drin?
Das ist ein NUC-Board, also NUC sind diese New Unit of Computing von Intel,
was jetzt vor kurzem abgekündigt wurde, aber von Asus weitergeführt wird.
Ja, Intel steckt tief in Problemen gerade.
Das sind so 10x10 cm große Mainboards mit Notebook-Technik drauf.
Das sind also Core i3-Prozessoren in unserem Fall, die wir da einsetzen.
Da haben wir am Anfang die 5. Generation verwendet,
inzwischen gibt es die 12./13. Generation.
13 bis i9, oder gibt es das?
Ja, es gibt da immer kleinere CPUs.
Wegen der Wärmeentwicklung?
Ja, nicht alles so vollblond.
Die reichen auch aus, also eine 2-Kern-CPU reicht völlig aus.
Die Leistung ist schon beträchtlich.
Wir verbauen jetzt gerade so NUCs aus der 7. Generation.
Wir haben eine Menge Luft, also wir verbrauchen gerade erst mal 20% von der zur Verfügung stehenden CPU-Leistung.
Wow, das ist aber effektiv programmiert.
Hoffentlich, ja.
Vergleiche es mal mit anderen Entwicklerfirmen, die jetzt spontan auf den Gedanken kommen,
wir könnten eigentlich noch eine Synthese-Engine auf einem Chip schreiben.
Ups, scheiße, es hat keinen mehr frei.
Und du sagst da so etwas von 20%.
Und das in einer Firma, die ja im Grunde genommen, weil sie so extrem kundenorientiert ist,
dass du einfach auch ins Auto steigen kannst und einfach alle bestehenden C15s in neue Prozessoren reinstecken könntest.
Ja, es wird wahrscheinlich eines Tages auch mal so sein, dass wir zum Beispiel die Stimmzahl und die Sample-Rate auch mal hochsetzen wollen.
Das wird aber nicht bei allen Boards im gleichen Maße möglich sein.
Wir werden also Boards haben, die ein bisschen langsamer sind, wie bei früher, und welche, die schneller sind.
Aber wie gesagt, auf allen haben wir genug Luft, um da noch die Stimmzahl zu verdoppeln.
Von daher ist das noch relativ locker.
Und wenn wir jetzt über neue Synthese-Engines sprechen, dann bin ich da auch so puristisch.
Das hat auch mit den Magnetfolien zu tun.
Aber ich sage, du musst dich schon entscheiden.
Du kannst entweder die Synth-Engine A betreiben, dann legst du diese Magnetfolien drauf,
oder du kannst die Synth-Engine B betreiben, dann legst du andere Magnetfolien drauf.
Und wir sind jetzt nicht so eine multitemporale Workstation.
Diese Workstation-Haftigkeit ist sowieso immer so etwas, was viele Leute auch abschrecken würde.
Workstations haben einfach ein schlechtes Image.
Die funktionieren in der Praxis natürlich sehr gut, deswegen haben wir auch ganz viele Profis, die so ein Kronos oder so auf der Bühne stehen.
Es sind halt Kompromiss-Instrumente. Das ist halt das Problem, oder?
Wie ich auf der Seite war, mit den Produktfotos angeschaut habe, egal ob das jetzt von der Bedienoberfläche waren oder so Gesamtfotos,
habe ich mir einfach nur gedacht gehabt, das Ding ist hübsch. Wirklich hübsch.
Und da würde mich das auch gar nicht stören, dass ich da jetzt nicht irgendwie gleichzeitig zwei verschiedene Syntheseformen verwenden kann,
weil hätte ich ein Klavier zu Hause stehen, habe ich nur ein Klavier da stehen, was nur Klavier kann.
Und wenn ich dann auch die Möglichkeit hätte, aber sage ich mal, ich mache jetzt mal dann so eine virtuell analoge Sache,
oder in den nächsten Schritt gehe ich in Schalte um und habe dann irgendwie was Digitales an Synthese,
das fände ich jetzt persönlich jetzt ziemlich cool.
Ich meine, ich kann das ja beim Klavier nicht machen, Klavier ist Klavier.
Aber bei so einem elektronischen Instrument ist das schon eine geile Option.
Und die Möglichkeit, die ich geschaffen habe, das Instrument zu bedienen, das ist ausgefuchst,
weil ich habe eine Möglichkeit gefunden, verschiedene Parameter auf ein und derselben Oberfläche bedienbar zu machen,
mit möglichst wenig Bedienelementen. Das lernt man schnell.
Du sagtest was vorhin von Muskelgedächtnis, ich denke mir so, du hältst mit der einen Hand den Drehknopf
und mit der anderen Hand suchst du die Stellen aus, mit welchen Parametern du jetzt editieren willst.
In einer Woche habe ich so etwas von Intus, dass ich das schon fast im Dunkeln machen kann.
Und das ist genial.
Ja, gerade heute haben wir mich hier umgespuckt und gesagt, wer von uns kann das Ding jetzt ohne Folien bedienen?
[Lachen]
Eigentlich alle, die ein bisschen mehr damit zu tun haben können, das glaube ich.
Zwei Fragen habe ich noch. Oder Tobi, hast du noch eine?
Ne, und wenn, dann glaube ich, ist es jetzt ein guter Moment, um abzurunden.
Man kann ja dann in fernen Zukunften über die nächste Auflagefolie sprechen oder so.
Oder weiter rumnörten. Also wir könnten hier alle noch bis zwölf sitzen, aber ich glaube, es ist doch schön, so eine Klammer zu setzen.
Ich wollte noch mal nachfragen, Stefan. Diese Weigerung, keine LFOs einzubauen, also der Spieler ist der LFO.
Werdet ihr das vielleicht doch nochmal überdenken?
Wir haben jetzt schon mit den...
Ich frage, also warte, lass mich kurz mit dem Hintergrund meiner Frage nochmal einbringen.
Also ein LFO ist ein Low Frequency Oszillator, ist aber eigentlich ein Oszillator.
Und man könnte so ein LFO vielleicht ja so designen, dass er...
Ich gucke da so gerade so ein bisschen in die Entwicklung der letzten, ich sag mal, der letzten zehn Jahre, was da so im Eurorack-Modularbereich sich so entwickelt hat.
So ein LFO kann natürlich schon sehr viele auch andere Möglichkeiten bieten.
Und es gibt auch Hüllkurven, die plötzlich zu LFOs werden oder zu Oszillatoren, wenn ich jetzt hier zum Beispiel an die, an Buckler und Serge angelehnten Funktionsgeneratoren denke.
Wäre das für euch vielleicht etwas, wo ihr sagt, so ein Dual-Universal-Slope-Generator, das wäre doch mal genau das Richtige, was wir in unseren C15 auch haben wollen.
Oder wäre das eher schon etwas, wo ihr sagen würdet, hey, da machen wir eine komplett neue Synthese-Engine für?
Ne, wir haben da ja auch eine Erweiterung jetzt mit dem Spring 23-Update gemacht, nämlich Envelope C hat einen Loop-Parameter bekommen.
Ah, okay, das ist mir ganz in Gang.
Envelope C, also wir haben übrigens fest verbundene Envelopes, also du kannst jetzt nicht irgendwo alles überall hinmappen, weil das wieder so ein Parameter-Boost ergeben würde.
Aber genau, ich gucke immer noch Möglichkeiten, wie man die Sound-Engine vielleicht noch ein bisschen mächtiger macht und natürlich auch den Wünschen entgegenkommt, ohne dass es so ein Feature-Creeping gibt.
Also, dass man noch was dran klatscht und noch eine Einheit irgendwo verstecken muss.
Und dann ist es so, der Envelope C, also unsere Envelopes haben ja immer zwei Decay-Phasen, also es gibt einen Breakpoint-Level und einen Sustain-Level.
Mit der ersten Decay-Phase fährt man zum Breakpoint, der zweiten zum Sustain-Level.
Und das ist jetzt so implementiert, wenn man diesen Loop-Parameter aufdreht, da ist man ein bisschen so haarscharf am Schalter vorbei.
Dann wird diese Periode von Decay 1 und Decay 2 wiederholt.
Die Zahl der Wiederholungen oder wie schnell das abklingt, das ist quasi der Parameter da.
Dadurch ist also ein loopbarer Envelope entstanden und kann auf den Kammfilter, auf die Pitches, auf das Feedback-Signal gemappt werden.
Das ist natürlich schon eine Erweiterung.
Ich muss aber dazu sagen, wir hatten auch vorher im Prinzip LFOs, weil die Oszillatoren runter bis 0 Hz gehen.
Du kannst also immer eine der Oszillatoren runter stimmen bis auf 0 Hz.
Und es gibt durchaus auch Presets, bei denen dann so was passiert, was eben, sagen wir mal, evolving oder betriebsmoduliert ist.
Der klassische LFO ist ja oft monophon. Eine Quelle moduliert alle Stimmen gleichzeitig.
Das ist nicht so, wenn ich den Oszillator als LFO missbrauche oder wenn ich jetzt den Envelope als LFO laufen habe, dann sind das 24 LFOs.
Die können auch alle verschieden schnell laufen und sind dann auch alle mit der Taste synchronisiert.
Das heißt, dieses klassische LFO-Ding, das da ganz plump immer gleichzeitig alles auf und zu geht, geht gar nicht so einfach zu realisieren.
Und häufig haben wir ein Key-Tracking drauf. Das heißt, beim Oszillator lässt sich auch das Key-Tracking einstellen.
Wenn ich da so ein bisschen Key-Tracking habe, wie 10% oder so, dann habe ich oben ein schnelleres Vibrator als unten.
Ich habe auf jeder Stimme, die gespielt wird, ein anderes Vibrator drauf und das ist auch so, wie es in Orchestern oder Ensembles so passiert.
Das ist das Ähnliche beim Envelope. Der ist jetzt noch Velocity-abhängig. Ich habe viele Einflüsse.
Der ist Key-Tracking-abhängig. Das heißt, da bewegt sich jetzt was, das in vielseitiger Form auch explosiv beeinflusst wird.
Also von daher sind wir auch da ein Stück von der reinen Lehre abgeliehen inzwischen. Wie beim MIDI.
Evolutionär.
Ja, genau.
Ja, aber ein MIDI ist auch irgendwo wichtig.
Aber wenn du die letzten 80 Minuten deines Spiels einfach von der Festplatte putzen kannst, um deine DAW per Wifi übertragen, wozu brauche ich da noch MIDI?
Ja, ich bin nicht in der Clock, ich bin nicht tight. Ich bin ein Mensch und da habe ich halt diesen Human-Factor-Swing drin.
Und mit MIDI habe ich das tight auf die Millisekunde genau.
Manchmal will man das aber gar nicht.
Nein, dann schalte ich die Humanisierung wieder ein. Dann ist er wieder raus.
Die Humanisierung schaltest du ein?
Ja, also die algorithmisch gesteuerte Humanisierung. In der Quantisierung. Oh Gott.
Es gibt diesen wunderschönen Podcast von Element of Crime. Sie gehen durch Ihre ganze Geschichte chronologisch an Ihren Alben.
Narzissen und Kakteen heißt der. Wenn ihr mal 10 Stunden übrig habt, oder 15, hört dieses Ding chronologisch durch.
Ja, vielleicht sind es 20. Keine Ahnung. Die labern sich da einen ab. Das war halt so ein Corona-Langzeitprojekt.
Die Leute ziehen sich 14 Stunden Hörbücher rein während der Autofahrt. Also geht schon, ne?
Ja, ja. Es gibt diese Stelle. Ich glaube, es ist irgendwo so in der Mittelfase oder mit Pyrolator und so, wo sie für irgendein Stück halt einen Arpeggiator dabei hatten.
Element of Crime, das ist ja wirklich handgemachte Musik ohne Ende.
Da gibt es diesen Moment, wo sie halt einen Loop hatten für irgendwas.
Ich glaube, Schiffsgeräusche zusammengeschmissen oder so. Irgendwas Elektronisches.
Da hat er gesagt, das ist im Moment okay. "Nee, das ist schon zu maschinell."
Und dann Pyrolator so, okay, gut, machen wir einen Humanizer rein. "Ja, nee, jetzt fällt's auseinander."
Und dann so dieses unisono-Synthasium, so 20 Millisekunden hin oder her. Wo leben wir denn?
An das hat es mich jetzt gerade wenig erinnert.
Ja, klar. Also ich glaube, rausrennen ist ja das eine. Ich glaube, Sascha will eher die Sachen in den Synthesizer reinrennen aus der DAB.
Ich will die Daten reinschicken, dass mir das Gerät tolle Klänge macht, die ich dann zurückbekomme und dann in meiner DAB mit diesen wunderbaren Möglichkeiten noch weiter veredle.
Dann kannst du das dann ja auch zerschneiden und auf quasi der Timeline hin und her choppen.
Dazu braucht man kein Gerät mit der Tastatur dran, ne? Also das kann man auch mit einem Plugin machen.
Ja, aber ich hab einen Haufen Plugins. Die sind alle toll. Aber wenn ich mich irgendwo hinsetzen will, dann nehm ich hier, ihr könnt mich schlagen, ihr könnt mich auslachen, Yamaha DJX2.
Nee, warum? Ist doch ein tolles Gerät.
Das Ding ist von der Bedienung her ganz simpel. Die Qualität ist Spielzeug. Aber da pack ich ein paar Batterien rein, setze mich irgendwo im Schneidersitz hin und klimpere darauf rum und habe Klavier, Trompeten und die ganzen Karten.
Ein paar Synthesizer-Sounds und kann da Ideen entwickeln. Und das ist nämlich der Punkt bei so einem Gerät.
Ich schalte es ein und ich nehme es mit irgendwo hin oder ich hab es zu Hause stehen, aber ich muss nicht den Computer hochfahren.
Dann hab ich, oh Gott, es gibt einen Treiber-Update. Das Betriebssystem ist ein Update. Bitte fahren Sie den Rechner runter.
Wir kennen alle diese Krämpfe.
Jaja.
Und dann bist du stellenweise mehr Computertechniker oder Edi Fauler als alles andere. Und du willst nur diese dämliche Melodie, die du gerade im Kopf hast, irgendwo zubringen.
Okay. Und wo ist der Bogen zur Midi-Clock?
Ich bin jemand, der halt in der DAW arbeitet.
Du willst das einfach zu deiner DAW synchronisieren. Okay, dann sag das doch.
Ja, aber ich will auch hingehen, die Noten, die ich dann halt in der DAW habe, in das Gerät reinkriegen und dann halt schön rauskommen.
Das wäre doch eine schöne Frage, Stefan. Wenn du selber spielst und du bist selber der Arpeggiator, brauchst du keine Midi-Clock.
Und wenn du Midi reinschicken kannst, dann schickst du ja auch eine Midi-Clock. Und du hast ja die Möglichkeit, über USB Midi reinzuschicken.
Das wollte ich synchronisieren.
Das wollte ich gerade sagen.
Also, was kommt als Anfrage, ist dann das Echo zu synchronisieren, dass das Echo eben beatsynchron ist.
Und da frage ich immer, was ist mit dem Stereo-Parameter, mit links und rechts, naja, gut, kann man eine Lösung finden.
Man könnte den Flanger LFO synchronisieren vielleicht.
Könntest du auch den LFO synchronisieren, den es nicht gibt, beziehungsweise den Envelope C?
In einem musikalischen Kontext wäre es ja wichtig, dass alle Sachen, die rhythmisch sind, synchronisierbar sind.
Wir haben gerade 80 Minuten davon, das Rhythmik, bitte schön, händisch.
Du kennst die Standard-Techniker-Antwort, es kommt drauf an.
Dann könnte ich ja auch noch einen Tap-Knopf drauf machen und dann sagen, hier soll ich tappen.
Und dann, immer wenn ich tappe, kommt dann halt der Hall oder das Echo.
Ihr habt doch bestimmt in der Synthese-Engine die Möglichkeit zu sagen,
das Klock-Signal für die geloopten Höhlkurven ist jetzt, keine Ahnung, 90 BPM, oder?
Ne, das müsste man noch ganz schön reinwirken.
Also, jeder Höhlkurve läuft für sich nach ihrem eigenen Gesetz, nach ihren eigenen Bildungsstellen.
Und die Effekte, Delay, ich glaube, das macht gerade ein Teil des Homes aus.
Also, da ist, ja, ein Delay, da brauche ich nur einen Buffer.
Klar, da kann ich jetzt sagen, die Zeiten, mit denen ich da so einen Delay,
die kann ich irgendwie quantisieren.
Ich kann irgendwie einen reinkommenden Klock analysieren oder eine Beat-Angabe, die über den Midi kommt,
und kann dann die Echo-Times darauf quantisieren.
Also, die Delay-Zeit ist bei euch in Millisekunden dann?
Ja, ja.
So, Elektron-Style?
Der ist doch bei vielen Geräten, also bei vielen Hardware-Geräten.
Ja, das stimmt.
Wir wissen gar nicht...
Ja, ja, genau.
Also, ich kenn das alles aus Native-Zeiten und man hat ganz viel Zeit damit verbracht,
dass alles mit allem synchronisiert werden soll und alle möglichen Schnittstellen bedient werden sollen
und auch noch das Verhalten der DAW beim Restart mitten im Loop und was weiß ich so,
abgebildet werden muss, also das dann alles mitslaved.
Und ja, ich bin heilfroh, dass ich meine Zeit nicht damit verschwenden muss,
irgendwelche Synchronisationsprobleme zu lösen.
Was aus...
Ja.
Nee, nee, du machst fertig, ich mach die Überleitung nachher.
Weil du denkst...
Dann machen wir jetzt die Überleitung zu meiner letzten Frage.
Ja, das war nämlich die Überleitung, die ich vorhatte.
Dann kommen wir dann nämlich auch schon zum Schluss von dieser...
Eine Frage, die ich jedem unserer Gäste stelle, ist...
Wegen der Zeitverschwendung, deswegen war die Überleitung nicht da.
Wegen der Synchronisation.
Stefan, was machst du, wenn du nicht gerade an Features, an neuen Features für den C15
oder an irgendwelchen Bauteilbeschaffungs-Arien teilnehmen musst
oder an sonstigen Kundenproblemen dich beschäftigst?
Was machst du in deiner Freizeit? Womit entspannt sich Stefan Schmidt?
Ja, ich bin gerne draußen unterwegs mit dem Rad.
Ich bin gerne im Grünen.
Wir haben hier in Berlin viele Parks, Seen, Wälder und sowas.
Das wäre jetzt die Zeit, wo ich ganz vom Thema frei bin.
Aber am wichtigsten ist mir eigentlich, meine Zeit zu verwenden, um ein besserer Musiker zu werden.
Da sitze ich ja zu Hause am Digital-Piano zum Beispiel.
Ich habe auch einen Klavierlehrer mal wieder eine Zeit lang gehabt.
Ich gucke mir alle möglichen YouTube-Videos an.
Ich lese irgendwelche Jazz-Harmonie-Bücher und so weiter.
Das ist für mich auch das Spannendste und das ist auch für mich sozusagen noch so eine Torschluss-Panik in gewisser Weise.
Ich ärgere mich, dass ich eben in meinem Leben nicht genug musikalische Bildung,
also für meine Gefühle nicht genug musikalische Bildung angeeignet habe und nicht genug geübt habe.
Und versuche das jetzt nachzuholen.
Das finde ich schön. Ich finde das toll.
Das sind die Momente, wo ich auch am zufriedensten oder am glücklichsten bin, wenn mir da was gelingt.
Oder wenn ich merke, ich mache Fortschritte oder da fließt irgendwas, was ich vorher nicht konnte.
Ich finde, das ist ein wunderbares Schlusswort.
Panteries, alles fließt.
[Lachen]
In diesem Sinne, schaltet auch beim nächsten Mal wieder ein, wenn ihr den Sascha sagen hören wollt.
Der Probe-Podcast beim gemütlichen Talk aus dem Proberaum.
Ich bedanke mich bei allen Zuhörern, bei unserem besonders interessanten Gast
und wünsche euch einen schönen Mittag, Morgen, Abend, eine gute Nacht und sage Tschüssi.
Tschüss.
Vielen Dank, Stefan.
Ja, ich danke auch.
Und ich sage auch Tschüss.
Wird Tobi nix sagen?
Wie, ist fertig? Hallo?
[Lachen]
Tobi sagt Tschüss.
Boah, da müssen wir wieder schneiden. Das wird ja wieder ne...
Nein, nein, das wird nicht geschnitten.
Da war der Cut, Leute. Da wär der Cut gewesen.
Na egal, macht's gut.
Tobi, Tschüss.
Tschüss.
Okay, tschüss, macht's gut.
Unterstützer erhalten Vorabzugang zum Ruhschnitt der Podcastfolgen
vor der eigentlichen Veröffentlichung.
Weitere exklusive Inhalte wie Vor- oder Nachgespräche oder eine Art Tagebuch.
Alle Informationen, wie man Unterstützer wird, findet ihr in den Show Notes.
Der Probe-Podcast
Ein Podcast. Ein gemütlicher Talk im Proberaum.
Ein Podcast. Ein gemütlicher Talk im Proberaum.
Ein Podcast. Ein gemütlicher Talk im Proberaum.
Ein Podcast. Ein gemütlicher Talk im Proberaum.
Ein Podcast. Ein gemütlicher Talk im Proberaum.
Ein Podcast. Ein gemütlicher Talk im Proberaum.

Unterstützen:
Ihr könnt uns über Paypal direkt unterstützen oder über Steady oder über Patreon mit einem kleinen Mehrwert als Dankeschön.

Die spenden werden benötigt, um ein Teil der kosten für die Bereitstellung meiner werke, Podcast Blog texte sowie die Videos zu gewährleisten.

"Unterstützer erhalten vorab Zugriff auf die neusten Veröffentlichungen noch vor ihren regulären Erscheinen im Rohschnitt. Darüber hinaus gibt es exklusive Inhalte nur für die Unterstützer wie vor und nach Gesprächen sowie eine Art Tagebuch. Über folgende Dienste könnt ihr uns so unterstützen: Steady, Patreon und erhaltet Zugang zu den extra Inhalten."

Patreon Feed auf Spotify oder Steady Feed auf Spotfy



Feedback zur Ausgabe hinterlassen?
Dann schreib doch ein Kommentar

Audio Feedback zur Sendung?
Der Anrufbeantworter ist geschaltet. ☎ 0231 53075818

Specher:
avatar
Stephan Schmitt
avatar
Tobi
avatar
Notstrom
avatar
Sascha

Anzal der Downloads: 382 /  Spieldauer: 2:07:49 /
Tag der Aufnahme: 17.11.23 /  Diese Folge stammt aus der Staffel 3, es gibt insgesam 4 Staffeln.

Eine LautFunk Publikationskartell Produktion - Wo Geschichten unüberhörbar übermittelt werden.


Podcast Lizenz:


Probe Podcast 63 Syntheseformen, Teil 4 – FM

Bitte hinterlasse ein Kommentar und ein Like

Beschreibung:

Der nächste Teil unserer Reihe über Syntheseformen. Ohne Tobi, dafür mit jeder Menge Hands-on – Soundbeispielen wird detailliert die Frequenzmodulation-Synthese erläutert. Funktionsprinzip, Artverwandtes, Ursprünge, Vergangenheit und wie es aktuell so aussieht auf dem Gerätemarkt.

Hier geht es zu einer Einfache Erklärung

"Entdecke die Klangzauberei der FM-Synthese in unserem Probe-Podcast! Lass dich von der Magie der Frequenzmodulation verblüffen und tauche ein in die faszinierende Welt dieser Klangerzeugung. Diese Episode bringt dir die Geheimnisse dieser Synthese-Form näher – ganz ohne Fachchinesisch!"
Hier geht es zum ergänzenden Blogbeitrag:

Hier Kicken

Hauptthema:
FM SYNTHS in under 4 minutes

Links:

FM Synthesis With The Hydrasynth Friday Fun
ASM Hydrasynth: Experimental Sound Design Tutorial (ft. Hydrasynth Explorer)

(Zur Transparenz. Die Folge wurde Mitte September aufgenommen.)

Links zur Ausgabe:

▶ Hier Klicken für das Tanscript:
Tanscript:

Der Probe-Podcast.
Ein Podcast, ein gemütlicher Talk im Proberaum.
Hallo und willkommen zum Probe-Podcast.
Ein gemütlicher Talk aus dem Proberaum.
Ich bin Sascha Machmann, auch bekannt als die Raumwelle.
Und sage Hallo.
Hallo Thomas.
Hallo, Moin aus Hamburg.
Hier ist der Thomas, der Notstrom.
Wir haben hier einen Experimentalaufbau.
Ich wollte mich bei dir noch mal bedanken.
Du hast mir ein paar neue Kopfhörer empfohlen.
Ich hatte mit meinen alten, geschlossenen Kopfhörern
den AKG 271 Mark II.
Da hatte ich heimare Ohrenschmerzen hinterher.
Vor allem beim letzten Mal, als wir mit dem Modulator aufgenommen hatten.
Ich musste schon 3 Stunden die Kopfhörer tragen.
Hat ein bisschen weh getan an den Ohren.
Ich habe mir dann daraufhin deine Empfehlungen bestellt.
Und ich muss sagen, zu dem Preis.
Geil, sind relativ leicht.
Die Superlux HD 660 Pro.
Ausgezeichnet, muss ich sagen. Vielen Dank.
Ich habe einen Geheimtipp bei den Podcastern.
Echt? Aber jetzt nicht mehr.
Zu spät.
Das mit dem Mikrofon.
In der bestimmten Version, da muss man nur etwas umlöten.
Also einen Widerstand reinsetzen.
Damit das an die 42 Volt Phantomspeisung richtig funktioniert.
Das ist das ultimative Ding,
was die alle zum Podcasten nehmen.
Weil es günstig ist und gut klingt.
Ich habe jetzt 40 bezahlt. 39.
Ziemlich geiles Angebot.
Es muss nicht immer von einer bestimmten Billigmarke sein.
Man kann auch eine andere Billigmarke nehmen.
Zum Podcasten ist das ausreichend.
Man kriegt natürlich, wenn man die länger trägt,
man kriegt heiße Ohren.
Bei geschlossenen Kopfhörern, wenn man viel Sprache aufnimmt,
ist das gut, wenn man abgeschirmt ins Mikrofon stöhnen kann.
Oder was auch immer man da am Mikrofon macht.
Es gibt aber auch noch Velour-Polster.
Die habe ich, die sind drauf.
Was mir gefällt, ist, dass die sehr leicht sind.
Die sind zwar relativ groß, aber sie sind sehr leicht.
Vermutlich werden die auch nicht so lange halten.
Ich glaube, so 10 Jahre.
Es trägt wahrscheinlich irgendwann auf.
Es ist erstmal völlig in Ordnung. Ich bin zufrieden.
Wir wollten heute FM-en.
Wollen wir nicht vorher noch News dazwischen schieben?
Haben wir irgendwas Spannendes?
Obwohl, ich weiß nicht, vielleicht sollten wir die aufheben, die News.
Die sollten wir aufheben.
Native Instruments, neue Controller, Keyboards.
Das heben wir für Tobi auf.
Warum habe ich hier einen Experimentalaufbau?
Wir hatten gedacht, wir machen heute mal wieder
eine weitere Folge von unserem
Synthese-Erklär-Bär-Workshop.
Wie haben wir die genannt?
Die Synthese-Erklär-Reihe.
Heute wäre mal Frequenzmodulation, FM-Synthese dran.
Ich glaube, wir haben das in irgendeiner der Folgen,
wo wir die ganzen Syntheseformen vorgestellt haben, schon mal so grob angeschnitten.
Ich habe gedacht, wir machen das heute nochmal.
Wobei, ich habe mir hier so ein bisschen musikalische Begleitung mitgebracht.
Wenn ich das hier mal reinziehen darf.
[Musik]
FM-Synthese.
Man kann es vielleicht schon so ein bisschen erahnen.
Wenn man hier genauer hinhört.
Ich ziehe jetzt den Kanal runter.
[Musik]
Das, was ihr hier hört, ist FM-Synthese.
Wie man unschwer erkennen kann,
klingen FM-Sounds immer so leicht, so ein bisschen
halt metallisch.
Kann sehr oft metallisch klingen.
Wird daher auch sehr gerne verwendet für alles, was
Richtung Emulation von
Saiten, Instrumenten, Orgeln, Glocken.
Genau, ganz genau. E-Piano.
Also elektrisches Piano geht. Das ist so die Spezialität von FM.
Aber FM kann auch wunderschöne Flächen.
Warum das so ist, das erklären wir gleich nochmal.
Hochwissenschaftlich.
Das ist ja alles von Hobbyisten für Hobbyisten.
Ich hatte schon extra die Formelsammlung ausgepackt, damit wir dann gleich mal genau erklären können,
wie die Mathematik dahinter ist.
Warst du auf dem Artikel von Gordon Reed aus dem Sound on Sound Magazin?
Der hat da über FM-Synthese
Ich weiß gar nicht, der hat glaube ich noch
170 Teile.
Ich habe da mal reingeschaut.
Der ist natürlich super ausführlich.
Ich hatte mir vor Jahren das mal von unserem
Mogulator in seiner alten
Sammlung an Links, da hat er auch so ein Synth-Diplom drin.
Dort gibt es dann auch die Erklärung von FM-Synthese.
Lies mal vor, was steht denn da drin? Oder dürfen wir das nicht vorlesen aus Copyright-Gründen?
Keine Ahnung, ich habe die Seite jetzt nicht offen.
Da wird das so relativ gut erklärt, aber es gibt noch ein Video von dem
über den haben wir letzte Woche noch gesprochen.
Wie heißt der gute Mann?
Andrew Huang, dem kanadischen Musiker.
Der hat sich zum Ziel gesetzt
unter vier Minuten FM-Synthese
zu erklären. Das ist ihm eigentlich ziemlich gut gelungen.
Es gibt zwei ganz wichtige Sachen
bei FM-Synthese. Ein Carrier
und ein Modulator-Signal. Dann gibt es einen sogenannten Operator
wo das Carrier-Signal mit dem Modulation-Signal
quasi moduliert wird.
Wenn man das jetzt im einfachsten Fall mit Sinus-Wellen macht, dann würde er dann
eine Sinus-Welle in den Operator reingehen,
die dann auf der anderen Seite als Sinus-Welle wieder rauskommt.
Wenn man jetzt den Modulator dazu nimmt, würde der
quasi Teile der Sinus-Welle verstärken oder
abschwächen, wodurch dann so eine Doppelte in sich
- das kann man schlecht erklären, das muss man sehen -
die Sinus-Welle verändert sich, sie wird komplexer.
Und dann wird der Ton auch komplexer. Und wenn man das jetzt
mit mehreren Operatoren macht, dann wird der Ton halt immer
komplexer, immer lebendiger. Und so kann man
den Ton formen. Dann gibt es natürlich noch so spezielle Sachen, dass man halt
den Modulator mit einem anderen Operator moduliert.
Oder der Operator moduliert
sich selber mit so einer Feedback-Schleife. Und da wird es
dann halt extrem physikalisch und mathematisch, weil man
diese Sachen halt auch in der Mathematik beschreiben kann.
Aber jetzt haben wir ganz viel erzählt.
Ich glaube, es kann sich trotzdem keiner so richtig was darunter vorstellen. Also wir nehmen mal einen
Sinus. Hier hätten wir mal eigentlich
die Effekte rausdrehen hier aus dem Bums hier.
Sekunde. Da ist noch zu viel Modulation
drauf. Ich habe hier einen digitalen Synthesizer
von der Marke Roland. Die bieten
ein Oszillatormodell.
Das heißt Cross-FM.
Und da ist immer noch
eine leichte Modulation drauf. Warte mal eben. Lass mich mal... Moment.
Sie sind schlecht vorbereitet. Ich bin wie immer
sehr gut vorbereitet. Das merkt man schon. Sehr gut.
Jetzt habe ich hier einmal das Oszillatormodell neu
ausgewählt. Und wie man hört,
hört man nichts. Und ich habe keine Ahnung warum.
Ich hätte
doch den Mini-Freak nehmen sollen. So. Hier hört man
eine Sinuswelle. Man hört auch da ist eine leichte Modulation drin.
Wenn
wir jetzt sozusagen diesen Carrier
Sound modulieren.
Ich hoffe das ist laut genug.
Dann wird der Ton
heller. Vielleicht auch metallischer. Und
auf jeden Fall obertonreicher.
Was ja bei einem Synthesizer immer sehr gut ist. Denn dann kann man nämlich hinterher
wieder Anteile rausfiltern und so
den Klang formen. Ich drehe mal hier an den
Reglerchen. Mal sehen was passiert.
Man hört das schon. Ich verändere die Ratio. Also das Verhältnis
vom Frequenzverhältnis von dem
Carrier zum
Modulator. Oder wie man auch sagen würde, ich habe hier
ein zwei Operatoren, eine zwei Operatoren FM
und da wird einfach das Verhältnis von dem einen zu dem anderen
verändert. Jetzt habe ich zum Beispiel eingestellt
das Verhältnis 2,52 zu 1. Ich verändere es weiter.
Es wird ein bisschen lauter.
Ja schriller.
Man hört das.
Dieses kleine Zippergeräusch
was man hört. So ein kleines Klacken.
Das liegt daran, dass er nicht stufenlos die Parameter
durchgeht, sondern es ist halt ein digitaler Synthesizer. Und
dieser Roland Synthesizer hier, den ich hier vor mir habe, der ist halt darauf ausgelegt,
immer chromatisch korrekt zu spielen. Wenn man das mit einem analogen
Synthesizer machen würde, dann würde man auch alle Zwischenfrequenzen
mitnehmen, stufenlos. Manche digitale
Synthesizer interpolieren auch, um das zu simulieren.
Und dann würde es natürlich entsprechend anders klingen.
Wobei man ja noch sagen muss, es ist ja nicht nur dieses Mischungsverhältnis
zueinander, sondern die Lautstärke spielt ja auch eine Rolle.
Also die Veränderung des ursprünglichen
Signals, also der ursprünglichen Sinuswelle, wie stark die Veränderung ist,
bestimmt ja die Lautstärke des Modulators.
So ich habe jetzt hier nochmal eben die Höhlkurve,
die Amp-Höhlkurve, die Lautstärke-Höhlkurve ein bisschen hochgedreht.
Damit wir auch ein bisschen
mehr hören. Ich verlängere mal den Ton.
So, dann kann man das ein bisschen besser hören.
Was wir hier haben,
beide Operatoren agieren gerade mit Sinus.
Das klingt schon so ein bisschen nach Orgel.
Dann, was man noch machen kann,
man kann natürlich den Oszillator
selber nochmal ein bisschen...
Ich weiß nicht, ob man das hören kann,
das ist so ein gewisser tiefer Frequenzanteil.
Ich habe hier zum Beispiel ein Frequenzverhältnis von 1,12 zu 1.
Da kommen wir später nochmal dazu, aber das kann man halt auch nutzen.
Also etwas niedrige Modulation,
um halt Bässe zu erzeugen.
Ja, da gibt es ja einige sehr bekannte Bässe,
die halt in Bass-Sounds, die in den 80ern sehr gerne
verwendet wurden. - Genau. Jetzt machen wir folgendes.
Jetzt machen wir etwas, was wir zum Beispiel bei den klassischen FM-Synthesizern
aus den 80ern nicht machen konnten.
Wir verändern die Wellenform des Carriers.
Jetzt haben wir zum Beispiel ein Segelzahn genommen.
Nochmal Sinus.
Segelzahn. Und das wird automatisch noch obertonreicher,
wenn ich jetzt hier die Ratio nochmal verändere.
Sinus. Segelzahn. Man hört, es klingt halt noch heller.
Ich kann aber noch mehr Wellenform, Rechteck.
Das klingt dann fast schon wie so ein H-Zynk
oder wie ein Ringmodulator.
[Musik]
So, und jetzt könnte ich beigehen und mit dem Filter, den dieser Synthesizer hier anbietet,
das haben die früheren klassischen FM-Synthesizer nicht gehabt,
die hatten keine Filter, kann ich den Klang nochmal
nachträglich ein bisschen weicher machen wieder.
Hier mit aufgedrehtem Cutoff.
Mit leicht beschlossenem.
Aber nicht nur das, ich kann
auch bei diesem Modell meinen
Modulator, also meinen zweiten Operator,
auch in der Wellenform verändern.
Das hört man jetzt nicht so gut.
Das ist der Sinus als Modulator.
Das ist ein klassischer Segelzahn.
Also du simulierst jetzt
ein Segelzahn, also du modulierst jetzt ein Segelzahn mit einem
Ich moduliere jetzt als Carrier ein Rechteck
mit einem Segelzahn-Modulator.
Im Verhältnis 1,19 zu 1.
Damit haben wir so ein bisschen an der Oberfläche gekratzt.
Das bietet ja auch schon durch das Filter,
was dahinter geschaltet ist.
Ihr habt gehört, man kann da auch noch an den Höhenkurven drehen.
Die Höhenkurven verändern ja nur
das Einschwingen und Ausschwingen-Verhalten.
Ja, des gesamten Klangs.
Jetzt kann man aber dieses Modulieren
also ab welchem Zeitpunkt das Carrier-Signal
von dem zweiten Operator
moduliert werden soll, das kannst du auch mit einer Höhenkurve belegen.
Dazu muss ich hier erstmal bei diesem Synthesizer in die
Höhenkurve setzen.
Bei den klassischen Synthesizers aus den 80ern geht das ganz genau so.
Ja, da geht das auch.
Bei jedem Operator kannst du quasi eine Höhenkurve setzen.
Ab wann soll er sozusagen
reingefadet werden, gehalten werden und wieder ausfaden.
Das geht mit jedem Operator.
Warte mal. Lass mich mal kurz gucken.
Ja, das ist bei diesem Roland
ist das halt ein bisschen merkwürdig gestaltet.
Du kannst eine Pulsweitenmodulation einstellen.
Roland hat hier bei dem Inne-Sound
noch irgendeine Modulation extra mit drauf.
Das Ganze ist natürlich ziemlich Menü-lastig.
Das könnt ihr euch vielleicht vorstellen.
Weil so ein FM-Synthesizer
hat natürlich entsprechend viele Parameter.
Wenn ich mich nicht irre,
ich bin mir sicher, dass irgendwelche Zuhörer, die sich da besser auskennen als
wir beide, uns da wahrscheinlich korrigieren werden.
Aber soweit ich weiß, hat er zum Beispiel der klassische 8-Operator-FM-Synthesizer
Yamaha FS1-R aus den
frühen 90ern. Der hatte glaube ich über 2000 Parameter.
Und Yamaha haben das Ganze über
zwei Höhen-Einheiten glaube ich
oder sogar nur eine Höhen-Einheit 19 Zoll
Rackgerät zur Verfügung gestellt. Und mit einem Drehregler, mit einem
Endlosencoder und irgendwie
zehn Buttons, die man da drehen konnte und
vier normalen Poti's. Das war alles, was man als Bedienelemente hatte.
Das ist leider bei diesem Roland-Synthesizer
bis auf die
Regler für Filter und
Höhekorben und so weiter, ist das leider ähnlich. Deswegen
seht es mir nach, wenn ich jetzt hier nicht den großen Hit raushole.
Ich schraube hier mal so ein bisschen
wild an den Parametern.
Hier hört ihr die Modulationstiefe.
Hier wenig Modulation.
Also vom einem Operator auf den Carrier.
Und jetzt
nehme ich da quasi eine
kleine Modulation.
Und jetzt nehme ich da eine
Höhekorbe auf.
[Musik]
[Musik]
[Musik]
[Musik]
[Musik]
[Musik]
[Musik]
[Musik]
Jetzt muss man ja dazu sagen, das ist ja noch ein relativ
simples Modell.
Es gibt ja die weitaus komplexeren. Also der DX7, der in den 80ern groß war,
der hatte ja
sechs Operatoren.
[Musik]
Sechs Operatoren, genau.
Die ganz modernen FM-Synthesizer von Yamaha,
das wäre dann der Montage und auch der
ModX6,
keine Ahnung, irgendwie so.
Die haben auch sechs Operatoren. - Nee, die haben acht.
Die haben acht Operatoren, die haben aber auch ein digitales Filter.
Und man kann dort Sounds auch noch layern mit
Samples. - Und du kannst als Modulationssignal
quasi ein Sample verwenden. Das konntest du aber auch schon im
SY77 und
SY97 und
SY99 und EX5. - Ja, da konntest du
das auch genau. - Ja, genau. Also das sind so die Klassiker.
Der klassische FM-Synthesizer, den eigentlich
viele Leute kennen, das wäre der Yamaha
DX7.
Roland's Antwort darauf war der
D50, wo sie aber mehr mit Sample-Material gearbeitet
haben und weniger mit FM-Synthese. Das ist so ein bisschen
so ein bisschen Hybrid.
Der DX7 ist halt sehr bekannt, weil
man den, wenn man sich die ganzen Pop-Hits in
der 80er anhört, man hört den überall.
Man hört überall den DX7 raus. Also dieses klassische,
dieses DX7-E-Piano, was eigentlich
quasi eine nachprogrammierte Version eines
nicht eines Wurlitzers, wie heißt das Ding?
- Rote? - Ja, genau, eines Rhodes sein soll.
Hat man halt überall gehört. - Das und
dann halt diese bestimmten Bässe. - Ja, ob das nun von Erasure,
Yasu, wie hießen sie noch? Was gibt's noch? - Erasure,
erasure. Pet Shop Boys. - Pet Shop Boys, genau.
Oder Kate Bush oder wie hieß sie noch?
Hier, die ganzen
Produktionen von und mit Stock, Aitken Borterman,
Rick Astley und
so viele andere mehr. Also der DX7 war wirklich überall.
- Man muss auch sagen, es ist einer, der am meisten verkauft ist, den Synthesizer überhaupt.
- Ist das so? Das wusste ich gar nicht. Interessant.
Das fiese ist,
ich kann da jetzt technisch nicht im Detail drauf eingehen, aber das fiese ist halt,
dass das eigentlich kein FM-Synthesizer ist, das ist auch nochmal
das Verrückte dabei, sondern
- Du meinst Phasenmodulation? - Genau, es ist eigentlich
ein Phasenmodulations-Synthesizer, aber man nimmt's halt nicht so genau,
weil das Endergebnis ist eigentlich im Grunde genommen recht ähnlich.
Für die Mathematiker unter uns, die mögen sich mal bitte auf Sound on Sound
den Artikel von Gordon Reed
zur FM-Synthese durchlesen, da hat er wirklich in allen technischen
Details inklusive mathematischer Formel das Ganze auch nochmal
auseinandergenommen.
Sehr interessant. Da werden die Unterschiede auch nochmal erklärt.
Du hast das vorhin schon angeschnitten, Sascha.
Dadurch, dass man mehr als zwei Operatoren hat,
das hier ist ja, was wir hier haben,
ist relativ simpel.
Wenn man noch einen Modulator dazu nimmt,
also noch einen Operator, der den ersten
oder den zweiten Operator moduliert,
und wenn man dann noch einen Operator dazu nimmt, der vielleicht den dritten
und den ersten moduliert, und wenn man dann vielleicht noch einen Operator und noch einen
Operator dazu nimmt, wird diese Klangformung,
diese Klangerzeugung immer komplexer
und immer komplexer. Und man spricht dann im Jamaisch
von Algorithmen.
Das ist ja die Verschaltung. Genau, das ist die Verschaltung,
welcher Operator moduliert welche anderen Modulatoren,
beziehungsweise welche Operatoren
modulieren sich gegenseitig.
Um mal jetzt zu einem modernen
FM Synthesizer zu kommen, bei dem Electron Digitone zum Beispiel,
das ist ein 4-Operator-FM-Synthesizer,
haben die das ganz geschickt gemacht.
Da haben sie das sogar so gewählt,
dass zwei der Operatoren eine Ausgabe erzeugen können.
Und dann kannst du die beiden Operatoren,
die dann durch zwei andere Operatoren
moduliert werden können, kannst du im Mischverhältnis
zueinander auch nochmal in die Ausgabe mixen.
Das ist das Besondere bei dem Digitone. Das haben ganz viele Leute,
die sich den nur ganz oberflächlich angeschaut haben, gar nicht verstanden.
Aber wenn man sich mit dem Ding mal so ein bisschen beschäftigt, da haben die sich schon sehr viele Gedanken gemacht,
die Kollegen von Electron damals.
Weißt du, wo man 4-Operatoren-
FM-Synthese total oft und viel findet?
Im Dubstep.
Genre-spezifisch, okay.
In günstigen, sagen wir mal so 90er und
Anfang 2000er Keyboards. Da war nämlich überall
so ein bestimmter Yamaha-Chip drin.
Dann auf Soundkarten, also so
Kosuma-Soundkarten, so Soundblaster, das wird ja bestimmt einigen Leuten
was sagen, da war nämlich der Soundchip für die
MIDI-Sektion, war ein
4-Operations-FM-Synthesizer mit 16 Parts,
muss man dazu sagen. Also 16 Mal halt diese 4-Operations-Synthese.
Und
diesen Soundchip, den findet man in so vielen verschiedenen Geräten und
der wird heute sogar noch verwendet
im Retro-Computer-Bau,
dass der sogar gefälscht wird.
Es gibt eine Firma, ich weiß gar nicht, wo die herkommen, aber ich glaube, das sind
Franzosen. Nein, nicht Arturia,
sondern Electron,
wie heißen sie? Helf mir mal.
Sagen wir mal, wie heißen die? Electron, Electron, Electron?
Ich weiß nicht, wen du meinst. Du weißt nicht, wen ich meine.
Das ist nicht gut. Twisted Electrons.
Oder wie die Franzosen sagen, Twisted Electrons. Die haben
genau von diesen
FM-Chips, haben die welche genommen,
die werden nämlich, wie du schon sagtest, immer noch produziert,
und haben die in einen Synthesizer reingebaut, beziehungsweise sogar in zwei
Synthesizer. Du kriegst diese Chips, wollte ich nur kurz zum Einwerfen,
in verschiedene Versionen. Du kriegst die einmal wirklich so als ganz
grobe Käfer, also richtig große
Chips, die aussehen wie so kleine
Prozessoren, aber länglich, so wie halt so ein
1,86 oder so,
in der Länge. Und dann kriegst du die heutzutage auch als
SMD-Bauteil, da sind die kleiner wie der Fingernagel
am kleinen Finger. Ja, genau. Und ich weiß jetzt nicht genau,
was die verbaut haben, aber ich schätze mal, dass sie die großen Käfer verbaut haben,
weil Twisted Electrons,
Twisted Electrons haben nämlich einen Synthesizer gebaut, der heißt
Mega FM. Genau. Das ist, sag ich mal,
einer der wenigen FM-Synthesizer, der wirklich viele Bedienelemente hat,
mit vielen Schiebereglern, vielen Drehreglern, und du kannst,
und die Algorithmen sind auch auf das Gehäuse aufgedruckt,
wie bei vielen anderen FM-Synthesizern auch,
und du kannst, ja, da haben sie halt
diese Yamaha FM-Chips genommen dafür, und die
kommen aus dem Sega Mega Drive.
Das ist das Besondere an dem Mega FM. Genau, aber das ist
immer der gleiche Soundchip. Es ist immer der gleiche Soundchip, aber da gibt's auch
unterschiedliche Versionen, wie du schon sagtest, und die haben eine Mark I-Version,
die hat einen sehr dreckigen, man könnte schon sagen,
einen Lofi-Sound, rauscht auch wie Sau, aber das ist
genau das, was viele Käufer von diesem Synthesizer so sehr an diesem
Instrument schätzen. Und es gibt eine neuere Version, die Mark II,
die klingt ein bisschen sauberer.
Ja, und man kann das Ding tatsächlich dann wie so ein
altes Sega Mega Drive klingen lassen, wenn man das möchte,
aber du kannst den halt auch ganz gezielt
so einsetzen, dass der fette Dubstep
Bobblebässe produziert oder
richtig schmutzige Dubchords für Dubtechno.
Also man geht eine ganze Menge mit in diesem Teil.
Ich liebäugle immer wieder mit diesem Synthesizer, das wäre so,
wenn wir nochmal so eine Liste machen,
so eine Reihe machen mit so Synthesizern, die du immer in deinem
Warenkorb hattest, aber immer wieder ausgepackt hast, das wäre so ein Kandidat für mich.
So ein Twisted Electrons Mega FM. Ich stehe
immer kurz davor, den zu kaufen, aber dann so im letzten Moment denke ich so,
nee, eigentlich bin ich ja nicht so der FM-Synthesizer-User,
wer meine Musik kennt. Das ist halt,
passt irgendwie nicht zu diesem Gerät,
sag ich mal. Es gibt ja
die Hardware-Seite, natürlich gibt es diese Dinger ja auch als Software.
Genau, da gibt es sogar jede Menge
und da gibt es sogar tatsächlich Emulation,
die diesen Chipsatz auch noch sogar als VST sozusagen
zur Verfügung stellen. Man hat sogar quasi diesen Klang damit. Also immer so
ein bisschen Videospiel-mäßig, so ein bisschen billig, würde ich mal sagen.
Ein bisschen digitaler, ein bisschen mehr Richtung 8-Bit
irgendwie, aber auch nicht so richtig, weil FM-Syntheser.
Ja, genau. Und es gibt aber auch,
erzähl mal, es gibt aber auch FM-Synthesizer, die
hochwertig klingen, weil die das
berühmte Schema ein bisschen aufgebrochen haben und da fällt mir
zum Beispiel bei Traktition gibt es einen,
der hat elf Operatoren. Ich weiß jetzt gerade nicht, wie der heißt,
aber... Bei Traktion? Ja.
Da gibt es einen FM-Synthesizer. Also der Klassiker unter den
FM-Synthesizer-Plug-ins ist, finde ich, der
Native Instruments FM7. FM7, ja.
Weil der kann nämlich auch DX7-Patches laden. Ja, der Nachfolger
davon kann das auch noch, aber der ist ja schon wieder erweitert worden.
Ja, aber das war so einer mit der
ersten, die wirklich gut geklungen haben. Ja, ganz genau.
Was halt auch zu
beobachten ist, dass im Eurorack-Land
da gibt es halt auch viele Module, die halt
FM können, also FM-Oscillator-Module.
Da gibt es dann zum
Beispiel hier von Immutable Instruments gibt es die, und Nachbauten, da gibt es
zum Beispiel den Plates. Der hat auch hier
wie der mir vorliegende Roland-Synthesizer. Das ist ein
Roland SH-4D. Der bietet halt auch so ein FM-
Oszillator-Modell an. Da kann man halt genau solche
Klänge hier mitmachen.
Und...
Habe ich irgendwas vergessen? iOS-Apps.
Also wer ein iPad hat oder ein Android, da gibt es auch
jede Menge FM-Synthesizer wie Sand am Meer. Genau.
Mit simulierter DX7-Benutzeroberfläche
nur mit Drucktasten oder mit
ganz modernen Schiebereglern, was das Herz
begehrt. Also der Markt für FM-Synthesizer ist riesig.
Ich möchte... Ich weiß jetzt wie der heißt, der Synthesizer von...
Ich möchte... Ich weiß jetzt wie der heißt, der Synthesizer von...
Das ist ein F-E-M.
Das ist ein F-E-M.
Ah, der Fem. Genau, der F-E-M.
Ah, der Fem. Genau, der F-E-M.
Großartig. Zwölf Operatoren sagst du. Elf.
Großartig. Zwölf Operatoren sagst du. Elf.
Wahnsinn. Ich weiß gar nicht, also das könnte man jetzt ausrechnen
Wahnsinn. Ich weiß gar nicht, also das könnte man jetzt ausrechnen
wie viele Möglichkeiten das gibt, die Dinger miteinander
wie viele Möglichkeiten das gibt, die Dinger miteinander
zu verschalten. Aber das macht natürlich die Synthese
zu verschalten. Aber das macht natürlich die Synthese
wesentlich komplexer. Ja, und da bietet sogar zwei Sample
wesentlich komplexer. Ja, und da bietet sogar zwei Sample
und auch Neues Operatoren mit an, die man halt auch da
und auch Neues Operatoren mit an, die man halt auch da
mit in die Algorithmen einbauen kann. Das ist schon ziemlich gewaltig.
mit in die Algorithmen einbauen kann. Das ist schon ziemlich gewaltig.
Also das ist echt eine Waffe, meine Güte. Wahnsinn. Aber da sieht man halt, dass man
Also das ist echt eine Waffe, meine Güte. Wahnsinn. Aber da sieht man halt, dass man
das altbekannte Schema halt aufbrechen kann und
das altbekannte Schema halt aufbrechen kann und
weit aus dem Meer rausholen kann. Man könnte
weit aus dem Meer rausholen kann. Man könnte
aber auch hingehen und wenn man so ein Modularsystem hat und hat jede
aber auch hingehen und wenn man so ein Modularsystem hat und hat jede
Menge
Menge
Oszillatoren da und Operatoren,
Oszillatoren da und Operatoren,
könnte man sich halt so einen Synthesizer, so einen FM-Synthesizer
könnte man sich halt so einen Synthesizer, so einen FM-Synthesizer
auch mit Modulation
auch mit Modulation
mit Modular-Hardware zusammen basteln. Das kann man auch machen.
mit Modular-Hardware zusammen basteln. Das kann man auch machen.
Da hat man dann zwar nicht so viele Stimmen, aber
Da hat man dann zwar nicht so viele Stimmen, aber
es geht halt, bis zu vier Stimmen ist noch Handarbeit.
es geht halt, bis zu vier Stimmen ist noch Handarbeit.
Aber du hast dann auf jeden Fall einen sehr großen Wust an Kabeln. Richtig.
Aber du hast dann auf jeden Fall einen sehr großen Wust an Kabeln. Richtig.
Je komplexer das Signal wird und so.
Je komplexer das Signal wird und so.
Aber es gibt ein relativ preiswertes Angebot
Aber es gibt ein relativ preiswertes Angebot
von der Firma KORG, die so heißt
von der Firma KORG, die so heißt
wie der Bodenbelag.
wie der Bodenbelag.
Und zwar den Volca FM. Das ist
Und zwar den Volca FM. Das ist
ein relativ günstiger Digital-FM-Synthesizer.
ein relativ günstiger Digital-FM-Synthesizer.
Der ist in der alten Version, da gibt es auch zwei Versionen, die alte Version
Der ist in der alten Version, da gibt es auch zwei Versionen, die alte Version
die Mark 1, die hat vier Stimmen und die
die Mark 1, die hat vier Stimmen und die
neue Version hat glaube ich sogar sechs Stimmen oder acht Stimmen. Acht Stimmen hat die, glaube ich.
neue Version hat glaube ich sogar sechs Stimmen oder acht Stimmen. Acht Stimmen hat die, glaube ich.
Also die Mark 2 Version hat acht Stimmen.
Also die Mark 2 Version hat acht Stimmen.
Und das Ding ist auch patch-kompatibel zum DX7.
Und das Ding ist auch patch-kompatibel zum DX7.
Ist auch ein 7 Operator-FM-Synthesizer.
Ist auch ein 7 Operator-FM-Synthesizer.
Stimmt nicht. Die alte Version war dreistimmig, die aktuelle
Stimmt nicht. Die alte Version war dreistimmig, die aktuelle
Version ist sechsstimmig. So war das.
Version ist sechsstimmig. So war das.
Mit einem kleinen Step-Sequencer. Ja, also wenn man hardware-mäßig
Mit einem kleinen Step-Sequencer. Ja, also wenn man hardware-mäßig
da so ein bisschen einsteigen möchte, ist das schon ein ziemlich gutes Angebot.
da so ein bisschen einsteigen möchte, ist das schon ein ziemlich gutes Angebot.
Yamaha hat selber vor ein paar Jahren auch nochmal einen kleinen
Yamaha hat selber vor ein paar Jahren auch nochmal einen kleinen
FM-Synthesizer rausgebracht, den man auch für relativ wenig Geld
FM-Synthesizer rausgebracht, den man auch für relativ wenig Geld
ich glaube so 200-300 Euro bekommen kann. Das ist der
ich glaube so 200-300 Euro bekommen kann. Das ist der
ähm... ähm... ja.
ähm... ähm... ja.
Warte, der Name fällt mir gleich ein. Yamaha.
Warte, der Name fällt mir gleich ein. Yamaha.
Wie heißt der? Ich glaube, ich war bei der Damei.
Wie heißt der? Ich glaube, ich war bei der Damei.
Der DX200. Ja, Reface.
Der DX200. Ja, Reface.
Reface. Der Reface DX.
Reface. Der Reface DX.
Der ist nur auf der Oberfläche in der Katastrophe, aber
Der ist nur auf der Oberfläche in der Katastrophe, aber
mit einem Editor ist das Ding wunderbar. Also von der Oberfläche her
mit einem Editor ist das Ding wunderbar. Also von der Oberfläche her
hat halt so für die Programmierung so Touch-Strips,
hat halt so für die Programmierung so Touch-Strips,
die multifunktional belegt sind.
die multifunktional belegt sind.
Macht nicht so richtig viel Spaß, aber der klingt sau gut.
Macht nicht so richtig viel Spaß, aber der klingt sau gut.
Achtstimmig-Polyphon.
Achtstimmig-Polyphon.
Ja, und so für, ich sag mal so für 300-350 Euro
Ja, und so für, ich sag mal so für 300-350 Euro
kriegt man den auch schon gebraucht. Und es gibt einen Programmierer für den.
kriegt man den auch schon gebraucht. Und es gibt einen Programmierer für den.
Der kostet leider genauso viel wie der Synthesizer.
Der kostet leider genauso viel wie der Synthesizer.
Es gibt von der Firma Sonicware diese
Es gibt von der Firma Sonicware diese
Leven-Reihe.
Leven-Reihe.
Ah ja, genau. Du hast recht. Und da gibt es nämlich den XFM
Ah ja, genau. Du hast recht. Und da gibt es nämlich den XFM
und die kosten immer so 260-280 Euro
und die kosten immer so 260-280 Euro
in dem Bereich. Ja, die Sonicware-Teile, die sind auch cool.
in dem Bereich. Ja, die Sonicware-Teile, die sind auch cool.
Die Tastatur ist halt so diese Gummi-Wobbel-Dinger.
Die Tastatur ist halt so diese Gummi-Wobbel-Dinger.
Aber du kannst ja noch per MIDI was anderes anschließen.
Aber du kannst ja noch per MIDI was anderes anschließen.
Aber das ist ja auch ein ziemlich vollwertiger FM-Synthesizer.
Aber das ist ja auch ein ziemlich vollwertiger FM-Synthesizer.
Mhm. Genau, Sonicware, Leven oder Leifen
Mhm. Genau, Sonicware, Leven oder Leifen
ist keine Ahnung, wie man es ausspricht. XFM. Genau.
ist keine Ahnung, wie man es ausspricht. XFM. Genau.
Also Hardware-mäßig, FM-Groovebox-mäßig
Also Hardware-mäßig, FM-Groovebox-mäßig
gibt es eine ganze Menge. Achso, und Twisted Electrons haben
gibt es eine ganze Menge. Achso, und Twisted Electrons haben
auch noch eine FM-Groovebox und zwar die
auch noch eine FM-Groovebox und zwar die
Blastbeats.
Blastbeats.
Basiert auch auf dem
Basiert auch auf dem
Yamaha-FM-Chip, der dann allerdings
Yamaha-FM-Chip, der dann allerdings
aus der Soundblaster-Karte stammt. Das ist ein anderer Chip, als
aus der Soundblaster-Karte stammt. Das ist ein anderer Chip, als
der, der im Sega Mega Drive verwendet wurde.
der, der im Sega Mega Drive verwendet wurde.
Ja, es ist ein anderer Chip, genau, weil der nicht so rau ist. Der ist wesentlich edler im Sound.
Ja, es ist ein anderer Chip, genau, weil der nicht so rau ist. Der ist wesentlich edler im Sound.
Aber vom Grund her genommen, von der Aufbau
Aber vom Grund her genommen, von der Aufbau
her ist das schon sehr ähnlich. Vor allem, weil der mehr Stimmen hat. Der hat 16 Stimmen.
her ist das schon sehr ähnlich. Vor allem, weil der mehr Stimmen hat. Der hat 16 Stimmen.
Musste der auch haben, weil das MIDI halt im PC
Musste der auch haben, weil das MIDI halt im PC
halt 16-stimmig ist und
halt 16-stimmig ist und
ich weiß gar nicht, wie viele Stimmen gleichzeitig erklingen können. Also wie viele einzelne Töne.
ich weiß gar nicht, wie viele Stimmen gleichzeitig erklingen können. Also wie viele einzelne Töne.
Was haben wir denn da?
Was haben wir denn da?
Elektron, Schweden,
Elektron, Schweden,
Model Cycles. Ist nicht so richtig echte
Model Cycles. Ist nicht so richtig echte
FM. Also nicht alle Instrumente, die dort
FM. Also nicht alle Instrumente, die dort
das ist auch eine Groovebox, aber nicht alle Instrumente, die dort halt
das ist auch eine Groovebox, aber nicht alle Instrumente, die dort halt
sozusagen am Start sind. Von der
sozusagen am Start sind. Von der
Synthese her sind nicht alle FM, sondern teilweise
Synthese her sind nicht alle FM, sondern teilweise
auch Wavetables. Da hat Elektron halt ein
auch Wavetables. Da hat Elektron halt ein
Hybrid rausgebracht, aber
Hybrid rausgebracht, aber
es klingt schon so, es klingt schon sehr FM-mäßig. Macht auch Spaß
es klingt schon so, es klingt schon sehr FM-mäßig. Macht auch Spaß
mit dem Ding zu arbeiten. Ja, was machen
mit dem Ding zu arbeiten. Ja, was machen
wir denn jetzt noch? Machen wir noch ein bisschen Musik? Ich würde sagen, wir machen ein bisschen Musik.
wir denn jetzt noch? Machen wir noch ein bisschen Musik? Ich würde sagen, wir machen ein bisschen Musik.
[Musik]
[Musik]
[Musik]
[Musik]
Wir hatten ja gesagt, dass man damit auch Flächen machen kann.
Wir hatten ja gesagt, dass man damit auch Flächen machen kann.
Ich guck gerade.
Ich guck gerade.
[Musik]
[Musik]
[Musik]
[Musik]
[Musik]
[Musik]
[Musik]
[Musik]
[Musik]
[Musik]
[Musik]
[Musik]
[Musik]
[Musik]
[Musik]
[Musik]
[Musik]
[Musik]
[Musik]
[Musik]
[Musik]
[Musik]
[Musik]
[Musik]
[Musik]
[Musik]
[Musik]
[Musik]
[Musik]
[Musik]
[Musik]
[Musik]
[Musik]
[Musik]
[Musik]
[Musik]
[Musik]
[Musik]
[Musik]
[Musik]
[Musik]
[Musik]
[Musik]
[Musik]
Interessant, wenn ich an einem Ratio drehe, dann stoppt er den Klang
Interessant, wenn ich an einem Ratio drehe, dann stoppt er den Klang
sofort. Das ist das Digitale daran.
sofort. Das ist das Digitale daran.
Das ist das Digitale daran. Das wäre zum Beispiel bei diesem Synthesizer ein Nachteil.
Das ist das Digitale daran. Das wäre zum Beispiel bei diesem Synthesizer ein Nachteil.
Das hast du bei so einem analogen FM-Synthesizer, der
Das hast du bei so einem analogen FM-Synthesizer, der
so aufgebaut ist, nicht.
so aufgebaut ist, nicht.
[Musik]
[Musik]
[Musik]
[Musik]
[Musik]
[Musik]
[Musik]
[Musik]
[Musik]
[Musik]
[Musik]
[Musik]
[Musik]
[Musik]
[Musik]
[Musik]
[Musik]
[Musik]
[Musik]
[Musik]
[Musik]
[Musik]
[Musik]
[Musik]
[Musik]
[Musik]
[Musik]
[Musik]
Diese Vibration, wo kommt die her? Ich hab's noch nicht verstanden.
Diese Vibration, wo kommt die her? Ich hab's noch nicht verstanden.
[Musik]
[Musik]
[Musik]
[Musik]
Ich kann's dir nicht sagen. - Ich auch nicht.
Ich kann's dir nicht sagen. - Ich auch nicht.
Ja, das ist dann so der Nachteil bei dem kleinen Roland hier.
Ja, das ist dann so der Nachteil bei dem kleinen Roland hier.
Man möchte dann tiefer in die Synthese einsteigen und das
Man möchte dann tiefer in die Synthese einsteigen und das
verlässt einen nicht.
verlässt einen nicht.
[Musik]
[Musik]
[Musik]
[Musik]
[Musik]
[Musik]
[Musik]
[Musik]
[Musik]
[Musik]
[Musik]
[Musik]
[Musik]
[Musik]
[Musik]
[Musik]
[Musik]
[Musik]
Lass uns mal über nicht klassische FM-Synthesizer
Lass uns mal über nicht klassische FM-Synthesizer
sprechen, beziehungsweise die ganzen Vintage-Synthesizer,
sprechen, beziehungsweise die ganzen Vintage-Synthesizer,
wir haben schon ein paar genannt. Die sind relativ
wir haben schon ein paar genannt. Die sind relativ
kompliziert, komplex zu programmieren, weil die auch
kompliziert, komplex zu programmieren, weil die auch
von der Benutzeroberfläche her nicht so optimal sind. Das hat sich
von der Benutzeroberfläche her nicht so optimal sind. Das hat sich
heutzutage Gott sei Dank ein bisschen geändert. Das gibt
heutzutage Gott sei Dank ein bisschen geändert. Das gibt
aktuelle FM-Synthesizer, wir haben schon genannt, Yamaha Montage und so weiter.
aktuelle FM-Synthesizer, wir haben schon genannt, Yamaha Montage und so weiter.
Es gibt aber auch Synthesizer, die FM können,
Es gibt aber auch Synthesizer, die FM können,
bei denen man das aber nicht auf den ersten Blick so vermuten würde.
bei denen man das aber nicht auf den ersten Blick so vermuten würde.
Die würde ich gerne nochmal sprechen, um das Thema nochmal so ein bisschen abzurunden.
Die würde ich gerne nochmal sprechen, um das Thema nochmal so ein bisschen abzurunden.
Wir hätten zum Beispiel, meinen kleinen Liebling, den
Wir hätten zum Beispiel, meinen kleinen Liebling, den
Veridium. Da versteckt sich
Veridium. Da versteckt sich
in einem Oszillator-Modell ein kompletter DX7.
in einem Oszillator-Modell ein kompletter DX7.
Der hat drei Oszillatoren
Der hat drei Oszillatoren
normalerweise, bei 16 Stimmen.
normalerweise, bei 16 Stimmen.
Dann hast du 3 mal 16 Oszillatoren
Dann hast du 3 mal 16 Oszillatoren
und ein Oszillator kann,
und ein Oszillator kann,
also alle drei Oszillatoren können
also alle drei Oszillatoren können
jeweils ein kompletter FM-Synthesizer sein.
jeweils ein kompletter FM-Synthesizer sein.
Du kannst sogar in den Oszillator DX7
Du kannst sogar in den Oszillator DX7
Patches reinladen. Wie abgefahren ist das denn?
Patches reinladen. Wie abgefahren ist das denn?
Das ist wirklich abgefahren. Und dann kannst du die sich auch noch
Das ist wirklich abgefahren. Und dann kannst du die sich auch noch
gegenseitig modulieren lassen. Wow. Also da ist schon
gegenseitig modulieren lassen. Wow. Also da ist schon
eine ganze Menge möglich.
eine ganze Menge möglich.
Also FM-Synthese kann der Veridium
Also FM-Synthese kann der Veridium
ist von der Zugänglichkeit her nicht ganz
ist von der Zugänglichkeit her nicht ganz
so, ich sag mal nicht ganz so offenherzig wie zum Beispiel so ein Korg
so, ich sag mal nicht ganz so offenherzig wie zum Beispiel so ein Korg
OP6.
OP6.
Das ist auch ein 6-Operator FM-Synthesizer
Das ist auch ein 6-Operator FM-Synthesizer
modernster Bauart.
modernster Bauart.
Den gibt es sogar als Plug-in von Korg zu kaufen, als VST-Plug-in.
Den gibt es sogar als Plug-in von Korg zu kaufen, als VST-Plug-in.
Ist von der
Ist von der
Bedienung her also sehr zugänglich. Was gibt es noch,
Bedienung her also sehr zugänglich. Was gibt es noch,
was nicht auf den ersten Blick als FM-Synthesizer zu erkennen ist?
was nicht auf den ersten Blick als FM-Synthesizer zu erkennen ist?
Das ist der ASM Hydrasynth.
Das ist der ASM Hydrasynth.
Der bietet nämlich nicht die Möglichkeit an Oszillator
Der bietet nämlich nicht die Möglichkeit an Oszillator
sozusagen sich gegenseitig modulieren zu lassen, sondern
sozusagen sich gegenseitig modulieren zu lassen, sondern
das zeichnet den Hydrasynth so ein bisschen aus. Der verfolgt so ein bisschen ein anderes Konzept.
das zeichnet den Hydrasynth so ein bisschen aus. Der verfolgt so ein bisschen ein anderes Konzept.
Der arbeitet viel mit Mutatoren, heißen die
Der arbeitet viel mit Mutatoren, heißen die
bei dem. Das kann es bis zu 4 Mutatoren haben.
bei dem. Das kann es bis zu 4 Mutatoren haben.
Kann man auch übersetzen mit Modulatoren.
Kann man auch übersetzen mit Modulatoren.
Oder wenn du so willst auch mit Operatoren. Also ist eigentlich egal, wie du es
Oder wenn du so willst auch mit Operatoren. Also ist eigentlich egal, wie du es
nennst. Aber da versteckt sich dann
nennst. Aber da versteckt sich dann
die FM-Synthese und da kann es auch sehr schnell
die FM-Synthese und da kann es auch sehr schnell
sehr komplex werden, weil du dort nämlich auch noch zusätzlich die Möglichkeit
sehr komplex werden, weil du dort nämlich auch noch zusätzlich die Möglichkeit
bei jedem der Mutatoren
bei jedem der Mutatoren
von Feedback hast, was du auch dann wiederum in das Audiosignal
von Feedback hast, was du auch dann wiederum in das Audiosignal
mit einschleusen kannst, was zu teilweise sehr
mit einschleusen kannst, was zu teilweise sehr
unberechenbaren und sehr interessanten Klangergebnissen führen kann.
unberechenbaren und sehr interessanten Klangergebnissen führen kann.
Es gibt dazu auf YouTube ein Video von der Sarah Bell Reid.
Es gibt dazu auf YouTube ein Video von der Sarah Bell Reid.
Die hat sehr viel damit rum experimentiert.
Die hat sehr viel damit rum experimentiert.
Die ist
Die ist
Musikerin und Komponistin. Die macht vor allem
Musikerin und Komponistin. Die macht vor allem
für Theaterprojekte Musik. Und die hat
für Theaterprojekte Musik. Und die hat
den Hydra-Synth tatsächlich da wirklich mal in die Mangel genommen
den Hydra-Synth tatsächlich da wirklich mal in die Mangel genommen
und damit auch sogar ein Theaterstück
und damit auch sogar ein Theaterstück
mit seiner Hilfe unter anderem auch vertont.
mit seiner Hilfe unter anderem auch vertont.
Was gäbe es noch? Also die klassischen analogen Synthesizer
Was gäbe es noch? Also die klassischen analogen Synthesizer
die es so am Markt gibt. Ja da können ganz viele halt
die es so am Markt gibt. Ja da können ganz viele halt
ein einfaches, zwei Operatoren
ein einfaches, zwei Operatoren
oder halt ein Operator im FM-Syntheser.
oder halt ein Operator im FM-Syntheser.
Genau. Die Klaviers zum Beispiel
Genau. Die Klaviers zum Beispiel
die Klavier Nordleads, vor allem der Klavier Nordlead 3, der kann glaube ich
die Klavier Nordleads, vor allem der Klavier Nordlead 3, der kann glaube ich
zwei Operator FM oder vier
zwei Operator FM oder vier
Operator FM. Ich weiß es nicht. Ich weiß es nicht mehr. Das ist schon so lange her,
Operator FM. Ich weiß es nicht. Ich weiß es nicht mehr. Das ist schon so lange her,
dass ich den hatte. Aber da geht halt auch ein bisschen was mit Sachen FM.
dass ich den hatte. Aber da geht halt auch ein bisschen was mit Sachen FM.
Der SY22
Der SY22
SY22 33
SY22 33
und der 35. Du meinst den SY35?
und der 35. Du meinst den SY35?
Den 33 hat es nie gegeben. Das wäre dann die Desktop-Version der
Den 33 hat es nie gegeben. Das wäre dann die Desktop-Version der
TG33. Ja genau.
TG33. Ja genau.
Die können zwar sowas ähnliches wie FM, weil die
Die können zwar sowas ähnliches wie FM, weil die
halt FM-Samples drin haben, aber das ist so
halt FM-Samples drin haben, aber das ist so
ja so ein Zwischending. Aber
ja so ein Zwischending. Aber
damit kann man auch ein bisschen mit FM rum experimentieren.
damit kann man auch ein bisschen mit FM rum experimentieren.
Ich hatte vorhin noch einen Gedanken, den ich noch mal ausführen wollte.
Ich hatte vorhin noch einen Gedanken, den ich noch mal ausführen wollte.
Habe ich vergessen.
Habe ich vergessen.
Verdammt. Ich glaube wir haben eigentlich alles
Verdammt. Ich glaube wir haben eigentlich alles
dazu gesagt. Gäbe es aus Hobbysicht noch irgendetwas, was man
dazu gesagt. Gäbe es aus Hobbysicht noch irgendetwas, was man
dazu fragen könnte? Ja man könnte noch fragen, wie zum Teufel bändigt man
dazu fragen könnte? Ja man könnte noch fragen, wie zum Teufel bändigt man
FM-Synthese? Ich glaube das ist relativ schnell beantwortet, oder?
FM-Synthese? Ich glaube das ist relativ schnell beantwortet, oder?
Entweder versteht man sie oder man
Entweder versteht man sie oder man
versteht sie nicht. Das ist halt schwierig zu verstehen. Du hast halt die unterschiedlichen Algorithmen
versteht sie nicht. Das ist halt schwierig zu verstehen. Du hast halt die unterschiedlichen Algorithmen
und was du einfach machen musst, ist du musst einfach
und was du einfach machen musst, ist du musst einfach
Algorithmus für Algorithmus ausprobieren und ausprobieren
Algorithmus für Algorithmus ausprobieren und ausprobieren
und ausprobieren und ausprobieren. Wobei man ja sagen muss, je weniger
und ausprobieren und ausprobieren. Wobei man ja sagen muss, je weniger
Operatoren da sind, umso weniger Verknüpfungsmöglichkeiten gibt es.
Operatoren da sind, umso weniger Verknüpfungsmöglichkeiten gibt es.
Ja das ist richtig. Und man kriegt irgendwann mal ein Gefühl dafür,
Ja das ist richtig. Und man kriegt irgendwann mal ein Gefühl dafür,
wenn man halt auch umexperimentiert hat, welcher
wenn man halt auch umexperimentiert hat, welcher
Algorithmus oder welche Verschaltung der Operatoren zueinander
Algorithmus oder welche Verschaltung der Operatoren zueinander
ungefähr in die gewünschte Richtung gehen könnte.
ungefähr in die gewünschte Richtung gehen könnte.
Weil manchmal ist das so, du veränderst wirklich nur ein Parameter und das
Weil manchmal ist das so, du veränderst wirklich nur ein Parameter und das
hat eine drastische Auswirkung auf den Sound.
hat eine drastische Auswirkung auf den Sound.
Das ist definitiv so, ja.
Das ist definitiv so, ja.
Ich habe mich mal bei den Presets bedient,
Ich habe mich mal bei den Presets bedient,
weil bei dem Roland ist es so, dass man pro Oszillatormodell
weil bei dem Roland ist es so, dass man pro Oszillatormodell
auch Patches laden kann.
auch Patches laden kann.
Man hört schon, ich tippe hier auf der kleinen Knopftastatur von dem
Man hört schon, ich tippe hier auf der kleinen Knopftastatur von dem
Synthesizer rum, deswegen klingt das jetzt nicht besonders gut.
Synthesizer rum, deswegen klingt das jetzt nicht besonders gut.
Wenn ich eine richtige Tastatur unter den Fingern hätte, wäre ich wahrscheinlich Virtuoser.
Wenn ich eine richtige Tastatur unter den Fingern hätte, wäre ich wahrscheinlich Virtuoser.
Es kommt sogar ein bisschen Dynamik rein.
Es kommt sogar ein bisschen Dynamik rein.
Ihr hört, wenn ich so ein bisschen legato spiele,
Ihr hört, wenn ich so ein bisschen legato spiele,
dann wird es auch ein bisschen dynamischer.
dann wird es auch ein bisschen dynamischer.
Wenn ich so spiele...
Wenn ich so spiele...
Das macht auch so das Besondere von FM-Synthese aus.
Das macht auch so das Besondere von FM-Synthese aus.
Die Controller, über die wir mal gesprochen hatten
Die Controller, über die wir mal gesprochen hatten
in einer Sendung, hier das Haken-Kontinuum und
in einer Sendung, hier das Haken-Kontinuum und
das Osmose-Keyboard mit dieser
das Osmose-Keyboard mit dieser
Tastatur, die in viele verschiedene
Tastatur, die in viele verschiedene
Richtungen auch noch bewegt werden kann, jede einzelne Taste,
Richtungen auch noch bewegt werden kann, jede einzelne Taste,
ist alle auch sehr gut geeignet, um FM-Synthese
ist alle auch sehr gut geeignet, um FM-Synthese
zu steuern. Weil gerade mit FM-Synthese kann man
zu steuern. Weil gerade mit FM-Synthese kann man
sehr fein
sehr fein
und mit kleinsten Veränderungen sehr große
und mit kleinsten Veränderungen sehr große
hörbare Ergebnisse erzielen. Deswegen gibt es nämlich
hörbare Ergebnisse erzielen. Deswegen gibt es nämlich
eine Firma,
eine Firma,
deren Namen ich schon wieder vergessen habe. Non-Linear Labs
deren Namen ich schon wieder vergessen habe. Non-Linear Labs
das ist eine deutsche Firma, ist gegründet worden vor einigen
das ist eine deutsche Firma, ist gegründet worden vor einigen
Jahren von einem der Gründer von
Jahren von einem der Gründer von
Native Instruments. Der hat sich nämlich gesagt, ja scheiß hier auf die ganze
Native Instruments. Der hat sich nämlich gesagt, ja scheiß hier auf die ganze
Software, ich will ein richtiges Instrument bauen.
Software, ich will ein richtiges Instrument bauen.
Und der hat einen Synthesizer auf den Markt gebracht, einen FM-Synthesizer
Und der hat einen Synthesizer auf den Markt gebracht, einen FM-Synthesizer
der heißt C-15.
der heißt C-15.
Das Ding ist ein klassischer...
Das Ding ist ein klassischer...
hatte sogar am Anfang, als er auf den Markt kam, kein MIDI.
hatte sogar am Anfang, als er auf den Markt kam, kein MIDI.
Man konnte den nicht über MIDI steuern.
Man konnte den nicht über MIDI steuern.
Mittlerweile gibt es eine Erweiterungskarte für, also man kann den jetzt auch mit
Mittlerweile gibt es eine Erweiterungskarte für, also man kann den jetzt auch mit
MIDI steuern und so weiter. Und die Software ist dafür
MIDI steuern und so weiter. Und die Software ist dafür
jetzt auch angepasst. Aber das Ding hat tatsächlich
jetzt auch angepasst. Aber das Ding hat tatsächlich
Spielhilfen. Es gibt einen großen
Spielhilfen. Es gibt einen großen
Ribbon-Controller über der Tastatur und
Ribbon-Controller über der Tastatur und
ja, der spielt sich halt auch
ja, der spielt sich halt auch
sehr, sehr, sehr diffizil
sehr, sehr, sehr diffizil
wie so ein Klavier, könnte man schon sagen, wo ja auch
wie so ein Klavier, könnte man schon sagen, wo ja auch
mal zwei dauert, auch nur einen Klang, aber je nachdem wie du die Taste anschlägst,
mal zwei dauert, auch nur einen Klang, aber je nachdem wie du die Taste anschlägst,
reagiert er halt auch entsprechend dann auf den Tastendruck.
reagiert er halt auch entsprechend dann auf den Tastendruck.
Und das hat er versucht bei diesem Synthesizer halt auch umzusetzen.
Und das hat er versucht bei diesem Synthesizer halt auch umzusetzen.
Also der C-15 hat seine Fangemeinde, gibt viele
Also der C-15 hat seine Fangemeinde, gibt viele
Leute, die mögen den sehr gerne.
Leute, die mögen den sehr gerne.
Ist natürlich auch ein bisschen höherpreisig, aber das wäre so noch so der letzte Hardware-Tipp, den ich
Ist natürlich auch ein bisschen höherpreisig, aber das wäre so noch so der letzte Hardware-Tipp, den ich
abgeben könnte. Ansonsten gibt es halt im Software-Land
abgeben könnte. Ansonsten gibt es halt im Software-Land
auch eine große Menge. Ich glaube, wir sind durch, oder?
auch eine große Menge. Ich glaube, wir sind durch, oder?
Wir sind durch, definitiv. Hättest du noch was zu ergänzen?
Wir sind durch, definitiv. Hättest du noch was zu ergänzen?
Nee. Das Problem ist, wie gesagt,
Nee. Das Problem ist, wie gesagt,
es ist, wenn man es erklären will, entweder mit Bilder,
es ist, wenn man es erklären will, entweder mit Bilder,
dafür haben wir das schöne Video, oder halt
dafür haben wir das schöne Video, oder halt
mit der Sprache der Mathematik.
mit der Sprache der Mathematik.
Oder man muss es einfach hören.
Oder man muss es einfach hören.
FM-Synthese mag man oder man mag sie nicht.
FM-Synthese mag man oder man mag sie nicht.
Für mich ist sie halt ein tolles Experimentierfeld.
Für mich ist sie halt ein tolles Experimentierfeld.
In diesem Sinne
In diesem Sinne
schaltet auch beim nächsten Mal wieder ein,
schaltet auch beim nächsten Mal wieder ein,
wenn ihr den Sacha Sagen hören wollt.
wenn ihr den Sacha Sagen hören wollt.
Der Probe-Podcast. Ein gemütlicher Talk im Proberaum.
Der Probe-Podcast. Ein gemütlicher Talk im Proberaum.
Ich bedanke mich dafür, dass ihr da wart und
Ich bedanke mich dafür, dass ihr da wart und
würde mich freuen, wenn ihr auch das nächste Mal wieder dabei wärt.
würde mich freuen, wenn ihr auch das nächste Mal wieder dabei wärt.
Dann sage ich mal Tschüssi.
Dann sage ich mal Tschüssi.
[Musik]
[Musik]
[Musik]
[Musik]
[Musik]
[Musik]
[Musik]
[Musik]
[Musik]
[Musik]
[Musik]
[Musik]
[Musik]
[Musik]
[Musik]
[Musik]
[Musik]
[Musik]
[Musik]
[Musik]
[Musik]
[Musik]
[Musik]
[Musik]
[Musik]
[Musik]
[Musik]
[Musik]
[Musik]
[Musik]
Unterstützer erhalten Vorabzugang zum
Unterstützer erhalten Vorabzugang zum
Ruhschnitt der Podcastfolgen vor der eigentlichen Veröffentlichung.
Ruhschnitt der Podcastfolgen vor der eigentlichen Veröffentlichung.
Weitere exklusive Inhalte wie Vor- oder
Weitere exklusive Inhalte wie Vor- oder
Nachgespräche oder eine Art Tagebuch.
Nachgespräche oder eine Art Tagebuch.
Alle Informationen, wie man Unterstützer wird, findet ihr in den
Alle Informationen, wie man Unterstützer wird, findet ihr in den
Show Notes.
Show Notes.
Der Probe-Podcast.
Der Probe-Podcast.
Ein Podcast. Ein gemütlicher Talk im Proberaum.
Ein Podcast. Ein gemütlicher Talk im Proberaum.
[Musik]
[Musik]
[Musik]
[Musik]

Unterstützen:
Ihr könnt uns über Paypal direkt unterstützen oder über Steady oder über Patreon mit einem kleinen Mehrwert als Dankeschön.

Die spenden werden benötigt, um ein Teil der kosten für die Bereitstellung meiner werke, Podcast Blog texte sowie die Videos zu gewährleisten.

"Unterstützer erhalten vorab Zugriff auf die neusten Veröffentlichungen noch vor ihren regulären Erscheinen im Rohschnitt. Darüber hinaus gibt es exklusive Inhalte nur für die Unterstützer wie vor und nach Gesprächen sowie eine Art Tagebuch. Über folgende Dienste könnt ihr uns so unterstützen: Steady, Patreon und erhaltet Zugang zu den extra Inhalten."

Patreon Feed auf Spotify oder Steady Feed auf Spotfy



Zugehörige Episoden:
Feedback zur Ausgabe hinterlassen?
Dann schreib doch ein Kommentar

Audio Feedback zur Sendung?
Der Anrufbeantworter ist geschaltet. ☎ 0231 53075818

Specher:
avatar
Notstrom
avatar
Sascha

Anzal der Downloads: 251 /  Spieldauer: 0:59:41 /
Tag der Aufnahme: 12.09.23 /  Diese Folge stammt aus der Staffel 3, es gibt insgesam 4 Staffeln.

Eine LautFunk Publikationskartell Produktion - Wo Geschichten unüberhörbar übermittelt werden.


Podcast Lizenz:


Frequenzmodulation Synthese: Was ist die FM-Synthese

“Entdecke die faszinierende Welt der FM-Synthese: von klaren Glockenklängen bis hin zu komplexen, klangvollen Texturen. Tauche ein in die Musikproduktion und kreiere einzigartige Klänge mit Leichtigkeit.”

Das ist der begleitende Text-Beitrag zur Folge “Probe Podcast 62 FM Synthese

Erklärungsversuch der FM Synthese:

FM-Synthese: Eine umfassende Erklärung mit visuellen Elementen

FM-Synthese (Frequenzmodulationssynthese) ist eine beliebte Methode zur Klangerzeugung in der Musikproduktion. Sie basiert auf der Veränderung der Frequenz eines Trägersignals mithilfe eines Modulationssignals. Hier ist eine detaillierte Erklärung zusammen mit Diagrammen, um die Konzepte zu verdeutlichen.

„Frequenzmodulation Synthese: Was ist die FM-Synthese“ weiterlesen

Probe Podcast 62 Newsflash Oktober

Bitte hinterlasse ein Kommentar und ein Like

Viel passiert die letzten Tage. Die drei (inkl. einem davon direkt ausm Urlaub, verzeiht bitte, die mittelmäßige Audioqualität und die Nebengeräusche) gehen das Interessanteste davon durch.

Link Liste:

Akai APC64

https://www.gearnews.de/akai-apc64-ableton-live-controller-mit-step-sequencer-angecheckt-test/

1010Music Nanobox tangerine

Waldorf Iridium Core

Yamaha Montag M8x

https://de.yamaha.com/de/products/music_production/synthesizers/montagem/index.html

Yamaha ESP Software Plugins:

https://www.kvraudio.com/forum/viewtopic.php?t=602380

Endorphin.es Ghost und Golden Master (Andrew Huang Modul)

Cuckoo Synplant 2 Interview

Synplant 2 - Industry Game Changer

U-he Filterscape

https://u-he.com/products/filterscape/

Roland Gaia2

https://www.roland.com/de/products/gaia_2/

▶ Hier Klicken für das Tanscript:
Tanscript:

Hallo und willkommen zu einer neuen Ausgabe des Probe-Podcast.
Ich bin Sascha Markmann, auch bekannt als die Raumwelle und begrüße den lieben Tobi.
Hallo Tobi.
Hallo aus dem Ausland.
Und den Thomas.
Hallo Thomas.
Moin aus dem Herzen der Stadt, von Stadt Hamburg.
Ja, der Tobi ist im Ausland.
Aus unserer Sicht ist er im Inland.
Tobi, wo bist du?
Erzähl mal.
In Dresden tatsächlich.
Also schon ziemlich tiefbrauner Osten.
Was witzig ist, weil ich war bis gestern in Leipzig.
Und wenn man aus Hannover kommt und nach Leipzig läuft, weißt du, das erste, du siehst in
den ersten zehn Minuten noch aus dem Zugfenster eigentlich schon einen homosexuellen Kuss.
Davor siehst du halt in Hannover diese gleichgeschlechtlichen Ampelmännchen.
Weißt aber ganz genau, wenn du hier mit der Person gleichgeschlechtliches Händchen halt
über die Ampel laufen würdest, würdest du quasi an der anderen Straßenseite, ich
sag mal, kulturell bereichert.
Es ist ein sehr interessanter Kulturschock gewesen generell.
Also hier Aachen, so typische Studiestadt Dortmund, wo halt einfach gerade Fussi war.
Also so Gruß aus dem Polizeikessel am Hauptbahnhof.
Wer hat gespielt, BVB?
Irgendwie ging Berlin.
Nee, Köln war's gerade.
Ich hab noch keine Ahnung.
Rot-Weiß.
Rot-Weiß hat gegen Blau-Schwarz gespielt.
Nee, was?
Gelb-Schwarz.
Gelb-Schwarz.
Ja, und das Schöne ist, ich hab meinen alten Laptop dabei und der hat diesen schönen Aufkleber
auf dem Ampel-Logo.
Der ist leider auch gelb-schwarz.
Der hat nix mit Fußball zu tun, aber ich hab echt ein bisschen Angst bekommen im Zug.
Jetzt wissen wir, wie du es aus dem Kessel geschafft hast.
Einfach den Aufkleber hochhalten.
Lasst mich durch, ich bin auch Fan.
Lasst mich durch, ich bin Ausländer.
Ich hab nichts mit euch zu tun.
Ja, mir fallen so viele Witze ein jetzt.
Ich lass es lieber.
Wollen wir mal anfangen.
Wir haben gedacht, eigentlich wollten wir heute ein richtig geiles Thema machen.
Ich wollte was vorbereiten, aber aus privaten Gründen, die ich jetzt nicht näher ausführe,
das würde dann die Sendung sprengen, bin ich nicht dazu gekommen, mich vorzubereiten.
Ist auch okay.
Also mal so gar nicht vorzubereiten.
Da ist so viel passiert, alleine die letzten beiden Tage.
Ganz genau.
Das wollte ich nämlich sagen.
Wir haben aber, die Realität hat uns eingeholt, wir nehmen diese Sendung heute auf.
Und wenn wir die Sendung sozusagen online stellen, ist das wahrscheinlich schon für die meisten Leute,
das hören wahrscheinlich alle schon wieder kalter Kaffee.
Aber wir können ja einfach mal hier so quer über die Schlagzeilen lesen,
die relativ frisch sind und einfach mal unsere Meinung dazu abgeben,
wie wir das so einschätzen.
Falls das jemanden dann tatsächlich tangieren sollte.
Ihr könnt auch jetzt abschalten, egal wann ihr das jetzt hört.
Morgens, mittags, abends, beim Duschen, beim Staubsaugen.
Und dann vielleicht einfach sagen, nee, hab ich keinen Bock drauf.
Alte News, kalter Kaffee.
Oder wir steigen jetzt einfach ein.
Die sind ja maximal zwei Wochen alt.
Dann würden wir es online stellen.
Ja, solange wir die FM-Folge rauszögern, bis in alle Ewigkeit.
Ich hab die Nummern schon geändert.
Ich bin da ganz schnell.
Ja, mit was wollen wir anfangen?
Es war ja doch einiges los.
Wollen wir das Dumpster-Feier gleich zu Anfang machen?
Das was feiern?
Das Dumpster-Feier.
Also da, wo die Hütte gerade so richtig in Flammen steht.
Jetzt bin ich gespannt.
Minimal Audio.
Hat das jemand mitbekommen?
Nein, ich hab nicht mitbekommen.
Das war für Bude, ne?
Also der Cover-Web-Shred, da war heute Morgen noch zehn Seiten lang.
Jetzt sind es, glaube ich, 30.
Wow.
Naja, was haben sie gemacht?
Sie haben a) Pigments geklont und b) haben sie versucht,
das Ganze als Subscription-Model anzubieten.
Wir fliegen jetzt gerade wirklich überall die Scheiße um die Ohren.
Mehr ist da eigentlich nicht passiert.
Wir können die Waves-Folge vom April einspielen.
Du packst den Link einfach in den Slack.
Aber schön waren die ganzen Influencer, die gesagt haben,
ach, jetzt wo ihr es uns geschickt habt, ist es plötzlich Subscription.
Und die versuchen da gerade so ein bisschen sich rauszuretten und sagen,
nee, nee, das war immer Subscription, das ist mit unserem neuen Netzwerk da.
Das ist das Herzstück, etc. alles. Also bitte.
Und so weiter und so fort.
Das ist großartig.
Interessant ist ja auch, wie sie das Ding genannt haben.
"Current", also das ist eine Multi-Engine-Synth-Plugin, sagt hier die News.
Die Patschlein war halt, dass sie in dieser ganzen Nummer,
mal abgesehen davon, die Lizenz ist "Not for Resale" und hat nicht mal eine Demo.
Na gut, ist auch eine Subscription.
Sie wichsen sich gerade darauf ein, dass es so viele Leute wie noch nie gedownloadet hätten.
Das ist kein Wunder, wenn du bei deinen anderen Plugins auch keine Demo hast,
die übrigens alle ziemlich gut sind. Darum geht es gar nicht.
Aber ja, wo war ich? Ich bin gerade auf der Webseite.
Der Witz ist offenbar, dass sie ihren Sound,
ihren Sounds-Cloud-Connection-Content-Browser "to stream" eingebunden haben.
Der wird ständig mit weiteren Sachen befüllt.
Du hast einen Bastelsynthesizer mit "Patches as a Service".
Das Internet ist gerade "not so really amused".
Um das jetzt nochmal auszuführen, Minimal Audio haben diesen neuen Software-Synthesizer vorgestellt,
der quasi so, ich will nicht sagen identisch, aber er hat halt hier so die Standard,
ja was heißt Standard, der hat halt verschiedene Synthesimodelle,
Granularsynthese, Sampling, Virtual Analog, Wavetables und so weiter.
Was man halt auch bei den Mitbewerbern findet, hier bei UVI, Falcon oder im Pigments 2.
Oder was gibt es noch? Gabs noch einen mehr? Omnisphere.
Omnisphere hat auch so einiges.
Richtig. Und das Ding verkaufen sie halt nicht.
Die anderen nehmen halt einen Betrag und dann kann man das Ding halt benutzen bis in alle Ewigkeit.
Minimal Audio hat halt ein Subscription-Modell jetzt damit quasi,
haben das unter einer Subscription-Modell veröffentlicht,
wo man das für 15 Dollar pro Monat oder 120 Dollar im Jahr, das wären dann 10 Dollar pro Monat,
sozusagen endlos mieten kann. Also solange wie man es benutzt, kann man es halt auch bezahlen.
Eigentlich ist die Idee ja gar nicht so schlecht.
Eigentlich?
Ja, weil überleg mal, du lädst dir so ein Plugin runter, wie lange benutzt es dann?
Bis in alle Ewigkeit? Nee, brauchst das vielleicht mal so für drei, vier, fünf Projekte,
dann packst du das Ding beiseite. Musst halt nur rechtzeitig daran denken zu kündigen.
Zumal die das eigentlich ziemlich clever gelöst haben.
Sondern wenn du das Abo abbestellst, lockst du nur die Oberfläche.
Die Engine bleibt weiter am Laufen.
Das heißt, deine alten Projekte laufen auch mit einer nicht-subscribed-Distance.
Also du kannst sie neu rendern und so weiter, aber kannst halt nicht mehr viel mitmachen.
Daran haben sie gedacht, was ich eigentlich auch eine gute Idee finde.
Das Problem war aber, und deswegen ist gerade alles in Flammen,
die haben das den Influencern nicht gesagt.
Die haben den Influencern eine NFA geschickt, haben gesagt, ja gut, demont mal für uns.
Dann ist die NDA gefallen, alle Videos sind raus und innerhalb von einer halben Stunde
merkst du, dass halbe Internet scheiße. Das ist ein Sub. Inklusive den Influencern.
Das war aber nirgendwo in den Videos.
Das tut natürlich weh.
Und wenn dann so ein Ben Jordan kommt, der so einen Tweet raushaut mit lauter Clap-Emojis.
Meinst du nicht, dass das Absicht war?
Ja, natürlich war das Absicht.
Ja, positive und negative Presse ist Presse.
Ja, das funktioniert nur leider nicht gerade.
Das Interessante an der Sache ist, dass dieses Konzept 2014,
da ist jemand auf mich zugekommen und der hat mich gefragt,
ob ich da Sounds für seinen City Sizer mit basteln will und auch so Ideen mit reinfließen.
Der hatte damals schon die Idee für sowas gehabt.
Vor allen Dingen auch das mit den Sounds aus dem Internet nachladen und so weiter und so fort.
Interessant. Vielleicht hängt er ja auch damit drin.
Spannend, ja.
Schauen wir mal, wie sich die ganze Geschichte entwickelt.
Wie gesagt, Waves haben wir auch nicht innerhalb der ersten paar Tage gemacht.
Da war bis zum Release unserer Folge dann auch wieder zum Glück nicht alles anders.
Wir waren sehr nah am folgenden Release, aber schon ein paar Tage nach der ganzen Sauce.
Im Moment sieht es aus wie ein Double Down, aber mal schauen, wie sich das weiterentwickelt.
Bis dahin verbleibe ich mit diesem wunderschönen Forenpost, den ich euch gerade ins Leck geschmissen habe.
Ich frage mich, ob sich das wirtschaftlich wirklich lohnt, so ein Subscription-Modell zu machen.
Wenn man sich bei anderen Softwarefirmen umschaut, die Audio-Software herstellen,
ist das nicht so verbreitet.
Das ist auch eine andere Hausnummer.
Bei R-EFX kannst du den Nexus oder den Nachfolger vom Nexus?
Nexus 4?
Auf jeden Fall eins von den beiden.
Vanguard ist ja kein Nachfolger.
Kannst du auch Mietkaufen?
Ja, das kannst du ja über einen Tütenorten.
Nicht nur über einen Anbieter, sondern direkt beim Hersteller.
Die Idee ist ja gar nicht so schlecht.
Du bezahlst dann jeden Monat einen gewissen kleinen Betrag und irgendwann mal gehört das Ding komplett dir.
Deswegen haben ja auch alle Serum, weil du den für neun im Monat Mietkaufen kannst.
Nach zweieinhalb Jahren ist er dir.
Das ist wirklich eine super Lösung.
Ich kann mir auch gut vorstellen, dass Minimal Audio...
Das ist jetzt aber nur für den Current, oder?
Das ist jetzt nicht für alle Produkte?
Nein, der Rest ist nach wie vor kaufbar.
Dann probieren Sie es jetzt mal aus, um zu sehen.
Sie testen sozusagen New Ground.
Wie sieht das aus? Wie nehmen die Leute das auf?
Nicht sonderlich gut, wie es gerade aussieht.
Wahrscheinlich kannst du dich da nicht mehr dran erinnern, aber Sascha kann sich bestimmt auch daran erinnern,
wie Valve damals mit Steam auf den Markt gekommen ist.
Kannst du dich noch erinnern?
Ja.
Das gab ja einen Shitstorm.
Die Leute haben sich aufgeregt darüber, dass man da die Software online registrieren muss.
Und teilweise gab es die Spiele auch nicht so, sondern da hast du sie dann auch sozusagen halt nur gemietet oder so.
Heute geht da kein Hahn mehr nach.
Die ganze Gaming-Community akzeptiert das einfach so und das ist gang und gäbe.
Das findet hier auch so langsam statt.
Ich kann mir gut vorstellen, dass sich die etwas größeren Firmen das alles angucken.
Ich denke mir, dass solche Sachen, diese Subscription-Modelle,
sich immer für professionelle Musiker lohnen, die dann Gewerbe haben und dann ihre Sachen absetzen können.
Und dann hier mal ein paar Euro und da ein paar Euro, das leppert sich nicht mehr auf der Zeit.
Und als Privatmann kannst du besser hingehen, einmal 300 Euro ausgeben und dann hast du da so einen fetten Synthesizer stehen.
Guck mal rüber in den Foto-Bereich.
Adobe hat alles auf dieses Mietmodell umgestellt.
Oder Microsoft.
Du kannst Microsoft Office Produkte nicht mehr kaufen.
Genau.
Das ist alles nur noch 360.
Alles nur noch 365, das heißt, du kannst es nur noch für ein Jahr sozusagen mieten.
Aber das ist halt Branchenstandard.
Das ist halt der Punkt.
Ich glaube, Minimal Audio glaubt an der Stelle, sie seien Native Instruments kein gutes Beispiel mehr.
Ich glaube nicht, dass die irgendwas glauben.
Wie gesagt, ich glaube, die probieren es aus.
Die wollen einfach mal testen, wie kommt es an, kann man die Leute daran gewöhnen.
Das nennt man glaube ich, ich weiß nicht, ob das auch im Marketing benutzt wird, aber es gibt ja diesen Begriff des Nudging.
So anstupsen.
Das ist so ein bisschen das, wir pushen mal, wir stupsen unsere Käufer, unsere Kunden einfach mal so in Richtung Mietmodell.
Mal sehen, ob das gelingt.
Das machen sie halt mit so einem Produkt.
Ja, 20 Seiten KVM an einem Tag.
Das scheint zu funktionieren.
Lass die Leute sich dran gewöhnen und mal schauen, wie es in einer Woche aussieht.
Arcai.
APC64. Ableton Live Controller mit Sequencer.
Sexy.
Sieht sexy aus.
Sieht so ein bisschen aus, als hätte eine Ableton Push Spaß gehabt mit Innovation Launchpad.
Ja, es ist ein Launchpad mit ein paar angeflanschten Touchslidern.
Ja, acht Stück insgesamt, mit acht Touchstrips, mit Touchfeldern, mit Mini-OLED und dann halt mit diesen berühmten RGB-Pads.
Ja, aber diese Mini-OLED-Sache ist ja mittlerweile eine Seuche in der ganzen Branche.
Ich finde es gut.
Was ich nicht verstanden habe, warum der Step-Sequencer, der da eingebaut ist, ich glaube mit acht Spuren oder sieben Spuren?
Die wollen einfach, weißt du, das Launchpad Pro kann das ja auch.
Das ist ja der absolute, also Push ist jetzt eine andere Liga mit dem Standalone,
vorher war das quasi der Witz, dass du mit dem Launchpad Pro eigentlich den Launchpad-Workflow aus der Büchse rein in die Modular- und Analogwelt, also auf den dolles Tapetiertisch.
Und ich glaube, da will Arcai jetzt auch hin.
Und ich glaube auch, dass Squid Pyramid, also Squid, wie heißt er, Pioneer, war das Pioneer?
Mit denjenigen, die auch den Teurats gemacht haben.
Die haben ja mit dem Squid auch eine Sequenz. Ich glaube, da will Arcai jetzt so ein bisschen hin.
Ich finde es mutig, weil es ist im Grunde genommen die alte Push-Bedienung aus dem Einser, der damals mit Arcai zusammenentwickelt wurde,
adaptiert rüber auf den eigentlich, also ganz ehrlich, als ich das Ding gesehen habe…
Er sieht auch so aus, also er sieht wirklich aus wie Push 1, muss ich auch sagen.
Ja, fehlt eigentlich nur noch die beiden oberen Reihen an diesem ganz flachen, schmalen Taster.
Ne, was ich sagen wollte, ist… Also ich habe es gesehen und habe gedacht, das wäre was neben die APC.
Ich habe ja momentan das Launchpad Pro im K3 und es reizt mich, es reizt mich von der Idee her.
Brauchst du die Features? Brauchst du acht Touch-Strips?
Also ganz ehrlich, gerade für so Device-Scheiß, mit dem Scatter drauf, Stutters, Delays und so…
Ja, das fängt schon an.
Natürlich, ich reiße das Ding aus den Händen. Ich bin gerade am überlegen, ob ich mir einen Midi-Fighter-Twist dazu hole,
weil mir acht Knöpfe für so Endless-Device-Control-Geschichten für Instrument-Tracks…
Ich muss halt immer umschalten, das geht schon, aber ich überlege mir da gerade andere Dinge zusammenzubauen.
Drehregler, keine Encoder.
Ja, brauchst du ja nicht, das ist auf der APC.
Den kannst du dir daneben stellen. Was ich interessant finde, ist, dass alles als Klink herausgeführt ist,
selbst die Midi-Ein- und Ausgänge.
Ja, das ist die alte CV-Out, acht CV-Ausgänge.
Aber die CV-Ausgänge.
Ja.
Damit du Modularkramen und so weiter steuern kannst. Das ist natürlich schon sexy.
Das ist natürlich eher so, wie sagt man, der unique selling point, die USP, gegenüber dem Push und auch dem Launchpad.
Ja, eben. Also acht Spuren, wenn das gut integriert ist, frisst das das Launchpad Pro mit links.
Zumal die nämlich ihre Pattern-Training-Technik direkt aus dem Push mitgenommen haben, was Novation nicht konnte.
Aber sie haben nur 32 Steps pro Track.
Ja, aber du kannst direkt auf der Matrix weiter unten trainen. Das ist der Punkt.
Das geht halt. Das können andere nicht. Das war halt so der Punkt.
Weil bei Novation kannst du natürlich die Patterns auch zusammen trainen, aber du musst raus.
Du musst quasi in ein anderes Pad. Und bei Novation kannst du das direkt in der Matrix machen.
Übrigens, das Arcai ist beheimatet bei InMusic. Und was hat InMusic vor kurzem gekauft?
Genau, Moog. Also mal abwarten, was da noch so kommt.
Was ich noch sagen wollte…
Man kann den Booms jetzt direkt vor ein paar Modder32 und Subharmonikas stellen und die quasi direkt steuern.
Das stimmt. Jetzt wo du es sagst…
Also die schreiben ja hier unten beim Stepsequencer und Standalone-Modus, dass das Ding halt acht Tracks hat,
mit einer Länge bis zu 32 Steps pro Pattern.
Gut, darüber hat man sich vor Jahren aufgeregt. Und heutzutage waren ja 64 oder noch mehr eher eigentlich Standard.
Aber ist doch egal. Hauptsache, du kannst dann auch hingehen und kannst mal neben MIDI-Sachen aber auch dein analoges Gear antreiben.
Erstens kannst du 16 mal 32 zusammenchainen auf der einen Page. Das geht.
Und auf der anderen Seite, wie gesagt, das setzt sich insofern ab.
Das ist ja beim MPD232 genau schon so. Die haben da einen Drumsequencer reingebaut, der richtig gut integriert war.
Ich glaube, in die Richtung geht es jetzt auch hier.
Weißt du, wenn das jetzt ein Ableton-Controller gewesen wäre, hätte ich gesagt, gerade aus den Preisen, das ist ein Witz.
Aber das ist tatsächlich ein sehr universelles Ding. Wenn die Software gut ist, dann ja bitte.
Das Einzige, was ich ein bisschen Angst davor habe, ist, dass sie damit jetzt die APC40 beerben wollen.
Scheint mir aber eigentlich im Gegensatz zu vielen Angst-Kommentaren auf YouTube nicht der Fall.
Ich glaube, da wird sogar noch ein größeres Modell kommen, das dann vielleicht die Pads übernimmt und so ein bisschen die Oberfläche modernisiert.
Aber das ist ein anderer Gedanke. Es heißt ja auch nicht APC40 MK3, sondern APC64.
Bei KIA News schreiben sie ja bei den Pros natürlich, toll, toll, toll, hier die MIDI-Ausgänge, die CV-Ausgänge, Standalone-Betriebe und so weiter.
Aber bei den Contra steht, die Einbindung des Step-Sequencers in Ableton Live ist nicht besonders gut gelungen.
Und dann regen sie sich noch auf, dass die Beschriftungen bei ungünstigen Lichtverhältnissen sehr schlecht zu lesen sind
und dass die Positionierung der Play-, Recording- und Stop-Buttons nicht ganz gut ist.
Schwierig finde ich halt, dass der Step-Sequencer in Ableton nicht gut einzubinden ist.
Also ich weiß nicht, ich finde das nicht so dramatisch.
Ja, da muss man halt gucken.
Da muss man das Ding einfach mal ausprobieren.
Genau, da muss man gucken, wie es ist.
Also ich kann mir das gut vorstellen, dass man das auch für, zum Steuern von Software-Synthesizers auf jeden Fall auch wahrscheinlich, mit Touch-Strips.
Aber ihr hattet ja schon gesagt, so für DJs, für DJing, macht Sinn.
Ja, auch für Live-Performance, wenn du in so einem Club bist und ein paar Sachen abfeuern willst und so.
Das Ding hat auch einige Modis, um Tasten reinzuhämmern und Töne, Akkorde.
Also ich bin mit den Dingern noch nie so wirklich warm geworden, weil ich hatte da relativ wenig Berührung.
Aber wenn ich mir anschaue, was Tobi da so macht in seinen Live-Sessions, das ist schon beeindruckend, was er da alles machen kann.
Du hast ja auch diese chromatische Klavitur da drauf, also Tastatur, und da kannst du schöne Sachen mit machen.
Ich kann es auch so sagen, dass das Regal, wo ja in den meisten Champs das Lord of the Pro drauf liegt, ich hab's gestern schon, glaube ich, mal Slack-intern angeteasert,
ich hab als ich, also das Regal ist ja schon länger immer so eine Frage.
Ich bin ja so ein bisschen gespannt drauf auf diesen französischen Boutique-Touch-Controller, den Embodmi Aira.
Den werde ich mir wahrscheinlich bei genügend Geld und Wahnsinn mir den leisten zu wollen auch mal irgendwann zulegen.
Einfach auch, weil der hat auch ein Drum Pad sein kann und hat einfach so eine komplette Oberfläche aus LEDs und quasi Matrix-Displays.
Aber ich sehe auf diesem Kallax, zumindest ist es auch testweise, dieses neue Teil von Archi.
Also ich bin da echt gespannt drauf, was das Ding könnte.
Es ist jetzt nicht so, dass das Launchpad schlecht wäre, aber ich bin da durchaus so ein bisschen angefixt, weil ich mag solche Konzepte.
Hauptsache bunt, oder?
Ja, nee, Hauptsache inspiriert.
Also ich bin mit meiner APC40, ich bin mit dem eigentlich ganz glücklich.
Ja, ich auch, aber das ist ein völlig anderes Konzept.
Ich sage immer nur, man braucht eine Menge LSD.
Ist das nicht LCD?
Nee, der 40er ist ja Mixer, Launcher und Device-Controller.
Das hier ist jetzt ein Note-Input-Gerät, die 40er kann ja nicht mal Noten reingeben.
Ja, ich weiß.
Das ist ein völlig anderes Bier.
Dafür habe ich aber einen Keystep für die Noteneingabe.
Ich habe auch genügend Dinge für die Noteneingabe, so ist es ja nicht.
Das Konzept als abgespeckter Push finde ich, ich mag es ganz ehrlich.
Und ich glaube auch, dass sich da einiges rausholen lässt.
Also ich glaube, sollte ich mal wieder Kohle haben, könnte ich mir den durchaus mal zum Testen vorstellen.
Also ich kann mir das Ding wirklich vorstellen, wenn du so ein bisschen analoge Geräte so außerhalb hast,
dann hast du halt eine Klaviatur, um halt ein paar Akkorde rein zu pfeffern.
Und du benutzt das Ding, wenn du unterwegs bist, auch generell für Live-Sessions oder sowas.
Da kann ich mir das Ding so richtig gut vorstellen.
Ja, und das ist nämlich genau der Punkt.
Du kannst den Launchpad-Workflow, den Push-Workflow, kannst du dir im Prinzip so auf die analoge Welt übertragen.
Ich frage mich, ob sie es APC nennen müssen, weißt du?
Hätten sie das Ding, also gut, der Fire ging ja auch nicht, weil das halt, gut, Floaty Loops und so,
oder die machen eher als mit der Maus.
Was heißt APC, wofür steht das?
Ableton Production Center, glaube ich. Ja, möglich, möglich.
MPC steht für Music Production Center.
MPC, meinst du das?
Ich weiß es nicht.
Ja, whatever. Also, ich glaube, die haben da schon, mit dem Standalone haben die echt einen guten Riecher.
Ich hoffe einfach, dass das jetzt nicht die ganze Influencer-Brigade erwischt,
die einfach quasi nur so, weißt du, so oberflächlich wie den Push 3, oder?
So nach dem Motto, hier das und hier jenes, danke Ableton, ich hab abgeliefert, gib Geld her.
Ich glaube, das ist jetzt wieder so ein Gerät, wie auch die MPDs damals,
wobei das ja noch ganz andere Zeiten waren, vor neun Jahren, glaube ich.
Oder auch die, weißt du, ich hab immer so das Gefühl, dass da der Influencer-Kram geht hin
und versaut dir dann so ein bisschen das Gerät, weil er halt einfach das macht, was er halt immer macht
und damit gar nicht so die Stärken dieser Dinge wirklich ausspielt.
Die Angst hab ich ein bisschen. Aber das bin jetzt wieder mal ich.
Wollen wir denn mal zu anderen Früchtchen kommen?
Du meinst den Sempler für die Hosentasche?
Ja, den Sempler für die Hosentasche.
Tenten Music hat zum Tenten Day aufgerufen und hat am 10. Oktober ein weiteres Gerät
ihrer Nano-Box-Serie vorgestellt. Nennt sich Nano-Box Tangerine.
Ob man damit jetzt auch Tangerine Dream Musik machen kann, weiß ich nicht,
aber es soll ein vollwertiger Sempler sein, im Taschenformat.
Wie findet ihr die Kiste? 24-stimmig, 576 Samples, direkt von der Micro-SD-Karte kann das Ding streamen.
Ist aber halt ein winziges Plastikteilchen, also wirklich klein, Handflächen groß,
mit zwei Reglern oben drauf und vier Buttons. Wäre das was für euch?
Touch Display?
Wo fang ich an?
Bei der knalligen Farbe. Ich mag Orange.
Ja, also ich auch. Das ist nicht der Punkt.
Die haben noch andere Produkte. Der Fireball ist ja auch so knatschrot und der Ratzmatz,
oh Gott, was für ein Wort, Ratzmatz, so ein FM-Synthesizer.
Der ist in so einer lila Farbe. Die haben schon knallige Farben.
Das ist Pink.
Für Pink ist es ein bisschen zu rosé.
Es ist das Pink, wie man sich…
Barbie Pink.
Ach ja, die haben noch Lemon Drop.
Ja, das ist der Wave Table.
Der Lemon Drop ist der Granulare.
Der Fireball war der Wave Table und der Ratzmatz war eine FM-Groovebox.
Ich sag's mal so, jetzt haben sie noch einen Sampler gebaut.
Sorry fürs Delay, ich gehe auch hier über diesen super unzuverlässigen Mobilfunk.
Aber ist okay.
Ich habe, als ich noch einen Innovation Circuit besessen habe, im Wahnsinn,
ich müsste jetzt unbedingt mit Hardware-Grooveboxen und alles arbeiten,
habe ich tatsächlich ein bisschen drüber nachgedacht, mir den Lemon Drop und den Fireball,
es waren damals nur zwei, zu holen.
Um quasi auf den beiden MIDI-Spuren, die der Circuit ja hat,
also der Tracks, der aktuelle, der schwarze,
diese quasi anzusteuern. Einfach an eine Powerbank klemmen und dann…
ja, whatever.
Quasi ansteuern über den Circuit.
Das Projekt ist ein bisschen gescheitert, dass die Teile alle 400 irgendwas kosten.
Ja, 50.
Bis ich dann für ungefähr die Hälfte auf Roland Boutiques unterwegs war für dieses Projekt.
Hat nie so wirklich funktioniert.
Ich habe inzwischen auch alles dieser Hardware-Company wieder verkauft.
Aber der Gedanke reizt mich nach wie vor.
Und jetzt, wo es ja auch mehr sind, also du hast einen Sampler, du hast eine Drum Machine,
du hast den Granularen und du hast den Roten.
Erstens mal ist das ein super…
Also für mich ist es ein super Signal, dass sie die kleine Serie weiter pflegen,
dass das nicht nur so ein Gimmick ist, sondern dass es wirklich auch der Versuch ist,
auf diesem ganz kleinen Format wirklich, wirklich wahnsinnig potente Geräte zu bauen.
Und das ist das andere.
Ich glaube, ich könnte jetzt vier davon kaufen und quasi ans Launchpad hängen
und hätte eigentlich damit einen Sequencer oder eben die neue APC64.
Und du könntest damit jetzt eigentlich einen kompletten Gig fahren.
Aber halt einen Gig quasi aus der Umhängetasche.
Weil das… genau, du brauchst eigentlich nur eine Ansteuerung.
Ja gut, du kannst es auch auf dem Mikrodisplay noch ein bisschen rumtatschen, aber…
Was ich total unnötig finde, ist einfach, dass das Klavier, was sie mitliefern,
1,7 Gigabyte groß ist und ansonsten 4 Gigabyte an Samples, Loops und andere Sachen.
Also dass fast die Hälfte davon allein nur das Klavier braucht.
Also mir ist aufgefallen, dass wenn man sich durch die Synthesizer-Nerd-Szene auf YouTube klickt
und sich da so ein paar Videos anguckt, man findet also diesen Lemon Drop.
Den findet man durchaus ab und zu mal.
Also dass Leute den da einfach mit so nebenbei hingestellt haben
und damit auch dann konkret halt Musik machen.
Also der Lemon Drop zumindest, das scheint durchaus, ich will nicht sagen Verkaufsschlag,
aber die Leute benutzen das, weil es halt so klein ist und praktisch.
Die Eurorack-Module von denen, die sehe ich öfters mal irgendwie in so Live-Sessions und Sachen.
Ja, wollte ich gerade sagen.
Man könnte auch statt sich hier für jeweils 400 oder 450 Euro so ein kleines Desktop-Schächtelchen dahin zu stellen,
kann man natürlich auch einfach sich die Module nehmen und in ein großes oder mehr oder weniger großes Case schrauben.
Da hat man dann zwar nicht alles, aber doch dann auch noch mehr Funktionen
und du kannst halt auch noch andere Sachen mit dazu machen,
weil die sind ja doch von den Anschlüssen her relativ begrenzt.
Das wäre so mein Kritikpunkt, dass die so anschlusstechnisch,
ist halt dem Format geschuldet.
Du hast MIDI ausgeführt, In-Out als Mini-Klinke, es gibt einen Clock-Eingang
und dann gibt es noch einen Line-Input und einen Output.
So, aber das nur als Single ausgeführt und da musst du dann wieder so mit Kabelpeitschen arbeiten.
Und USB-C natürlich.
Aber es ist eine witzige Idee und wenn man sich die anderen Produkte bei dem man anschaut,
die so ein Portfolio haben, dann ist das eine schöne Auskopplung von den normalen Produkten, die sie haben.
Ja, auf jeden Fall.
Bitbox und Co. Ja, definitiv.
Also ich habe auch schon gelesen, warum jetzt der Kleine, wenn es auch die Blackbox gibt.
Stimmt natürlich, aber ich finde eigentlich, dass Blackbox-Know-How in kleinen Gehäusen,
das ist so die Art und Weise, wie ich finde, so machen es die Leute richtig.
Anstatt, dass du halt wirklich die Teile einfach abspeckst bis zum Geht-Nicht-Mehr und dann für 250 raushaust.
Ich wünschte mir, Apple hätte das gemacht, weißt du?
Apple hat das iPhone Mini radikal abgespeckt und sich dann gewundert, warum es niemand kauft.
Ja, wenn du neben dran das Pro hast und das einfach sehr viel mehr kann.
Und ich glaube, dass gerade das Sentinel Music das eben nicht nötig hat.
Das finde ich, das macht es zu stark.
Aber es hat natürlich auch seine Preise.
Ja, ist halt ein Boutique-Hersteller, die können natürlich auch nicht diese großen Stückzahlen auffahren, ist klar.
Wir wünschen ihm viel Erfolg, ich bin gespannt.
Ich mag aber die Farben.
Die sind echt knallig.
Die Farben sind super.
Echt knallig.
Man braucht eine Menge LSD.
Apropos Substanzen.
Iridium.
Ach, den Iridium-Kern.
Genau, wir hatten den lieben Kollegen von Waldorf, den Chefin Rolf, zu Gast im Interview.
Wir hatten ihn ja auch ausführlich über die Entstehungsgeschichte von Waldorf und
wir haben auch ein bisschen über den Iridium geplaudert.
Waldorf hat sich den Iridium jetzt verkleinert, aber sie haben nicht an der Synthese gespart,
sie haben nur an der Stimmanzahl gespart.
Also statt 24 Stimmen hat das Ding dann halt nur 12.
Und haben den Iridium in ein kleines Gehäuse gesteckt, haben das ganze Iridium-Core genannt.
Wenn man sich das Gehäuse anschaut, sieht man, dass es so ein kleines Herzchen ist.
Deswegen haben die Kollegen von sequencer.de - Quatsch, nicht sequencer.de, von sequencer.talk,
deswegen haben sie auch von Hardcore gesprochen.
Also die haben sozusagen den Iridium-Kern, Synthese-Kern genommen und haben das in ein
kleineres Gehäuse gesteckt.
Was fehlt, sind die Bedienelemente, um halt sämtliche Synthese-Parameter, die es so gibt,
halt direkt drauf zuzugreifen.
Aber dann wirst du halt über Deep Menü surfen.
So deep ist das gar nicht bei dem.
Ich hab ja den Iridium im Desktop-Format.
Und du kannst im Grunde genommen alles über die Encoder, die links und rechts vom Display sind,
und jetzt haben sie auch noch welche unter das Display direkt gemacht,
und mit dem Display selber und mit den Buttons, die du oben hast.
Das ist ja so ein bisschen vom Blowfeld übernommen.
Da hast du extra Buttons, diese Matrix-Steuerung, da kannst du die Oszillatoren direkt anwählen,
kriegst dann sofort auf dem Touch-Display die ganzen Parameter angezeigt und hast so
relativ schnell Zugriff auf alle Synthese-Parameter.
Das ist jetzt nicht so direkt, okay, ich dreh mal eben hier einen Cut-Off auf oder
verändere eine von den Ölkurven.
Ist klar, aber es geht, sag ich mal.
Also was die haben definitiv, und da haben die drüber nachgedacht,
die haben neben der USB-Verbindung zum Computer, haben die nämlich auch einen USB-Stecker,
da steht Controller drüber.
Du kannst dann nämlich deinen Standard-Midi-Controller dran stöpseln
und dann hast du wesentlich mehr Bedienelemente.
Das hat der reguläre i-Radiomautor schon auch, oder?
Ja klar, klar haben die das.
Aber da brauchst du es nicht unbedingt.
Genau, also wenn du dann halt besser auf die Sachen zugreifen willst, kannst du es natürlich nutzen.
Das ist total sexy gemacht, das Ding sieht gut aus.
Das ist definitiv so. Ist der VESA-Mount noch dran?
Das weiß man nicht, man hat das Gerät noch nicht von unten gesehen.
Ich könnte mir aber gut vorstellen, dass Waldorf den VESA-Mount drangelassen hat,
weil das war nämlich ziemlich sexy.
Genau, das ist nämlich genau der Punkt, weil so am VESA-Mount so ein volles i-Radiom einfliegen zu lassen,
wie viele Höheneinheiten hat der? Sieben oder so?
Das habe ich bei einigen Studios schon gesehen, wenn du den jetzt quasi noch auf drei Höheneinheiten einfliegen lassen kannst.
Warte, das Ding ist halt Desktop-Gehäuse und ist so groß wie ein Elektronen-Digitakt.
Ungefähr, ein bisschen größer noch.
Also der Hardcore jetzt?
Ja, der ist ein bisschen größer wie halt von einem Elektronen hier, dieser analog und so.
Ja, der ist ungefähr so groß wie ein Octatrack.
Genau, der Digitakt ist ja quadratisch.
Nee, ich meine schon so ein Octatrack.
Das Ding am VESA-Mount einfliegen zu lassen mit den grafischen Oberflächen,
weil das Display ist ja noch voller Röhre da,
ich glaube, in gewissen Konstellationen könnte es ein echt guter Schachzug sein.
Ich habe das Ding sogar schon auf meinem Live-Brett gesehen.
Also das Display ist das gleiche Display wie mit dem großen drinnen
und das hat 1024 mal 600 Pixel und das ist Touch.
Also da haben sie nichts geändert.
Und das finde ich gut, das ist schön.
Jetzt hat der Bums Virusgröße und ich glaube, das könnte ihm echt nochmal einen Schuss verschaffen.
Wenn er nicht halt irgendwie gerade Straße nur 300 weniger wäre als der volle Iridium.
Das ist, glaube ich, sein Grössensproblem.
Also der wiegt 2,2 Kilo, ne?
Ja, du bezahlst natürlich bei so einem Synthesizer auch nicht nur die reine Hardware,
sondern du bezahlst auch die Software, du bezahlst auch den Support und so weiter.
Und das ist Waldorf baut halt Premium-Geräte.
Das haben sie schon immer.
Und man muss ja, wenn du Waldorf Sound willst, du musst ja keine jetzt hier aufgerufene 1849
beziehungsweise 1949 Euro ausgeben für den Iridium Core.
Du kannst auch zu den anderen Geräten greifen und hast immer noch den Waldorf Sound.
So ein Blofeld wird ja nicht schlechter.
Und ich meine, guck dir das Ding an, seit wann verkaufen sie den?
Seit 15 Jahren?
Seit 12 Jahren?
Das ist schon eine Erfolgsgeschichte für sich, ne?
Also Blofeld kriegt man jede Menge auch für relativ wenig Geld schon.
Also wer wirklich dann nicht so viel Geld hat, aber auch Waldorf Sound möchte,
kann sich dann bei Blofeld auch bedienen.
Es gibt viele Möglichkeiten.
Und mal davon abgesehen, der Waldorf Naive fürs iPad ist ja im Kern her,
der Iridium basiert ja darauf.
Es sind nicht drei Oszillatoren, sondern glaube ich nur zwei Oszillatoren.
Aber so diese Wavetable-Synthese, die im Iridium drin steckt, mit drei Oszillatoren,
das ist Waldorf Naive-Technik und Sound.
Also die liefern diese üblichen Sachen mit, ne?
Drei Oszillatoren mit unterschiedlichen Modi, Wavetable, Virtual Radio.
Ja, aber unterschiedliche Modi, wenn man das in einen Oszillator hat, ist das ein ganzer DX7.
Richtig.
Artikel, dann Resonator und Kermals, das weiß ich nicht, was das ist.
Dann drei Stereo-Filter pro Stimme.
Ja.
Dann Digital-Forma-Effekte, Filter-Modelle, Kammfilter, Bitcrusher.
Und hast du nicht gesehen, sechs Hüllenkurven.
Richtig, sechs Hüllenkurven. Sechs LFOs.
Und eine komplexe Modulationsmatrix mit 40 Slots.
Apacheo, Stepsequencer, gut 32 Steps, aber Modwheel, Pitchspan und Aftertouch.
Ich find das Format absolut sexy. Ich hab auch schon überlegt, ob ich meinen großen gegen den kleineren taufen sollte,
aber andererseits, der Direktzugriff hat auch schon was, ne?
Ja, definitiv, das hat was.
Ich find das sehr klug, was wir hier gemacht haben.
Aber wenn du wenig Platz hast, hast du halt ein schönes Gerät, was du hier hinstellen kannst.
Was ein bisschen schade ist, dass sie den MIDI mal wieder, in diesem Fall,
weiß ich nicht warum sie es gemacht haben, vielleicht wird es wahrscheinlich irgendwelche technischen Gründe geben,
leider als Mini-Klinke ausgeführt. MIDI in, MIDI out.
Ja, das machen doch mittlerweile alle.
Ja, und für das ist er auch direkt in der MIDI Hall of Shame im Sequencerforum gelandet.
Wo Mike Roback jedes Mal auch willig einfach auszieht.
Nicht nur das, er schaut schon wieder sich über den Stromanschluss aufgeregt.
Aber seien wir doch mal ehrlich, dieser Dienststecker von der MIDI-Buchse, dieser 5-Stecker-Dings,
da werden nur drei Stück von gebraucht. Da kannst du auch halt den Mini-Klinke nehmen, den Stereo-Stecker,
da sind auch nur drei Pinne drin. Das gleiche in grün. Und du brauchst weniger Platz.
Das Problem ist, Sascha, dass sich die ganzen Hersteller nicht auf einen Standard einigen konnten.
Und du dann halt immer, ist das jetzt MIDI A, ist das MIDI B oder ist das irgendwas anderes?
Ich fand damals schon das MIDI-Kabel äußerst unpraktisch, obwohl es ja praktisch war, aber das Format war unpraktisch.
Ja, das kommt drauf an. Es war halt da, weißt du.
Also damals das Zeug über TRS zu schicken, das war damals noch...
Du musstest halt den Leuten etwas anbieten, wo sie sofort wussten, das ist MIDI.
Und der 5-Volt-Stecker war halt quasi greifbar.
Der war ja schon so in der Audio-Welt drin, zumindest in der Kosuma-Hardware war der Stecker schon da.
Nichtsdestotrotz ein schönes Gerät, wenn man wenig Platz hat, noch optimaler.
Man hat dann auch die Wahl, das fand ich auch bei Modal immer super, dass quasi 61er, 37er und Modul gebaut haben.
Jetzt baut Waldorf halt quasi Iridium, Keyboard und Modul und kleines Modul und wenn man möchte kann man ja auch noch Quantum.
Und das als Boutique-Mode, das soll man nicht vergessen.
Boah, der Quantum ist so geil. Allein wie der schon aussieht.
Ich hab bloß keinen Platz, der ist zu groß und das Geld hab ich auch nicht.
Schmeiß Frauen und Kinder raus, dann hast du genug Geld.
Und Platz. Und auch Platz.
Ja, aber dann apropos Kinder.
Yamaha hat ein neues Kind. Nachdem sie das alte Jahr verstoßen haben, jetzt kommt der Dienstag.
Natürlich heißt der immer noch Montage. Montage M heißt er jetzt. M6, M7, M8X.
Wobei der 8X der interessanter ist.
Also in der letzten Folge, die wir aufgezeichnet haben, gemeinsam hier in dieser Dreierrunde, hatte ich mit dem Tobi ja gewettet,
auf ein Bier, das Yamaha die neue Version des Montage mit Pulli-Aftertouch rausbringen wird.
Hat er gesagt. Nee, nie im Leben, machen sie nicht.
Ja, jetzt kriegt jeder von euch einen halben Kasten.
Nee, wieso? Ich krieg ein Bierchen.
Ein alkoholfreies Bierchen.
Es sind drei Synthesizers, es ist nur einer.
Sie haben Pulli-Aftertouch reingebaut.
Es war nur ein einziger.
Ist doch egal.
Hat einer von euch, ja, Bier kannst du haben. Ich will auch eins.
Machen wir zwei Drittel. Zumindest ein Drittel.
Wir teilen uns ein Malzbier.
Ist mir doch egal.
Die Frage, die mich seither umtreibt, ist eher, sind sie mit den Tastaturen für die kleineren Modelle nicht fertig geworden?
Kommt da in einem Jahr noch ein M7X, M6X?
Tatsächlich, Yamaha baut ja ihre Tastaturen, glaube ich, selber.
Ich kann mir gut vorstellen, dass sie jetzt erst mal nur das Flak-Chef so gebaut haben.
Und es wird wahrscheinlich dann in den nächsten Jahren mal eine MK2-Version geben.
Also bestimmt nächstes Jahr. Und da werden auch die kleineren Modelle wahrscheinlich dann ausgestattet sein.
Die hauen dann wieder mehr RAM rein.
Woher weiß ich das?
Ich habe auf YouTube vor einigen Monaten ein sehr, sehr, sehr, sehr, sehr, sehr langes Interview mit einem der Produktdesigner,
nein, nicht Produktdesigner, ich weiß es nie, die Produktspezialisten hier, von ASM, Aschun Sound Machines, für den Hydrasynth gesehen.
Dessen Name ich jetzt vergessen habe, der vorher bei Arturia war und den MiniBrute verantwortet.
Der ist ja zu ASM gewechselt, hat dort den Hydrasynth designt.
Und der hat erzählt, als sie den Hydrasynth designt hatten, hatten sie überlegt,
so machen wir Poly Aftertouch, aber machen wir erst mal nur eine Keyboardgröße.
Und sie haben sich damals für die Keyboardgröße entschieden, die sie aus ihrer Erfahrung mit,
ASM ist ja eine Tochter von Medeli, die Medelin halt am häufigsten verkauft.
Und das waren halt die 49 Tasten Keyboards.
Also haben sie erst mal die 49 Tasten Version entwickelt mit Poly Aftertouch.
Und ich kann mir gut vorstellen, dass Yamaha von ihrem Montage, dem M8,
nee, wie hieß er früher, der Montage 8, dass sie von der großen Version halt sehr viel verkauft haben
und deswegen den erst zuerst mit Poly Aftertouch Tastatur ausgestattet haben, um einfach auch mal zu gucken, wie läuft das so.
Naja, nichtdestotrotz, neben dem Aftertouch, hat er ja auch das lang ersehnte Zusatzfeature.
Yes, ANX, endlich! Virtual Analog is back!
Ich glaube Sascha meint den Holdbutton.
Überlegst du das? Da haben sich das ja einige gefreut.
Nee, die haben doch schon, nachdem das Logo ja aufgetaucht ist, bei der amerikanischen Markenschutz-Dingsmonster ANX,
haben sich ja schon alle drauf gefreut. Juhu, es gibt wieder was Neues, Virtual Analoges.
Aber ihr habt euch ja bestimmt auch die Präsentations, die ganzen Produktpräsentationsvideos reingezogen, so wie ich.
Nö.
Doch hast du. Weiß ich genau, dass du es gemacht hast.
Nicht nur, dass da ein zweites Display drin ist, sondern es fiel in irgendeinem Interview im Nebensatz.
Oder war das beim Sequencer Talk? Ich weiß nicht mehr.
Irgendjemand hat gesagt, dass Yamaha im nächsten halben Jahr auch noch eine Plug-In Version rausbringen will von dem ganzen Teil.
Oh.
Das fiel irgendwo als Nebensatz. Und ich warte jetzt nochmal auf eine offizielle Bestätigung.
Nicht, dass das nur irgendjemand mal so nebenbei rausgerutscht ist, sondern ich warte darauf, dass Yamaha das offiziell ankündigt.
Wenn man sich aber mal so die ganzen Produktvorstellungen von dem neuen Montage anschaut,
boah, das ist schon mal was anderes.
Ja, aber du darfst ja nicht vergessen.
Als ihre vorherige Kisten.
Das Ding hat so gut wie 10 Gigabyte integrierten, also internen Wave-ROM.
Ja, das ist ja Wahnsinn.
Dann hat das Ding noch so gut wie 4 Gigabyte Flash, wo du selber dann Sachen drauf packst.
Ja, genau.
Jede Contact Library ist größer. Diesen Zahlenporno müssen wir nicht machen.
Aber bei Workstations ist das schon was Besonderes. Bei so großen Standalone Workstations.
Für deine eigenen Samples das da reinzupacken und dann halt zu verwursten mit den anderen Sachen, die da drin sind, schon ziemlich geil.
Der Komponent hat 50.
So, und wenn man dann jetzt mal so hingeht und schaut.
Das vorderexatru 200.
Du hast hier die Polyphonie von 128 bei der AM2 Synthese.
Dann hast du 128 für die FM Synthese.
Nur mal zum Vergleich.
Der Elektron Digitakt, der aktuell für 855 Euro verkauft wird, hat 64 Megabyte Samplespeicher.
Ein Laufwerksspeicher von einem Gigabyte.
Ja, um das mal so in Relation zu stellen.
Hat auch nur 8 Audiospuren.
Ich glaube der Aspekt…
Du kannst aber spielen, 128 Noten AM2, 128 Noten AM2 User Setups, 128 Noten FM Synthese
und 16 AM Synthese.
Was ist das für ein Monster?
Die Zahlen gehen ja schon beide durch.
Ich habe was anderes gehört, das mich persönlich viel mehr fasziniert.
Und zwar, Yamaha war bisher immer 8 Parts in so einem Element drin.
Das heißt, du hast 8 Elemente in einem Element.
Ich weiß nicht genau, wie das geregelt ist.
Es haben sich ja einige Leute ziemlich drüber aufgeregt.
Jetzt hast du in diesem Elementcontainer 128, also das 16-fache.
Die Engine wurde da…
Das ist das, was ich meinte.
Die haben intern so viel geändert.
Die haben das komplett umgebaut.
Das ist eine komplett neue Engine.
Alles da dran ist neu.
Deswegen glaube ich, dass die auch eine Plug-In Version machen werden von dem ganzen Trümmer.
Das kann ich mir durchaus vorstellen.
Du musst dir das mal vorstellen.
Es war ja gewohnt bei der AM2 Synthese, dass die Klänge immer aus vier Quellen stammen.
Das hat Tobi ja gerade gesagt.
Das wurde dann irgendwann mal aufgebohrt auf 8.
Ja, das hat Tobi ja gerade gesagt.
Das ist unglaublich.
Und vor allem, wenn sie das Ding als Plug-In rausbringen, das wird ein Trümmer.
Ich glaube, es gibt einen Grund dafür.
Bisher waren alle Motives bis zum XS Racks.
Es gab immer nur Rack-Versionen.
Beim XF haben sie gesagt, da ist nur ein bisschen mehr Soundmaterial drin und größere Sample-Flash.
Da lassen wir jetzt mal das Rack weg.
Beim Montage gab es keinen Rack.
Und alle haben sich darüber aufgeregt.
Die Live-Keyboarder, die nach wie vor sagen, ich will eine Workstation auf der Bühne,
ich will diesen Schnellzugriff, diesen AWM, auch den FM, jetzt den ANX.
Das ist nicht einfach eine Motiv-Iteration.
Ich finde sogar, die hätten einen komplett neuen Namen wählen können.
Aber Montage M, von mir aus, das sind im Grunde genommen drei Motiv-Generationen,
oder zwei, glaube ich, mindestens, die da eigentlich vorbeigegangen sind.
Das ist kein Gerücht.
Und der Software-Editor für den Montage-Namen?
Ich bin auf der Seite von Yamaha.
Entschuldige, wenn ich euch unterbreche.
Das ist kein Gerücht, das stimmt.
Das Expanded Softsynth Plugin ESP ab Anfang 2024,
ein echter Game-Changer für Musiker.
Das Expanded Softsynth Plugin repliziert den Montage M in deiner Lieblings-DAW.
Mit einem beispiellosen Grad an Stage- und Studio-Integration
erlaubt dir das für Montage M-Nutzer kostenfrei erhältliche ESP.
Deine Montage M Performance ist überall dort zu realisieren,
wo du dich gerade befinden bist.
Und das komplett hardwareunabhängig.
Und das ist das Multi-Frag der aktuellen Jahre.
Alter, ist das krass.
Ich wollte aber nur sagen, wenn man sich die Bilder oder auch das,
was man sehen konnte, von dem Editor der Klänge anschaut,
also nicht die abgefilmten Menü-Seiten aus dem Gerät,
sondern den Software-Editor, das ist schon unwahrscheinlich groß und komplex.
Ich will euch eins sagen, was hat Yamaha hier gemacht?
Die haben nicht einfach nur irgendwas gemacht,
die haben einfach einen Rechner da reingestopft,
auf dem ihr Plug-in läuft.
Und sie verkaufen eigentlich einen großen Controller.
Das ist, glaube ich, das, was sie gemacht haben.
Und ich glaube, dass sie den Montage als Plattform verkaufen.
Und wir werden da noch einige ziemlich geile Sachen sehen.
Das ist eine ganz große Nummer.
Die haben ja die letzten Jahre sich einiges einverleibt.
Ja, Steinberg haben sie gekauft.
Einige Buden, die sich auch gut auskennen,
wenn man Plug-ins baut und sowas.
Das stimmt schon, wirklich.
Und ich glaube, dass sie auch kleinere Versionen rausbringen werden,
weil du ja meintest, Tobi, beim letzten Mal irgendwie so,
Mod XM, konntest du dir nicht vorstellen?
Ich kann mir das schon vorstellen, dass sie das machen werden.
Natürlich kann ich mir das vorstellen.
Der Punkt ist aber, die kommen nicht gleich zur nächsten Name raus,
wenn sie jetzt ein Plug-Shift machen.
Nein, das wollen sie nicht machen.
Das dauert wieder auch drei, vier Jahre.
Das wird sicherlich noch mal so, glaube ich nicht.
Vier nicht, aber drei.
Ich glaube eher an zwei Jahre.
Ja gut, kann sein.
Wenn das jetzt die Plattformbasis ist, von der aus sie dann alles weitere machen,
das macht Roland ja auch genauso.
Die stellen eine große Plattform hin, einen großen Phantom
und haben quasi die ganzen Sachen, die Zencore-Geschichten,
haben das quasi ausgekoppelt und haben es in kleinere Geräte gemacht.
Yamaha macht exakt dieselbe Strategie, es sind beides japanische Firmen.
Und die fahren damit sehr erfolgreich,
haben sie eine jahrzehntelange Firmengeschichte.
Warum sollten sie das Erfolgsrezept jetzt ändern?
Aber das ist geil, was Yamaha hier gemacht hat, wirklich.
Ich finde es klasse.
Klingt auch gut, nebenbei.
Wenn das Plug-In den Bums hat, den die Hardware hat,
und ich weiß, dass die Hardware Bums haben wird, das ist Yamaha,
dann ist das der Game-Changer für die Workstation-Sparte.
Weil das ist wirklich dann...
Ich meine, Korg hat das vorgemacht,
mit irgendwelchen Raspberry Pi-Geschichten, oder?
WaveState, Opti6...
Yamaha geht hier einen komplett anderen Weg, ne?
Natürlich, aber das ist das, was ich schon ewig lange wollte.
Ich wollte Workstations als Plattform.
Nicht einfach in diesen dicken Schiffen,
sondern wirklich diese Art und Weise,
Multisynthese, Performance-Synthese,
Bühnen-Performance-Instrumente in diesem Konzept.
Wenn das Montage-Plug-In freiverkäuflich ist,
sich gut bedienen lässt und preislich halbwegs reasonable,
dann ist das ein Game-Changer.
Aber was sie als nächstes machen werden,
ist, dass sie den Montage öffnen werden,
dass andere Firmen dort auch Plug-Ins für entwickeln können.
Effekte, vielleicht noch zusätzliche Synthese-Modelle,
obwohl es ist Yamaha, die sind relativ geschlossen.
Das ist ja cool.
Aber das wäre natürlich...
Ja, genau, es ist Yamaha.
Aber das wäre cool.
Ich glaube, Roland und Korg müssen jetzt in Sachen Workstation...
Müssen sehr aufpassen.
Genau, sehr hart ran.
Die Workstation selbst ist ja schon eine dicke Ansage,
vor allem für eine Generation.
Gut, die Generation ging jetzt sieben Jahre,
aber es ist trotzdem eine dicke Ansage.
Aber jetzt das Plug-In.
Ich glaube, Phantom und Kronos,
beziehungsweise Nautilus, beziehungsweise Nautilus-AT,
die sehen jetzt aber ganz, ganz kritisch aus.
Gerade Korg muss jetzt den Punkt der Workstation wirklich nachziehen.
Wir können nicht noch mal den Oasis aufgießen.
Das geht jetzt nicht mehr.
Und Roland hat wahrscheinlich noch so ein Gnadenjährchen vor sich.
Der Phantom so alt ist der nicht, aber...
Ja, ich traue es mich fast nicht zu sagen,
aber das Workstation-Game ist erneut eröffnet.
Ja. Ah, das war cool. Ich finde es cool.
So, und apropos Game eröffnet.
Es gab da eine Ankündigung,
als ich die gesehen habe...
Weißt du, jetzt haben wir PolyAfterTouch im großen Montage.
Wir haben PolyAfterTouch in den neuen Native Instruments Keynotes.
Und jetzt kommt Korg und baut einen MIDI-Controller
mit PolyAT, ich glaube, das ist eine Hydrasynth-Tastatur,
zumindest so im Ansatz,
einem integrierten Audio-Interface.
Ja, und da hört es eigentlich schon auf.
Dafür ist er klein, dafür ist er schlank.
Ich habe Anfang Jahr diverse kleine,
solch formatigen Tastaturen vor meinem Bildschirm getestet.
Die waren alles scheiße.
Alles so eine Billo-Tastatur,
so, keine Ahnung, Econ oder Icon.
Die Mini-Keys von Korg habe ich probiert,
andere Sachen, Keystation und so.
Und jetzt kommt Korg, hat eine High-Quality,
so wie es aussieht.
Also das, was ich mir nicht immer gewünscht habe,
die untere Hälfte vom Hydrasynth.
Es gibt aber kritische Stimmen, die sagen,
dass der PolyAT-Tastatur vom Hydrasynth
nicht so das Gelbe vom Ei ist.
Man kann nicht sagen, dass sie unbenutzbar ist.
Manche Leute sind nicht zufrieden damit.
Sie ist jetzt keine Foto-Haupt.
Das merkt man schon.
Das ist dann halt, was einige Leute dann kritisch anmerken.
Aber ich finde, alleine,
dass es innerhalb dieses Monats eigentlich
drei große, dicke Master-Keyboards angekündigt werden.
Ich habe gesagt, als die Native-Dinger kamen,
habe ich gesagt, gut, der Hydrasynth hat jetzt den Boden geebnet,
der Iridium, und die großen Flaggschiffe sind drauf nachgezogen.
Gemini, Quantum.
Und jetzt kommt aber Bewegung in den Budgetmarkt.
Gut, es ist nicht Budget, es ist immer noch Oberklasse.
Aber die nächsten werden Arturia sein, nehme ich an.
Weil die haben nämlich auch zumindest mit Medeli eine Tastaturbeziehung,
seit sie Hoaxin rausgeschmissen haben vor ein paar Jahren.
Glaub ich. Oder war es Midi Plus? Ich bin mir nicht mal sicher.
Aber wir sehen gerade das Revival des Poly-ATs in den Master-Keyboards.
Ja, das ist geil. Das ist richtig, richtig geil.
Es ist wahnsinnig geil. Ganz ehrlich, den Keystage, ich glaube,
ich hole mir den Day One.
Nee, da muss man nicht spielen können.
Da muss man einfach...
Du weißt, du kannst ja auch...
Ich glaube, Poly-AT ist so eine Eingabemethode,
die auch für den Zweifinger oder einfach quasi...
Ja, mal so einen halben Akkord anlegen.
Ich glaube, das bringt auch den Leuten,
die jetzt nicht pianistisch groß auffahren können, was.
Würde ich schon sagen.
Da ist ein Teil von Korg.
Keystage.
Also bisher ist es ein Leak.
Also ich glaube, offiziell ist da noch nichts.
Haben die das noch nicht offiziell?
Ich suche gerade die News dazu.
Auf der NEM-Stands rum, glaube ich, das war der Punkt.
Auf der NEM-Stands rum, irgendwer hat es sich weggeräumt
und dann haben es die Leute geknipst.
Tatsächlich, in den News wird es als Leak gebracht.
Ja, das ist ja noch gar nicht offiziell.
Bei einem Händler ist es aus Versehen auf der Seite angezeigt worden.
Ja.
Ach, da kommt der Leak, ja.
Mit übrigens, und das finde ich jetzt auch bemerkenswert,
mit MIDI 2.0-Kompatibilität.
MIDI 2.0 als neuer Standard wird ja schon seit gefühlten 15 Jahren
versucht zu etablieren.
Wobei man sich ja erst vor kurzem darauf geeinigt hatte,
dass der Standard anders stand.
Das ist wirklich der Standard.
Und wenn die Bilder echt sind, die man hier sieht von dem Korg Keystage,
das Ding sieht auch richtig sexy aus.
Macht was her.
Also ganz ehrlich, ich habe gedacht, als ich das gesehen habe,
geil, das wird auf meinen Schreibtisch landen.
Wenn die Tastatur gut ist, wird das mein neuer schmaler Controller.
Ribbon Controller wäre noch Sahne gewesen.
Aber auch so, die kleinen Displays,
die so ein bisschen an die ersten Native Controls erinnern, von 2015 damals.
Die Holzseitenteile, das ist jetzt wirklich mal rund durchdacht.
Wenn das Class Compile nicht läuft und wenigstens so funktioniert,
wie es funktionieren soll, glaube ich auch,
dass das so ein Keyboard für auf dem Rücken ist.
Das heißt, dass wir...
Und dieses Board.
Das heißt, dass wir demnächst von Arturia neue Keystabs sehen werden.
Und neue... Wie heißen die großen?
Keylabs.
Keylabs, genau.
Ja, es war langsam mal an der Zeit.
Ich denke immer, ich habe immer so komisch...
Ja, die Keylabs wurden doch gerade erst vor einer Weile erneuert.
Ja, am Arsch.
Mein Kumpel Felix, der reist seit 2018 mit den Dingern um die Welt.
Ähm...
Ja, es wäre langsam mal dran.
Arturia kann gerne mal wieder mehr machen,
als einfach nur ihren...
Wie sagt man?
Ihren MIDI-Controller schneeweiß anzupinseln.
Ja, aber da merkst du, dass das immer noch eine relativ kleine Firma ist
verglichen mit solchen Schwergewichten wie Yamaha.
Ja, das Geld muss ja auch von irgendwo her kommen.
Also die machen schon sehr gute Produktpflege,
auch was Software-Updates angeht und so weiter.
Aber die sind bei der Hardware natürlich nicht ganz so schnell, das ist klar.
Können sie gar nicht, weil sie nicht so...
nicht ganz so potent sind.
Und wir hatten natürlich auch so eine gewisse Bauteile-Knappheit
so in den letzten...
Oh ja, die hat ganz gewiss.
...Problematik in den letzten paar, ich sag mal,
in den letzten anderthalb Jahren,
wo irgendwelche Containerschiffe in irgendwelchen Kanälen querstanden.
Komischerweise.
Also gerade ist hier, so musiktechnikmäßig,
ist gerade da richtig...
Ja, da passiert gerade ganz viel.
Das ist ganz spannend zu beobachten.
Und dieses Yamaha-Ding, das haben...
Also viele Leute haben es, glaube ich, gar nicht kapiert,
was Yamaha da eigentlich gebaut hat.
Dass das nicht nur einfach hier AT und mehr von allem ist,
dass das wirklich eine komplett neue Plattform ist.
Also die eigentliche News für mich ist tatsächlich diese Software-Geschichte.
Dass sie das komplett in den Rechner holt
und dass du dann auch kein Rack-Modul, kein Rack-Gerät mehr brauchst.
Geil.
Ich habe noch eine kleine News zum Schluss.
Ja, bitte. Ich hätte auch noch eine.
Andrew Huang hatte mit der Firma Endorphins zusammen,
das ist eigentlich ein Modulhersteller,
ein Eurorack-Synthesizer-Modularhersteller,
die sehr interessante Module herstellen.
Mit denen hat Andrew zusammen zwei Module entwickelt.
Das eine ist so eine Art Mastering-Prozessor.
Das andere ist so eine Art Multi-Effekt-Gerät.
Die Dinger gibt es jetzt auch als Pedal, als Gitarrenpedal.
Wobei dieses Multi-Effekt-Pedal, das beinhaltet Reverb, Delay, Filter, Distortion
und verschiedene Routine-Möglichkeiten.
Es gibt einen internen LFO, das Ganze ist auch noch MIDI-steuerbar.
Nennt sich Ghost.
Das erinnert mich ganz stark an den Strymon Night Sky,
weil der nämlich auch Multi-Effekt-Gerät mit Filterbox kombiniert ist.
Wenn ich das Ding sehe, das sieht sehr schick aus, relativ schickes Industriedesign.
Da kriege ich dann wieder als alter Pedal-Fan Lust, das Teil einfach mal so auszuprobieren.
Sonst hat jemand von euch noch News? Sonst habe ich da noch zwei Dinge.
Nee, wir haben die Sachen, die ich halt geil fand, alle durch.
Ja, es sind natürlich noch ein paar Sachen mehr passiert, aber ich glaube,
das sind die dicksten Klöpper, die haben wir jetzt so abgearbeitet.
Ich würde jetzt gerne noch kurz über zwei Dinge reden, über die wir jetzt alle so ein bisschen reden können.
Von dem einen weiß ich, dass Thomas ganz großer Fan ist, das andere hat Sascha durchprobiert.
Dann muss ich noch über eine Geschichte reden, die machen wir dann zum Abschluss,
weil sie weniger Neuigkeiten als eben vielleicht mehr genau das Gegenteil ansprechend,
den philosophischen Teil noch dazu zu pflanzen, weil es ist gerade so aktuell.
Aber bringen wir doch zuerst die anderen beiden Dinge durch.
Ganz kurzer Einwurf noch kurz, den Groove Synthesis Third Wave gibt es als Baldur's Desktop.
Das sehe ich hier auch noch auf dir links.
Third Wave Tailwind Synthesizer? Für 3.500 Euro, glaube ich.
Für das Modul, das Keyboard ist glaube ich noch mal das Doppelte.
Das ist so ein bisschen die Kategorie Jenseits von uns.
Ich habe zwei Software-News, das eine, und ich finde, über die müssen wir reden,
das eine ist Filterscape 1.5. Sascha?
Du hast es ausprobiert, hast du mir gesagt.
Ich habe es ausprobiert, also das sind halt drei Plugins.
Einmal Synthesizer, den finde ich jetzt so semi-optimal,
aber das Effekt-Plugin finde ich gut.
Das ist halt so ein Dual-Filter-Teil, wo du extreme Modulationen machen kannst,
da ist eine Sequenz da mit drin.
Das ist ein Riesenfilter-Ding, also das ist eine Filterfabrik.
Du hast halt mehrere Filter, die gegeneinander laufen können.
Nicht, dass es das schon mal gab, aber wir haben das Ding einfach in die Neuzeit geholt
und es macht Spaß, in Verbindung mit anderen Effektgeräten
damit neue Soundlandschaften zu designen, weil du kriegst den Ton lebendig,
du kannst das Ding ein bisschen verbiegen, du kannst einen Kamm-Filter nehmen
mit einem High-Pass-Filter und das ist sich alles am Bewegen
und alles dynamisch, als ob ich ein Modularsystem habe
und dann die ganzen Filter miteinander verknüpfe.
Das eine beeinflusst das andere und das fand ich geil.
Also den Synthesizer, der ist lebendig, der klingt nicht schlecht,
aber für mich ist halt das Effekt-Plugin das einzig Geile da drin.
Andere werden es anders sehen, garantiert.
Thomas, hast du den ausprobiert?
Nee, das ist leider mir vorbeigegangen.
Ja, also ich habe ihn hier auch mal geladen, richtig reingestiegen bin ich da noch nicht.
Es gibt auch noch das dritte Plugin, das ist glaube ich ein Multipass, also ein Multiband-Filter.
Wir haben am Anfang darüber geredet, dass Minimal Audio gerade aufs Dach kriegt,
weil sie sagen, ja gut, hier ist unser Flaggschiff-Produkt,
da entwickeln wir seit Jahren schon dran, das ist jetzt unser Ökosystem,
bitte, bitte subscribe das Ding, hört auf uns zu bashen.
Und auf der Gegenseite hast du halt Urs.
Und Filterscape ist ein 20 Jahre altes Plugin, das war das erste große Plugin von Heckmann.
Das alte Filterscape.
Was haben die gemacht?
Die haben die komplette Code-Basis umgeschmissen, quasi in die Neuzeit geholt.
Die haben eine komplett neue Oberfläche gebaut, drei Plugins draus gemacht,
also sowohl ein Synthesizer noch, als auch ein Multiband.
Also die haben eigentlich das ganze Ding runterneuert und nennen es eine 1.5
und geben das für den Vorbesitzer kostenlos ab.
Du kannst vor 20 Jahren eine Lizenz gekauft haben.
Also das ist geil, das ist ziemlich geil.
Das Ding, das gibt es Ewigkeiten, Ewigkeiten.
Ich habe damit schon früher rumgespielt.
Also andere hätten dafür Geld genommen.
Ja, und zwar schon mehrfach.
Vor allen Dingen, es ist eine 1.5, aber es ist in Wirklichkeit eine 2.
Wenn nicht sogar eine 3.
Also das ist so weit voneinander entfernt, die Module.
Klärt mich mal auf, Filterscape.
Kann das sein, dass wir da auch schon so ein bisschen, was so Features angeht,
sehen können, was möglicherweise dann im neuen Zebra so kommt?
Also ich gehe ganz stark davon aus, auch im neuen Ubiqu.
Also er hat ja letztes Jahr die Morphed Feedback Machine,
was auch schon so ein 15, 20 Jahre altes Ding war, in die Neuzeit geholt.
Jetzt Filterscape. Als nächstes wollen sie Ubiqu weitermachen,
also eine komplette Zweifel 2.0.
Und dann soll Zebra kommen.
Und ich glaube tatsächlich, dass sie gerade bei allen Sachen,
Zebra gibt es ja auch schon in so einem Teaser-Format für die neuen NKS-Geräte,
ich glaube tatsächlich, dass sie gerade wirklich unter der Haube alles umschmeißen
und das Endergebnis davon Zebra ist.
Das glaube ich auch.
So ein bisschen wie Peter das erzählt hat, weißt du?
Wo er auch gesagt hat, ich möchte eigentlich quasi meine Plattform bauen
und mache quasi so eigene Excerpts da drauf.
Ja, das glaube ich auch.
Wobei man ja sagen muss, die Nebenfiltersplugin 129 Euro.
Das ist weiteres Wert. Es ist es wert.
Wenn ich mir die Features anschaue, das ist schon bemerkenswert.
Genau, du hast nämlich das Filterscape FX, dann hast du das Filterscape Q6
und den AV.
AV.
Wenn ich das richtig sehe, da ist bei dem Filterscape VA, kannst du,
naja, okay, ich gucke mir gerade hier die Oberfläche an,
deswegen stocke ich so, also Filterscape FX, da kannst du die Bänder auch einstellen.
Ich habe ja gesagt gehabt, du kannst die Sachen gegeneinander laufen lassen.
Du hast ja auf der linken Seite dieses Snapshot, diese Uhr.
Weißt du, woran mich das erinnert?
Vor ein paar Jahren habe ich mal über Citizizer Forum jemanden kennengelernt.
Ich nenne jetzt mal keine Namen.
Und dieser Kollege, dieser Forum-Kollege, der hatte eine Festfilterbank am Start.
Das erinnert mich so ein bisschen daran.
Das war ziemlich geil, was du damit machen konntest.
Du musst dir vorstellen, bei diesem Ding, das ist wie so eine Uhr, das läuft im Kreis.
Du kannst dann da halt verschiedene Positionen setzen und verschiedene Bewegungsrichtungen
und du kannst dann quasi diese Punkte einfach durch das Spektrum laufen lassen.
Ich sehe schon, ich muss mir das Teil auch mal anschauen.
Deswegen alleine das Effektgerät hat ja mehrere Bänder und das ist so komplex.
Ja, Morphen des Snapshots für User-Defined EQ Settings.
Dann ist das alles auch noch sequenzvergesteuert und du hast dann unten noch eine Routing-Matrix,
wo du dann halt die Sachen sich selber beeinflussen lassen kannst.
Ich sage ja, das ist wie so ein Modularsynthesizer, wo du dann die Filter gegeneinander laufen lässt und solche Sachen.
Es ist ein völlig gesteuertes Schiff.
Das war auch schon die Morpheedback-Maschine, die ist genauso durch.
Und ich werde da kaum hier durchsteigen, aber ich glaube für den Bastler ist das ganz, ganz großes Kino.
Und dann halt bei den Synthesizers hast du im Endeffekt die gleichen Ansätze,
aber dann halt noch mit der Synthese-Erweiterung.
Dafür fallen ein paar andere Sachen weg, aber du hast dann halt diese Synthese dran und dann hast du extrem lebendige Töne,
weil da so viel Bewegung dran ist.
Wahnsinn.
Da sind ja, glaube ich, zwei Oszillatoren mit 15 Wellenformen.
Verfügbar, jetzt komm's. Und das ist das Geile für macOS, Windows und Linux.
Stimmt, das laut noch.
Ja, noch von Linux.
Kann das sein?
Sehe ich hier jetzt nicht.
Aber da ist ein Warnhinweis.
"Please be aware, the Linux versions of our plugins are still considered beta."
Also die Linux-Versionen sind nur beta.
Da muss man dann halt gucken.
Ja, aber alleine, dass es die gibt.
Ja, und dann muss man noch überlegen, bei den Filterscape Q6, da hast du einen Equalizer mit sechs Festfrequenzen,
die alle frei modulierbar sind.
Okay, ihr habt mich überredet. Ich guck mir das an.
Also sechs Band Equalizer, der komplett modulierbar ist.
Ich hab mich überzeugt, ich werd mir das auch anschauen.
Das kann ich mit einem Sequencer vergleichen, gleich mit einbeziehen und den dann von den Sequencern steuern.
Irgendwie sowas, keine Ahnung.
Die andere News, ich weiß gar nicht, war die schon mal hier.
Du hast groß getönt in mindestens einer Folge, die wir nicht veröffentlicht haben.
Swimplans!
Genau, jetzt ist er draußen, Swimplans.
Ich hab da so lange drüber geredet, da war die ganze Folge nur über diesen Swimplan.
Und dann haben wir die Sendung nicht gebracht.
Ja.
Hast du denn zehn Minuten?
Die haben ja nicht nur den Swimplan rausgebracht, die haben auch endlich mal nach etlichen Jahren
der Microtonic den Code mal ein bisschen wiederbelebt.
Inwiefern?
Die haben da jetzt nichts Großes gemacht, die haben einfach nur den Code in die Neuzeit transportiert.
Also, es gibt einen von dem Kuku, das ist so ein Musiker, Multitalent, Mediengestalter, Künstler.
Kommt der aus Norwegen? Ich glaube, er ist aus Norwegen, oder? Oslo?
Keine Ahnung.
Norweger, egal.
Aus Norwegen, ja.
Kuku hat mit einem der beiden Brüder eine Stunde Interview gemacht und hat sich den Swimplan 2 vorführen lassen.
Jetzt ist Swimplan 2 vor einigen Tagen rausgekommen, also veröffentlicht worden.
Also nicht mehr Beta, sondern richtig zum Kaufen.
Ich hab natürlich gleich zugeschlagen, klar.
Hast du die 50 oder die 150 ausgegeben?
Ich hab natürlich die 50 Euro nur bezahlt, weil ich ja seit ungefähr 20 Jahren Microtonic-User und Swimplan-User bin.
Er hat die Software halt komplett grunderneuert.
Lange Rede, kurzer Sinn.
Was in dem Interview halt so die Essenz war, ist, dass er mit Machine Learning experimentiert hat.
Und er hat quasi diese ganzen Synthese-Parameter so einem Machine Learning Algorithmus vorgesetzt
und hat dann in Kleinstarbeit über fast, ja, man kann schon sagen, so drei Jahre hinweg,
seine Machine Learning Algorithmen unterschiedlichste Modelle erstellen lassen,
was man so für Einstellungen vornehmen kann.
Also quasi seinen Synthesizer einmal komplett durchanalysieren lassen von seinem KI-Algorithmus.
Ist dann hinterher beigegangen und hat dann quasi so was wie in dem Hartmann Neuron
einen Ray Synthesizer programmiert.
Und du kannst jetzt beliebiges Sample-Material dort reinschmeißen in seinen Ray Synthesizer,
also in den Synthplant, und der versucht dir über diese KI-Algorithmen, die hinterlegt sind,
aus deinem Sample-Material in der Synthese-Engine von Synthplant 2 den entsprechenden Klang nachzubauen.
Da kommt natürlich nicht immer, oder da kommt natürlich nicht das ganze eins zu eins so raus,
wenn du zum Beispiel hier so ein Sprachsample nimmst oder so.
Aber teilweise kommen da schon sehr verblüffende Ergebnisse dabei raus.
Ich habe das ausprobiert. Es ist einfach geil.
Ja, man muss ja sagen, wenn du das Sample hier reinlädst,
und dann geht der hin mit so einer Trial-and-Error-Methode,
baut er das Ding ja nach oder versucht es ja nachzubauen.
Der hat ja quasi ein großes Large-Dingsbums-Modell erstellt,
und dafür hat er ja einen riesen Server gehabt, der ja wirklich jahrelang darum gerechnet hat,
dieses Modell anzulernen.
Wenn man sich das Interview anschaut, da kommt auch drin vor,
dass der Bruder das Ding ja in seinem Keller stehen hat.
Und er hat damit sein Haus geheizt.
Er hat damit sein Haus geheizt.
Mit der Abwärme von dem Serverraum.
Genau. Und das Ding lief jahrelang quasi unter Volllast.
Man muss dazu sagen, das ist aber nicht das Einzige, was auf dieser Serverfarm lief.
Er hat ja noch andere Sachen dort laufen gehabt.
Sie haben zum Beispiel, das haben sie mit der Microtonic gemacht,
ein sogenanntes Paternarium schon seit Jahren am Laufen,
wo den Kunden, den Anwendern immer so verschiedene Variationen von Rhythmen und von Drum Sounds präsentiert werden.
Nicht nur Sounds, sondern ja auch die rhythmischen Variationen in diesen 16 Dingslungs-Grid.
Genau. Das Ding haben sie seit ungefähr, ich weiß nicht, seit wie vielen Jahren,
seit acht Jahren oder so haben sie das Ding online.
Kann sogar länger sein.
Du kannst dafür voten. Du kannst das liken, voten.
Du kannst auch die MIDI-Files dafür für deinen Microtonic und auch die Preset-Sounds runterladen mit Pattern für deinen Microtonic.
Was hat er gemacht?
Dadurch, dass das so lange, so viele Jahre lang lief,
hat er eine riesige Datenbank an unterschiedlichen Drum Sounds und an unterschiedlichen Drum Loops sozusagen.
Wurde dadurch erzeugt und diese ganze Datenbank hat er genommen,
hat die wiederum durch diese KI-Algorithmen geschoben, durch diese Machine Learning-Algorithmen
und hat das Ganze jetzt in den Microtonic implementiert.
Du kannst jetzt in der neuesten Microtonic-Version quasi über Schieberegler auf so einer bunten grafischen Oberfläche,
kannst du über Schieberegler dir beliebigste, aus beliebigsten Pattern und beliebigsten Sound deine Drum Loops zusammenschieben.
Genau, mischen. Gemorpht.
Nahtlos.
Früher hat man gesagt gemorpht. Das war ja das gewesen, was ich meinte bei Microtonic.
Dann hast du über 6000 Sounds oder was hat er gesagt? Über 6000 Presets?
Ich weiß es nicht.
Für jedes Instrument irgendwie sowas.
Deswegen sagte ich ja, die haben den Code in die Neuzeit katapultiert bei Microtonic.
Dann hat er diese KI-Algorithmen aus dem Synthplant, die hat er genommen und hat damit die Drum Sounds nachbauen lassen mit der Microtonic Engine.
Dann hat er jetzt so ein Soundpack, zusammen mit diesem neuen Soundbrowser hat er ein Vintage-Soundpack rausgebracht.
Und der Microtonic, das Drum Plug-In kann tatsächlich so klingen wie so eine alte Roland TR-Maschine oder wie so ein Oberheim DMX.
So ausgeklügelt ist diese Synthese-Engine.
Und er hat gesagt, was fand ich das Geilste, kannst du im Prinzip diese Machine Learning Algorithmen auf jeden Synthesizer, den es eigentlich so gibt, ansetzen.
Und kannst diesen Patch-Browser, den er jetzt im Synthplant auch drin hat, kannst du ihn damit, diesen Resynthesizer quasi anwenden lassen.
Total genial. Stell mir gerade vor, wenn man das bei Iridium machen würde.
Ja, ich bin gerade bei denen auf der Homepage, das heißt Microtonic Vintage Tonic.
Das ist knapp ein Megabyte groß und sind Hardware-Synthesizer aus den letzten zehn Jahren.
Klingt sehr überzeugend, wirklich.
Es ist echt irre.
Es gibt ein, wie heißt das so schön, es gibt ein Salzkorn, der Grundsound bei der Synthesizer, sowohl vom Microtonic als auch vom Synthplant, ist aber immer noch leicht plastikmäßig.
Das kann man den zwar halt über so was wie ein Filter-Scape austreiben, bestimmt.
Aber das ist halt so, diesen Grundsound, den kriegen die Teile natürlich nicht so ohne weiteres los.
Aber das macht auch den Charme aus, weil es kann durchaus ganz schön bumsen.
Es war ja damals so gewesen, dass keiner so richtig damit klar gekommen ist, weil niemand so wirklich verstanden hatte, wie das Ding funktioniert und was der da macht.
Da wurde es auf einmal eine Ansicht, da war so was ähnliches wie so ein DNA-Strang, so eine Helix, wo du Parameter verändern konntest und so.
Das wäre nämlich auch mein Punkt gewesen, weil ich tatsächlich, das ist keine Oberfläche für mich.
Also Sound okay, Technik natürlich genial, aber ey, diese Oberfläche.
Ja, jetzt pass auf, das hat er auch erkannt und hat in der neuen Version, der Synthplant 2 Version, gibt es jetzt einen speziellen Editom-Modus, den gab es vorher auch schon, der war aber sehr unübersichtlich.
Ja, der war extrem unübersichtlich.
Den hat er jetzt verbessert. Also du kannst jetzt natürlich auch jeden Parameter einzeln angreifen oder begreifen oder dir auf den Controller legen und kannst die Hüllkurve gezielt verändern und so weiter.
Oder die Oszillatoren gezielt einstellen.
Die haben auch Skin-Pakete.
Haben sie auch, ja.
Das gibt es auch noch, okay.
Der ist irgendwie 11 Megabyte groß, damit hast du dann, keine Ahnung, ich weiß nicht, jede Menge verschiedene, Skins, Nightshift und so weiter.
Und man kann richtig geile Percussions mit dem Synthplant 2 bauen.
Also wenn du dem irgendwie so ein Sample vorwirfst, der macht dann eine Analyse, dann hast du irgendwie so 20, 30 Sounds zur Auswahl und kannst die dann benutzen, um die Synthese Engine quasi wieder als Ausgangspunkt zu nehmen.
Und von dort aus dann, wenn du dann zum Beispiel so einen metallischen Percussion Sound hast, kannst du von dort ausgehend dann weitere Klänge erzeugen.
Und dann verzweigt dich das immer weiter und dann irgendwann hast du halt einen Sound oder eine ganze Reihe von Drum Sounds, die du ja absamplen, in andere Maschinen reinstopfen, Filter Scale drauf, läuft.
Oder in deinen Montage.
Das ist ja auch damals, wie das Gerät damals vorgestellt wurde, der Software Synthesizer, als absolut neumodisch, weil es ja organisch sein sollte, gepriesen worden.
Und war natürlich extrem innovativ, alle haben darüber gesprochen und keiner hat es mehr benutzt, weil keiner hat es verstanden.
Also ich empfehle dieses Interview mit KUKU, mit den Sonic Charge Machern, sehr geil.
Dann gibt es noch eine News, die können wir kurz anreißen und mit dieser News hat dann das zu tun, womit ich hier abschließen möchte.
Dieser doppelte kurze Erfahrungsbericht, weil ich bin ja wie gesagt, ich bin unterwegs. Ich glaube, es ist ein guter Moment dafür.
Roland, meine Damen und Herren, Roland, mit dem SH4D schon relativ gut aufgefallen synthesemäßig, hat gedacht, wir machen nochmal wieder einen Synthesizer.
Was haben Sie denn diesmal verbrochen? Sie haben ein zwölf Jahre altes Konzept, nicht wieder aufgelegt, aber immerhin den Namen davon.
Und da irgendeine Mischung aus Enzym, aber nicht so gut wie im Phantom, beziehungsweise nicht so ausführlich, Wavetables und wieder Zen-Core zusammengeschustert.
37 Tasten, Metallgehäuse mit etwa 80 sichtbaren Schrauben drauf. Was denn da passiert?
Ja, der olle Geier hat ein Update gekriegt, das ist passiert.
Ja, es ist einfach was völlig anderes. Gibt es mehr dazu zu sagen?
Also mich hat das Gerät, ich finde es sieht sexy aus, es hat ein schick Design, sehr gefällig fürs Auge, finde ich geil.
Das ist so ein schickes gebürstetes Metall. Industriedesign hat mich ganz stark an den Alesis Ion erinnert, weiß nicht, ob ihr den noch kennt.
Ja, ja.
Und an den Korg Minilogue.
Es ist alles silbern, es sieht sexy aus. Wenn ich jetzt nicht ein Iridium hier hätte und ein Waldorf M und ein Arturia Polybrute und ein Arturia Minifreak, würde ich sagen, geile Kiste, muss ich mir mal näher anschauen.
Aber ansonsten, mich triggert das nicht, weil ich habe auch in den ganzen Sound-Demos nichts gehört, was ich nicht aus meinen anderen Gerätschaften kriegen, nicht herausbekommen würde.
Und dann kommen halt noch so Dinge dazu, wie dass das Ding wieder keinen Aftertouch hat, die Tastatur wohl auch nur so mittel sein soll.
Das ist wieder so ein Ding, das kann sich so eine Indie-Pop-Band an den Bühnenrand stellen und da so ein paar Synthie-Sounds abfahren, für das ist es glaube ich cool.
Aber so für die Synthesizer-Fraktion ansonsten…
Du musst echt immer gucken, viele Leute vergessen immer bei solchen Produktankündigen, für welches Zielpublikum ist das gedacht.
Das ist nicht für die Synthesizer-Nerds. Die Synthesizer-Nerds, die kriegen da ihren Phantom, mit der Enzyme-Synthesizer-Sendcore-Geschichte.
Das stimmt, Sendcore und dann noch die ganzen… Der Phantom soll jetzt auch ABC kriegen, also RCB, diese noch bessere Emulation. Da wollen sie jetzt einen Chip dafür ummodeln.
Das hätten sie jetzt offenbar geschafft, habe ich jetzt neulich mal gelesen. Keine Ahnung, was da dran ist.
Okay, ich bin gespannt.
Ja, ich auch.
Ich bin gespannt, schauen wir mal, was da kommt. Und ich glaube, dieser Gaia 2, das zielt tatsächlich auf den, wie heißt das so schön, nicht auf den Prosumer-Markt, sondern auf den Consumer-Markt.
Den Consumer-Markt, ja.
Oma sucht für ihren Enkel einen geilen Synth aus, für seine Schul-Indie-Pop-Band.
Oh ja.
Also ich bin sofort dafür, wir brauchen wieder mehr Schul-Indie-Pop-Bands, ganz ehrlich.
Was kostet der Spaß?
800 irgendwas und das ist das Problem, weil den Minilock kriegst du für die Hälfte.
Autsch, das ist teuer. Was hat der Gaia 1 gekostet?
Glaub ich 699 vor der Inflation und das war noch eine Zeit, wo das einzige darunter der MicroBrute war.
Na gut, okay.
Der MicroKorg. 2010 war das einfach, also es gibt einen Trend im Musiker-Board, wo jemand mal 2010 die Einsteiger-freundlichen Synthesizer dazu gezählt hat.
Und da taucht der Gaia mit drin auf, weil er halt damals einer der bezahlbaren war.
Und die bezahlbaren waren halt wirklich MicroKorgs in diversen Varianten, MicroMiniak und dann der Gaia.
Plus noch, glaub ich, die Ultranova kam da grad so um die Ecke und von der hat er abgeraten, weil die Ultranova kein Einsteiger-Gerät ist.
Aber das waren andere Zeiten. Wir waren prä-Inflation.
Hallo? Ultranova? Voll das Einsteiger-Gerät. Oder?
Das Ding überflutet dich doch mit Varianten und Ideen.
Ich hatte die ja auch mal. Das ist ziemlich oma-kill, das Teil.
Na gut. Man kann auch drauf einsteigen, von mir aus.
Nee, aber das Problem ist halt, der Gaia ist jetzt mit der Inflation irgendwo bei 900.
Natürlich wird das den Leuten vorkommen, die so teppig sind und auch damals 1000 Euro für einen Tune-O-Die-Eye ausgegeben haben.
Aber du kannst doch kein ganzes Gerät nur auf 16-Jährige ausrichten.
Ja, du darfst nicht vergessen, während der Corona-Jahre sind viele Leute zu Hause geblieben, haben sich mit neuen Hobbys auseinandergesetzt
und viele Leute haben erst vor drei Jahren angefangen, Gear zu sammeln.
Wir haben doch selber zusammen hier die entsprechenden Reddit-Threads durchgeackert nach Metal Stations.
Da hast du das doch ganz deutlich gesehen. Und für solche Leute ist dieses Produkt gedacht.
Ja. So. Jetzt kommt die Geschichte, die ich eigentlich erzählen wollte.
Denn ich bin im Viertel in Leipzig, wo die Leute nicht einfach nur als Alternativ rumlaufen können.
Weil halt hier, wie gesagt, es ist Sachsen, der Kessel ist, jemand hat das so schön gesagt, es ist hier.
Es gibt das linke Leipzig und es gibt den Rest. Und der Rest hält dem linken Leipzig so ein bisschen den Rücken frei.
Das, was in Köln nicht mehr der Fall ist, oder eben Hannover. Das habe ich schon am Anfang gesagt.
Auf jeden Fall Kornewitz. Ich war da gestern am Konzert. Future war by the way sehr, sehr gut.
Aber ich bin da quasi durch Kornewitz gelaufen und in so einem kleinen Hinterhof, da lauter in einem wirklich,
also ganz ehrlich, dieses Alternativ-Viertel. Ich habe Dinge gesehen.
Ich denke immer, ich komme aus einer links-progressiven Stadt. Vergiss es. Leipzig-Kornewitz, das ist es einfach.
Auf jeden Fall in irgendeiner Ecke, neben einer Bar mit Blauhaarigen vor der Tür und übersät von Plakaten, Sprayereien und allem,
stoße ich auf einen Shop. Ich google kurz und sehe, die haben zumindest auf Lager, auf Zentrallager, die den Gaia 2.
Ich gehe da rein und sehe keine, es ist so, keine Ahnung, gefühlte Wohnungsgröße.
Hier sind ein paar Gitarren, hier sind ein paar Pianos, hier sind ein paar Drums und da hinten ist eine kleine Synthesizer-Ecke mit fünf Synthesizern
und eine Native Instruments Station. Ich sehe keinen Gaia, aber ich sehe etwas anderes.
Jetzt ist ein Bild im Slack und ich habe noch letzten Podcast gesagt, ich habe dieses Gerät noch nicht live gesehen.
Ah, den Hydra Synth.
Den tatsächlich auch nur einmal.
Und, was ist dein Eindruck?
Von PolyBrute. Ganz ehrlich, ich frage mich gerade, welche komische Fügung des Schicksals es war,
dass dieses Gerät rauskam und drei Jahre lang nicht in meine Finger kam. Ich habe es eingeschaltet,
habe ein Kopfhörer aufgesetzt und irgendwann haben die mir gesagt, wir müssen den Laden jetzt dicht machen.
Ach du Scheiße. Das ist geil.
Herzlich Willkommen in meiner Welt.
Ja, und es gibt diese schöne Anekdote von Ben Jordan, glaube ich, wo er auch gesagt hat,
ich habe PolyBrute ausgepackt in der Küche, nur mal ein bisschen probieren und dann ging draußen die Sonne auf.
Und ungefähr so habe ich mich gefühlt. Das hat mir noch zum Geek gereicht.
Das ist völlig insane, dieses Ding. Also ganz ehrlich, ich habe mich da drin verloren.
Ich habe mich da drin echt verloren. Und das bin ich, der auf Hardware grundsätzlich nicht wirklich gut unterwegs ist.
Also wir machen jetzt natürlich einen ziemlichen Sprung vom Gaia zum PolyBrute.
Aber so 2000 Fragen oben drauf.
Jetzt kannst du verstehen, warum mich der Gaia halt so, ja, okay, gibts, ist nett, viel Spaß.
Das ist Ehre, ey. Das ist wirklich Ehre.
Das Schlimme ist, wenn du so ein PolyBrute erst mal unter den Fingern hattest und gespielt hast,
du bist total versaut für alle anderen Synthesizer.
Ich habe mir echt gedacht, ich soll zu Hause nochmal den Summit anpacken.
Der verlässt doch nie wieder seinen Geek-Band.
Obwohl das eigentlich auf dem Papier der potentere Synthesizer ist.
Aber an diesem PolyBrute ist einfach so viel richtig gemacht worden.
Weil der mega musikalisch ist.
Weil die haben, jede einzelne Stimme ist komplett durchgebaut bei den Signalen und auch bei den Modulationen.
Da sind keine Kompromisse eingegangen.
Der Modulator, der Metalizer, der Ringmodulator, die beiden Filter mit all ihren Optionen, diese Mod-Matrix, die Effekte, dann dieses Morphe, nur schon allein der Morphe-Knopf.
Hatten die schon das 3.0 Update drauf?
Hatten sie.
Hatten sie.
Geil.
Es war irre.
Ich habe mich da mit einer Hand auf den Wheeze angefangen zu krampfen.
Und auf den Morphe.
Das war eine Erfahrung.
Das war eine Erfahrung für sich.
Ich habe echt gedacht, zum Glück habe ich gerade kein Geld dafür.
Ich hätte ihn rausgetragen.
Also zwei kleine Kritikpunkte gibt es.
Erstens bin ich kein Fan der Tastatur.
Nein, die ist okay.
Fürs Ambient-Sound-Design ist sie super, aber sie ist weder schnell noch ist sie bequem.
Nein, das ist keine Fata, das merkt man.
Ich habe ja einen Moog Voyager gehabt, der hatte eine Fata drin.
Und ich habe einen Waldorf Blofeld Keyboard gehabt, der hat auch eine Fata, die sind alle besser als das, was in Matur hier verbaut ist.
Aber das Ding klingt einfach geil.
Das klingt und bedient sich als all diese Modulationen.
Also Wheeze, Morphe, Ribbon.
Polypressure wäre echt noch die Sahne auf die Torte.
Aber das reicht auch so.
Warten wir mal ab. Irgendwann werden sie ihn auch aktualisieren.
Dann sieht das Ding auch noch im Schwarz so sexy aus.
Und dann kam das Schlimmste.
Weil bis dahin hatte ich nur mit Presets rumgespielt.
Dann habe ich mir gedacht, ich gehe mal auf Init.
Ich habe mir innerhalb einer Minute diesen nicht sonderlich komplexen, aber doch relativ effektiven Arpeggio Sound aus Roadtrip Sex Into Sunset zusammengebaut.
Der stammt im Original aus dem Pigments.
In einer Minute.
Auf dem Summit habe ich fast eine Stunde gebraucht, um anwährend da ranzukommen.
Bei Arturia war ich in einer Minute da und dann habe ich die Effekte rausgeholt und ab dann war es einfach nur noch...
Ja.
Alter, ich brauch dieses Ding.
Jetzt verstehst du mich, ne?
Ja, wirklich.
Das ist so ein Gerät, das kann auf der Oberfläche nicht sonderlich viel, aber das catcht.
Wobei, wenn ich über den Polyboot rede, dann mache ich ja immer hier den norddeutschen...
Norddeutsch ist Understatement.
Deswegen...
So, jetzt stell dir vor, du stellst dir zu dem Polyboot auch noch ein Mini-Freak hin.
Schön.
Ja, oder ein Super Six. Man kann ja mal klotzen.
Ja, mal sehen, was die Bude hergibt. Ich bin leider zu spät, um das Studio-Lautsprecher zurückzuschicken, aber das wäre auch eine ganz andere Baustelle.
Nee, aber echt jetzt. Das ist jetzt wieder so ein ganz gefährlicher Gaskandidat.
Aber wie gesagt, 23 Kilo.
Ist ja egal.
Ist ein Trümmer.
Ja, aber ich muss für den Summit auch das Auto mitnehmen, von daher ist es echt schon fast egal.
Kannst ja leichter unter den Arm klemmen, der wiegt keine 23 Kilo.
Ja, geht auch noch aufs Fahrrad, aber es sind ja auch 16 oder 15.
Das Studio-Logic ist leichter als das Summit. Das ist echt ein Witz, aber...
Naja, soll halt vorkommen.
Nee, aber da so...
Das ist so ein Synthesizer, wenn ich mir vorstelle, wenn ich da so ein Act habe,
wo ich wirklich in diese Synthesimodulationen eintauchen würde.
Wenn ich noch zusätzlich jemanden hätte, der mir die Sounds baut.
Das ist ein bisschen der Punkt. Diese komplexeren Sounds, ich glaube...
Ich bin dann doch irgendwann wieder zurück zu den Presets und hab mich halt daran gefreut,
dass diese richtig gut modulierbar sind.
Es sind über 2000 Presets mittlerweile, du kannst ja auch noch welche runterladen.
Da ist so viel Auswahl und wenn du dann anfängst, an der Kiste rumzuschrauben...
Nee, aber es hat mich halt baff gemacht, weil ich bin, wie gesagt,
ich bin ein absoluter Presethure und ich bin ein absoluter Software-Typ.
Ich bin nicht gewohnt daran, dass ich haptisch an Geräten funktioniere.
Und das Ding hat mich einfach mal sowas von gebrochen.
Wie heißt das so schön?
Du gehst nicht zu den Geräten, sondern die Geräte kommen zu dir.
Ja, da könnte unbedingt was dran sein.
Und apropos zu mir. Ich hab ja gesagt, ich bin mit dem Arbeitslaptop unterwegs.
Und das ist der allerletzte Punkt, den ich anbringen möchte,
weil er einfach so das krasse Gegenteil der Polygroup-Erfahrung ist.
Ich habe meinen Laptop genommen, dennoch so ein bisschen von früher,
weil es bis Anfang Sommer, glaube ich, mein Hauptrechner war,
bevor ich dann das MacBook umgezogen habe von Actualis Air,
und habe alle Plugins runtergeschmissen, die ich aktuell so benutze.
Kontakt weg, die Dawson-Plugins weg, Omnisphere runter,
einiges an Heckmann-Zeug, Repro weg, Ace weg und so.
Und was ich draufgelassen habe, waren die B-Ware.
Das heißt, die Sachen aus dem Core-Collection-Bundle,
das Zeug aus dem Ares-Modeling-Bundle, ich habe Abyss draufgelassen,
ich habe, was habe ich noch draufgelassen, ja, die ganzen Native Instruments,
ich habe von Native Instruments die alten Sachen draufgeladen,
Massive, FM8, Absinthe, also das Zeug, das du schon fast nicht mehr lesen kannst,
weil du es nicht zuhören kannst.
Und Hive und Diva habe ich draufgelassen, aber habe die Skins runtergeworfen,
habe nur noch den Originalskin oder die Plugmon-Skins von ganz früher,
aber nicht die aktuellen, die ich benutze.
Ich habe mir also gesagt, du gehst auch mit deinem Reise-Laptop unterwegs,
und benutzt jetzt lauter alternativen Scheiß.
Es geht. Also ich habe nette Tracks gemacht damit.
Die könnte ich nachher auch mal alle veröffentlichen.
Also so eine kleine Playlist machen, vielleicht bis dieser Podcast raus ist.
Mal ein paar auf Soundcloud stellen.
Aber ich habe mich regelmäßig gefragt, wo ist denn mein anderer Sound?
Eigentlich will ich meine Pappenheimer, oder?
Da habe ich mir auf den Winseln gedacht, der ganze Bundle-Müll.
Aber ist das nicht auch für dich nochmal eine Selbstbestätigung,
dass du merkst, für dich ist es nicht unbedingt egal,
aber du kannst auch mit anderen Sachen einfach Musik machen,
weil du einfach ein Musiker bist.
Ja, ich habe vor allem gemerkt, die alten Sachen sind ja auch so ein Grund da.
Und ich glaube, dass mein gefährlicher Drang dazu, etwas Neues zu benutzen,
ich wäre dazu bequem, weißt du?
Diva ist da, riesige Patch-Library, Hive ist da, riesige Patch-Library,
Dune ist da, riesige Patch-Library, meine paar Effekten, Pappenheimer oder Kult, etc.
Repro. Eigentlich hätte ich mir in den ganzen Plug-In-Kauf-Wahnsinns
nur Kult kaufen müssen.
Ich habe vielleicht noch ein, zwei andere Sachen.
Das Arturia-Piano und ein paar Effekte sind ja auch cool.
Aber ich denke mir dann, okay, du hast gerade zum ersten Mal Rounds aus Reaktor
oder Form aus Reaktor oder auch der alte Polysix aus dem Korkband,
den ich tatsächlich sehr gerne für Sägezähne benutze,
weil der hat so einen gewissen Druck, ohne allzu hart zu sein.
Ich benutze ja gerne den in-it-säge-zahn von Omnisphere.
Und den habe ich halt nicht mehr.
Also ist der Polysix quasi an die Stelle gerutscht.
Der ist nett, keine Frage.
Was noch?
Ja, eben, also, was benutzen?
Battery habe ich ausgepackt, wo ich halt gedacht,
ja gut, Ableton, Drum Rack, reichen mir ja.
Oder, nee, Battery ist cool.
Da fände ich auch so eine.
Ja, ich frage mich halt eben, wie gesagt,
ich weiß jetzt nicht, was ich davon in den richtigen Workflow mitnehme,
aber ich finde es so, es ist so diese ganz, ganz komische Mischung aus,
ja, ich weiß ganz genau, wie ich das machen wollen würde.
Ach, scheiße, der ist nicht da.
Ich nehme den ab.
Nee, scheiße, der ist auch nicht mehr da.
Ich muss jetzt aktiv was ganz anderes suchen
und komme dabei auf Ideen, die ich ohne diese kleinen Erzeuger
natürlich nicht gehabt hätte.
Und es klingt auch nicht schlecht.
Also klar, es ist eher so Loom-Kram,
oder den man halt so in einer Stunde Zugfahrt zusammenbaut,
bevor der Akku weg ist.
Aber, ja, es ist ein altes MacBook, das Ding heißt.
Auf dem neuen hätte ich, glaube ich, noch nicht laden müssen.
Auf dieser heißt es.
Ja, Thomas?
Ich habe den Faden verloren.
Ich wollte was anderes sagen, aber
ich habe so eine kleine Erfahrung,
was in deine Richtung geht, auch gemacht.
Ich habe mich, jetzt am Wochenende hatte ich mal
so eine halbe Stunde wirklich ein bisschen Zeit,
wo ich einfach hier mal Ableton Live angeschmissen habe.
Habe mir eine Handvoll Plugins,
die halt bei mir so auf der Platte rumlagen, aufgemacht.
So ein bisschen hier Acid V,
dann noch hier den, wie heißt der hier, der Granulator.
Fragments?
Fragments und dann nochmal eine Instanz mit Synplan für Flächen,
also mit dem neuen Synplan.
Und habe dann einfach da eine Preset-Baseline von Acid V laufen lassen.
Habe so ein bisschen mit Microtonic so eins von den runtergeladenen
Factory-Presets da abgedoodelt.
Ja, das ist okay.
In langsamem Tempo.
Ja, das hat so viel Spaß gemacht, einfach mal so eine halbe Stunde
in so einer ganz kleinen Umgebung in der Box mal wieder Musik zu machen.
Das habe ich jetzt schon seit, ich glaube seit mehreren Jahren nicht mehr gemacht.
Das war auch für mich auch mal wieder eine Erfahrung.
Kann ich mir vorstellen.
Insofern kann ich das so ein bisschen nachvollziehen,
wenn du da für dich so entdeckt hast,
dass du mit so einem kleinen Setup das auch ganz schön viel Spaß machen kannst.
Ja, also ich bin voll wieder fasziniert davon,
weil ich habe Ableton 10 noch auf dem Rechner.
Es gibt zwar, glaube ich, mittlerweile ein Script für das 11.
Also das ist so eine alte Bastelei aus dem Ableton.
Du kannst für den Korg Nanokontroll eigentlich ein APC-Script runterziehen,
das dir quasi den ganzen Mixer und das Pad-Controlling und das Clip-Launching,
also wie ich eigentlich nenne, APC-4, sich so ein bisschen emuliert.
Auf dem Nanokontroll.
Dann habe ich noch das KMI-Keyboard zusätzlich drunter genommen
und fertig war die Sause.
Mit diesem kleinen Besteck reise ich gerade durch Deutschland.
Das passt in meinen Rucksack noch problemlos mit rein.
Und ja, das macht genau das, was es soll.
Und ich denke mir halt einfach, okay, gut, das war jetzt eine Erfahrung von 600 Franken,
die du dir versucht hast, mit dem Innovation Circuit und den Boutiques
irgendwie quasi auf eine andere Art zu gehen.
Aber eigentlich bist du nur dein alter Laptop,
für genau so was ausrangieren.
Und gleichzeitig habe ich mich halt daran bestätigt gefühlt,
dass ich gedacht habe, nee, eigentlich will ich jetzt Repro aufmachen,
eigentlich will ich jetzt Hive aufmachen,
eigentlich will ich jetzt meine gewohnte Umgebung.
Wo ist meine gewohnte Umgebung? Was soll die Scheiße?
Ich glaube, dass das wichtig ist, dass man ab und zu mal
seine eingetretenen Pfade verlässt, um einfach deinem Gehirn
auch mal so wieder frisches Futter zu geben, weißt du?
Ja, neuen Blick ins Denkerl.
Ja, genau.
Definitiv.
Deswegen habe ich auch diese Reise gemacht.
Genau, so viel Geschichten aus dem Ausland mit dem schlechten Mikrofon.
Ja, ich glaube, das ist ein schönes Schlusswort, oder?
Definitiv.
Jetzt haben wir so gut zwei Stunden voll fast,
haben die Hälfte von Tobis Datenvolumen aufgebraucht.
Nö, machen wir kurz, ich gucke mal kurz ins Cockpit.
Ah, jetzt bin ich gespannt.
Das waren 500 Megabyte.
Siehste?
Studio Link ist super zum Aufnehmen von Podcasts.
Die Angst war völlig unbeduldet.
Genau, ein großes Dankeschön an die Studio Link Entwickler,
dass sie so eine Datenvolumen kostensparende Lösung entwickelt haben
und dass man auch über Mobilfunk mal eben schnell
einen dreistündigen Probe Podcast aufnehmen kann.
Und schalte dann auch beim nächsten Mal wieder ein,
wenn ihr Sascha hören sagen wollt.
Der Probe Podcast, bei einem gemütlichen Talk aus dem Proberaum.
Ich sage Dankeschön und auf Wiedersehen.
Schaltet beim nächsten ein, denn die Show muss sein.
Tschüssi Leute.
Wie war das? Hoch die Tassen.
Läuft große, bunte, bahnische Augen.
Tschüss. Hoch die Tassen, runter die Tasten.
Und dann nachdrücken auf PoliAfter.
Ich freu mich drauf.
Pack die Badehose ein.
Tschüss Leute.
Tschüss.
Der Probe Podcast.
Ein Podcast, bei einem gemütlichen Talk im Proberaum.
Untertitelung: BR 2018

Unterstützen:
Ihr könnt uns über Paypal direkt unterstützen oder über Steady oder über Patreon mit einem kleinen Mehrwert als Dankeschön.

Die spenden werden benötigt, um ein Teil der kosten für die Bereitstellung meiner werke, Podcast Blog texte sowie die Videos zu gewährleisten.

"Unterstützer erhalten vorab Zugriff auf die neusten Veröffentlichungen noch vor ihren regulären Erscheinen im Rohschnitt. Darüber hinaus gibt es exklusive Inhalte nur für die Unterstützer wie vor und nach Gesprächen sowie eine Art Tagebuch. Über folgende Dienste könnt ihr uns so unterstützen: Steady, Patreon und erhaltet Zugang zu den extra Inhalten."

Patreon Feed auf Spotify oder Steady Feed auf Spotfy



Feedback zur Ausgabe hinterlassen?
Dann schreib doch ein Kommentar

Audio Feedback zur Sendung?
Der Anrufbeantworter ist geschaltet. ☎ 0231 53075818

Specher:
avatar
Tobi
avatar
Notstrom
avatar
Sascha

Anzal der Downloads: 267 /  Spieldauer: 1:52:54 /
Tag der Aufnahme: 12.10.23 /  Diese Folge stammt aus der Staffel 3, es gibt insgesam 4 Staffeln.

Eine LautFunk Publikationskartell Produktion - Wo Geschichten unüberhörbar übermittelt werden.


Podcast Lizenz: