Probe Podcast 65 Stephan Schmitt

Bitte hinterlasse ein Kommentar und ein Like

Beschreibung:

Interview-Finale des Probe-Podcast-Jahres 2023, heute mit dem Mann hinter Big N und Little N gleichermassen. Stephan Schmitt, legendärer Tüftler und nach eigener Angabe entgegen Wikipedia nicht Musiker, erzählt aus seinem Leben und Wirken – von der Altbarockblockflöte bis zum Fender Rhodes, vom Modularbaukasten für den Heimcomputer bis zum dicken Digitalsynth-Hardware-Polyschlachtschiff, von 25 Semestern Elektrotechnik bis zur wahnwitzigen Marktstörung per Direktvertrieb, von Native Instruments bis Nonlinear Labs. Ausserdem: Berlin, DX7, Web 1.5, Kreativnachwuchs, ungeliebte Elektromucker, Möbelstücke, Kammfilter, Resonatoren, Magnetfolien und gelebte Jugendträume. Viel Spass damit.

Stephan Schmit
Links zur Ausgabe:

▶ Hier Klicken für das Tanscript:
Transcript:

Hallo und willkommen zum Probe-Podcast.
So leicht aus dem Krankensimmer, aber gemütlich beim Talk aus dem Proberaum.
Ich begrüße unsere Gäste oder mittlerweile Stamm-Co-Moderatoren und sage Hallo Thomas.
Moin aus Hamburg.
Hallo Tobi.
Das Leben ist grauenhaft.
Ich weiß, ich leide mit dir.
Und wir haben einen sehr speziellen Gast, über den wir uns sehr freuen heute.
Wir haben den Stefan Schmidt.
Wir haben jetzt alle so "Yeah".
Stefan, du bist einer von den Gästen, die eigentlich einen eigenen Wikipedia-Eintrag
verdient hätten, aber keinen haben.
Ich habe tatsächlich auf Wikipedia geguckt.
Ich habe zwar Stefan Schmidt gefunden, aber die waren irgendwie so Physiker und SPD-Politiker
und sowas.
Aber kein, also nicht dich.
Aber was ich gefunden habe, ist ein Eintrag, ein Firmen-Eintrag und zwar "Native Instruments".
Und da war ganz prominent im Wikipedia-Eintrag ganz am Anfang, ich lese das mal vor, weil
das ist so wunderschön.
"Native Instruments, das Unternehmen geht auf die Idee des Ingenieurs und Musikers Stefan
Schmidt zurück.
Schmidt fühlte sich 1994 einerseits vom Gewicht und den Möglichkeiten von Synthesizern eingeschränkt,
andererseits sah er Personalkomputer so leistungsfähig werden, dass sie die Rechenarbeit eines fest
verdrahteten Synthesizers übernehmen und dabei viel flexibler sein könnten."
Und dann geht es noch ein bisschen weiter, das lese ich jetzt nicht alles vor.
Aber ich würde mal sagen, Stefan aus Berlin, herzlich willkommen beim Probe-Podcast.
Ja, danke für die Einladung.
Jetzt bist du aber nicht nur, ich sag mal, Ideengeber, Gründer der Firma "Native Instruments".
Du hast auch jetzt eine, neu kann man schon gar nicht mehr sagen, weil er da schon relativ
lange existiert, du hast auch die Firma "Non-Linear Labs" gegründet.
Das ist sozusagen jetzt dein aktuelles Tätigkeitsfeld, könnte man sagen.
Möchtest du noch dem etwas hinzufügen?
Mich würde vor allem der Part interessieren mit Ingenieur und Musiker.
Ja, so stimmt das nicht.
Also als Musiker würde ich schon eher Leute betrachten, die wirklich, sag mal, professionell
oder einen Großteil ihrer Zeit mit Musik verbringen.
Also ich habe nie mit Musik Geld verdient.
Ich habe mich immer sehr für Musik interessiert, aber ich habe E-Technik studiert.
Also ich habe von daher eine Elektrotechnikausbildung und habe als Ingenieur angefangen zu arbeiten
nach dem Studium.
Von daher, Ingenieur stimmt schon.
Und ja, Musiker aus, sagen wir mal, Leidenschaft am Spielen, ja, aber eben nicht im Sinne eines
professionellen Karriere.
Hast du ein Instrument gelernt?
Ich habe in jüngeren Jahren, ich habe mit einem ganz schrecklichen Instrument angefangen,
nämlich der Blockflöte.
Ich glaube, so zieht nicht jedes Kind in Deutschland, was zur Schule gehen muss.
Ich habe auch noch meine Blockflöte.
Ich habe dann drei.
Ich habe das leider ziemlich lange durchgezogen.
Meine Eltern haben mir dann Unterricht besorgt, dass ich auf der alten Blockflöte dann Barockliteratur
gespielt habe und damit aufgetreten bin und so.
Also es gibt ja solche aus der Literatur, die Blockflöte.
Aber so ein Blockflötenstudium dauert, glaube ich, gleich lange wie ein Medizinstudium,
also auf Profilevel.
Ja, habe ich auch gehört.
Und man kann damit richtig am Konservatorium nachher im Orchester spielen dann.
Ja, klar.
Also wie gesagt, in der Barockmusik war das durchaus ein etabliertes Instrument.
Aber es ist doch ein Instrument, was jemanden wie mich, der mich sehr stark für Rockmusik,
für Blues, für Jazz und sowas interessiert habe, dann doch als Sarkaste sich erwiesen hat.
Passt dann nicht ganz so gut.
Und die ist halt sowas von harmlos und, wie soll man sagen, einfach kommt nicht durch
gegen den Rest.
Es gab dann einen weiteren Einfluss, sagen wir mal, von der Barockmusik, weil mein Vater,
der hatte mal ein bisschen Klavierunterricht in der Jugend und später hat er sich ein
Cembalo angeschafft, weil er nämlich auch immer ganz viel Barockmusik gehört hat.
Und dieses Cembalo stand dann unbenutzt bei uns herum, weil er dann merkte, dass er dann
doch nicht so wieder quasi auf das Niveau kam.
Und dann habe ich angefangen, auf dem Cembalo herumzudrücken und auszuprobieren.
Dann habe ich irgendwann gesagt, da hätte ich gerne auch ein bisschen Unterricht.
War aber auch für meine eigentlichen Musikinteressen auch eine Sarkasse.
Das Cembalo ist auch ein Instrument, was auch sehr steif und sehr…
Ist halt keine Gitarre, ne?
Ein E-Cembalo?
Nein, das Hohner Klavinet, das ist eine tolle Lösung.
Und das habe ich aber erst sehr viel später kennengelernt.
Und dann hat ein Freund von mir, der war schon in der Schule, kann man sagen, so in Richtung
Profimusiker unterwegs, der wollte sich ein Fender Rhodes anschaffen und fragte, ob wir
uns das teilen könnten, dass wir die Anschaffungskosten halbieren.
Und mit dem hatte ich dann zusammen ein Fender Rhodes.
Dann ist er nach den USA gegangen zum Studieren und ich hatte das Fender Rhodes dann für
mich.
Und das war mein erstes Instrument, mit dem ich dann auch in Bands spielen konnte.
Ja, mit dem kann man auch schon ganz schön abrocken dann, ne?
Ja.
Dann habe ich in Amateurbands, also ich habe in Bordwey studiert und da mit Leuten halt
Musik gemacht in verschiedenen kleinen Jazzrock, Funkbands, so in der Richtung.
Und dann mit auf dem Fender noch ein CX-3, glaube ich, oder so, von Korg, so ein Orgel.
CX-3, so ein Transistororgel, ja.
Ja, ja.
Und später dann ein Polysix, das war das, was man sich gerade noch leisten konnte, als
es losging mit Polyphon-Synthies.
Und dann habe ich eben Elektrotechnik studiert und in der Zeit aber, ja, auch viel mich abgelenkt.
Also ich bin schließlich am Ende, bin ich im 25.
Semester exmatrikuliert worden.
Ja, ich sage das immer allen Kollegen und so, ich bin ein wahrendes Beispiel dafür,
wie man es nicht machen sollte, mit dem Studieren.
Also wenn wir Studenten haben und Praktikanten und so weiter.
Ich habe alles gemacht.
Ich habe sogar, ja, alle Studienarbeiten, die Diplomarbeit mit eins und so, alles abgeliefert.
Aber ich hatte keine Lust, Praktikantenberichte oder Praktikumsberichte zu schreiben.
Und das war dann im Prinzip das, was noch fehlte für das Diplom.
Und dann irgendwann war ich schon längst in der Industrie tätig und ja, hatte vollwertige
Jobs und dann hat man mir gesagt, ich könnte ja mal irgendwann anders weiter studieren
und naja, dann habe ich mich exmatrikuliert.
Ich würde mal sagen, der Erfolg gibt dir recht.
Also man muss nicht unbedingt sein Studium abschließen.
Man muss nur das, was man dort gelernt hat, einfach praktisch anwenden.
Ja, das ist auch bei Bewerbern und Leuten, mit denen ich zu tun habe, die irgendwie arbeiten
wollen.
Die gucken mir an, was sie praktisch gemacht haben und nicht, was sie für Abschlüsse
haben.
Und in dieser Braunschweiger Zeit jedenfalls, da habe ich mich viel abgelenkt mit Musik
machen, aber auch mit Studiojobs.
Also im Sinne, dass ich, oder mit Live-Mix-Sachen.
Ich war immer auch der Techniker für Bands.
Ich habe Bands betreut und ich habe nachher dann so für einen PA-Verleih gearbeitet, da
die Konzerte und Stadtfests und was immer zu beschallen war, bin ich halt rausgefahren,
habe die Anlage aufgebaut, habe da Beschallung gemacht, solche Sachen.
Dann hatten wir da ein Studio auch in den Räumlichkeiten dieser Firma.
Das habe ich betrieben und mit Leuten und irgendwelchen anderen Musikproduktionsprojekten
meistens eher von der technischen Seite betreut.
Da habe ich eine ganze Menge Erfahrung sammeln können im Audiobereich.
Beim Elektrotechnikstudium selber hat man ja doch, da ist Audio nur ein ganz kleiner
Ausschnitt und wird auch nicht besonders ernst genommen von den Professoren.
Da hat man irgendwie so einen Kommunikationswissenschafts- oder Nachrichtentechnik-Bereich, da ist dann
wieder ein bisschen Audio drunter.
Aber das heißt, was ich im Audiobereich weiß oder kann, das habe ich mir eigentlich alles
selber beigebracht.
Trotzdem hat das Studium schon eine Menge gebracht.
Ich habe so einen Schwerpunkt gehabt, Nachrichtentechnik und Regelungstechnik.
Da hat man halt mit Signalen zu tun, Signalübertragung, Konvertierung von Signalen und so weiter.
Dementsprechend hatte ich ganz gute Grundlagen, auch später dann im Audiobereich.
Eine kurze Verständnisfrage, in welchem Zeitraum bewegen wir uns gerade?
Ende 80er, Anfang 90er?
Stand die Mauer noch?
Ja, genau.
1976 habe ich Abitur gemacht, bin dann nach Braunschweig zum Studium gegangen und 1988
bin ich nach Berlin gekommen.
Da stand die Mauer gerade noch.
Dann habe ich erstmal in Berlin in einer Firma angefangen, in einem Bereich, in einem Entwicklungsbereich
für Glasfaserübertragungssysteme.
Das hatte also mit Audi nichts zu tun, war aber Kommunikationssysteme im allgemeinen
Sinne und Übertragungstechnik.
Da hat man mich hingelockt, weil mich von der Uni jemand kannte, der Assistent an der
Uni war und später in der Industrie angefangen hatte.
Der wollte mich gerne haben, deswegen bin ich eigentlich in Berlin gelandet, weil er
mich dahin gelockt hat.
Viele andere Freunde sind nach Berlin gegangen, weil Berlin so cool war zu der Zeit, Hausbesetzerzeit
und ja, irgendwie wilde, freie Jahre.
Das war doch auch die Hochzeit des Technos, oder nicht?
Bist du da auch in den Clubs gewesen?
Ja, wobei ich nie verstanden habe, wie man zu der Musik tanzen kann.
Es war schon spannend.
Es war spätestens als die Mauer dann fiel, 1991, gab es natürlich so viele brachliegende
Gelände und Gebäude und so viele Leute, die da mit was angestellt haben und dabei eben
auch diese Technokultur mit begründet haben.
Und ja, zum Beispiel im Tacheles im Keller, da war ich oft zum, ja, das war auch noch
einigermaßen gemischte Musik, oder das WMF, das war so ein legendärer Club, da ist man
irgendwie über einen Hinterhof, über Schuttberge geklettert und irgendwo gab es einen Kellereingang,
wo man ganz tief runterging, das war alles völlig irrsinnig, quasi, was die Sicherheit
da gegenwärtig…
Also nicht mehr so durchgestylt, wie es heutzutage ist?
Nee, nee, sehr…
Sondern noch richtig underground?
Richtig underground und ohne jede Genehmigung.
Natürlich, das hat ja damals den Charme ausgemacht, ne?
Ja, ja, ja.
So in der Zeit.
Ich kenn die Sachen auch noch.
Diese Löcher mit fettem Soundsystem, aber das war eher zusammengeschustert und als
Lichteffekt ein Stroboskop.
Und dann lief da Acid-Musik.
Ja, das ist schon brutal.
Also ich hab erst später gemerkt, also für mich war es auch irgendwie…
Also ich war sehr viel in Discos, wie das noch hieß, bevor es Club genannt wurde.
War manchmal jeden Abend unterwegs oder mehrmals die Woche und hab auch viel Zeit auf der Tanzfläche
verbracht, aber ich hab immer zu Sachen getanzt, die schwarze Einflüsse haben, so Funk und
Soul und sowas.
Wo jemand seine Instrumente noch beherrscht hat.
Das kommt dann später auch zum Tragen bei mir, weil ich mich mit der typischen Kundschaft
von Native Instruments nie richtig identifizieren konnte.
Ich fand es trotzdem sehr spannend, was da so passiert ist in der Zeit und es waren natürlich
eine Menge Freiräume, die die Leute genutzt haben.
Würdest du jetzt, als gerade jemand, der jetzt nicht halt wirklich so mitgetanzt ist,
wenn ich dann Erfahrungen zuhöre, würdest du hier Tani zustimmen, der es mal in "We
Call It Techno" gesagt hat, ab dem Moment, wo es groß wurde, war es vorbei.
Also mit der ersten oder zweiten Mayday, als er dann gesagt hat, ja, das wird jetzt auf
der Kirmes laufen, das ist over.
Ja, das Gefühl, das kann ich gut verstehen.
Ich habe die allererste Love Parade zufällig miterlebt und dann glaube ich auch die zweite.
Später war ich eher beruflich da noch.
Aber bei der zweiten, das war noch ziemlich spannend.
Das ging noch über den Ku'damm und da war glaube ich auch Jeff Mills oder einer von
diesen Detroit Leuten auf einem Wagen dabei oder Carl Craig.
Und das war, obwohl es immer "4 on the Floor" war, was mich eigentlich normalerweise abschreckt,
hat das irgendwie gegroovt.
Das hat wirklich funktioniert.
Aber das war eben noch Detroit Techno.
Und was später auf den Love Parades zu hören war, das war halt Kirmes Techno.
Ja, und es ist ja nachher auch mit einem riesen Desaster dann da in Düsseldorf, nee, in Duisburg.
Es war in Duisburg.
Es ist ja mit einem riesen Desaster in Duisburg geendet, wo die Leute sich dann da gegenseitig
totgetrampelt haben.
Zehntausend Betriebte durch einen Tunnel.
Wer kam auf die Idee?
Ein Kollege von mir war da, war da Sanitäter, der hat mir Geschichten erzählt.
Okay, das ist aber, wir wollten eigentlich einen Unterhaltungs-Podcast machen.
Sorry.
Also, na gut, also jetzt.
Also abgesang einer Ära, aber ich sag mal, im Zuge dieser ganzen Techno-Bewegung, da
bist du auf diese grandiose Idee gekommen, lass uns mal mit dem Computer Musik machen.
Oder wie kam es dazu, zu diesem ersten Software-Synthesizer, zum Generator?
Ich hab dann eine ganze Menge Synthesizer gehabt nach dem Polysix.
Aber ich war immer so ein bisschen antizyklisch unterwegs.
Als der DX7 groß angesagt war, hab ich mir den nicht besorgt, weil ich dachte, den haben
jetzt alle.
Später hab ich gemerkt, was ich verpasst habe mit dem DX7 und hab mich völlig auf
den DX7 konzentriert und hab dann also kein anderes Instrument mehr gespielt, sondern
fünf Jahre lang DX7 programmiert.
Und da hat mir wieder geholfen, diese E-Technik-Ausbildung, weil das ist halt wirklich ein sehr, wie soll
man sagen, abstraktes, technisches, anspruchsvolles Ding.
Mit dem DX7 hab ich dann so Solo-Konzerte gemacht, mal eine Weile lang.
In der Kunstszene, auf Galerienöffnungen oder sowas.
Sehr abstrakte, experimentelle Musik auch gemacht.
Die Leute haben mich auch gefragt, ist das ein Sampler, weil Sampler waren zu der Zeit
dann angesagt und das klang anscheinend eher so akustisch.
Ich hab mich da ziemlich reingefuchst und hab eigentlich seit den 80ern die ganze Synthesizer-Entwicklung
sehr intensiv verfolgt.
Mir immer alles ausprobiert, immer in die Musikgeschäfte gegangen und gemerkt, naja,
so toll find ich das meist nicht.
Und in den 90ern ist das auch in eine ziemliche Sackgasse gelandet.
Oder schon Ende der 80er mit den Workstation und dem ROM-Plan.
Also Geräte, die ganz viel fertig eingebaute Sample-Material haben, was möglichst realistische
oder im Zeitgeist der damaligen Zeit entsprechende Soundquellen geboten hat.
Und das Thema Synthese war eigentlich nicht mehr wirklich im Fokus der Firmen wie Roland,
Korg, Yamaha und so weiter.
Und ich fand das ziemlich frustrierend und hab dann überlegt, wie könnte ich einen
eigenen Synthesizer rausbringen.
Ideen hatte ich da genug.
Ich hab mich erst mal eher auf der Parameter-Ebene vom DX7 ausgetobt.
Ich hatte mit einem Editor, einem Synthworks-Resourcing von Steinberg auf dem Atari damals, den vollen
Zugriff auch über eine visuelle Schnittstelle, ein visuelles User-Interface.
Und das ist, kann man sagen, in gewisser Weise auch der Vorgänger gewesen von dem, was ich
dann später gemacht habe.
Also Software-Synthesizer haben ja den großen Vorteil, dass man eben auch eine sehr ausgefeilte
visuelle Bedienungsabfläche haben kann.
Jedenfalls die digitalen Instrumente, und das war eine Zeit lang ja eigentlich nur das,
was angesagt war und was auch viel leistungsfähiger ist aus meiner Sicht als analoge Instrumente.
Die digitalen Instrumente basierten alle auf ASICs, also Application Specific ICs, also
integrierte Schaltungen, die für den Hersteller Yamaha zum Beispiel von irgendeiner Chipbude
dann produziert werden.
Ja, die bekanntesten sind ja die analogen integrierten Schaltungen.
Das sind ja die Curtis-Chips.
Genau, die Curtis-Chips und so weiter.
Richtig.
Ich hatte eine analoge Phase, aber da war ich noch Teenager, und dann habe ich mit Elektro
Schaltung und so, aber auch mit eigenen Entwürfen habe ich mir Oszillatoren, Filter und so was
gebaut.
Und dann kamen aber die Curtis-Chips und da dachte ich, jetzt kann das jeder.
Das fand ich dann irgendwie auch langweilig, weil also die ganzen Probleme, die man lösen
musste, um jetzt einen stimmstabilen Oszillator zu bekommen und so weiter, die waren da ja
gelöst da drin.
Von sehr guten Leuten, von denen, die da eben im Silicon Valley das gemacht haben.
Ich glaube, Dave Frossom war auch ziemlich beteiligt da dran.
Jedenfalls war das für mich schon ein bisschen so das Ende, wo ich dachte, jetzt bastelt
man nur noch Chips zusammen.
Das ist irgendwie nicht mein Ehrgeiz gewesen damals.
Aber jedenfalls fand ich auch eben die Möglichkeiten, zum Beispiel beim DX7 metallische Klänge
zu produzieren, eben diese Modulationsergebnisse, die Produkte, die dabei rauskommen.
Auch wenn man nur zwei Sinus- oder drei Sinus-Operatoren miteinander kombiniert, das fand ich sehr
spannend.
Aber es war schwer für eine kleinere Firma, für eine neue Firma oder für einen Einzelentwickler
umzusetzen.
Deswegen kam mir das entgegen, dass die Prozessoren immer schneller wurden.
Ein Gründer von Intel, der Herr Moore, hat ja dieses Gesetz zur Verdopplung der Rechnerleistung
alle anderthalb Jahre etwa da aufgestellt.
Das wurde auch lange eingehalten.
Das heißt, man konnte also dauernd damit rechnen, dass man immer schnellere Prozessoren bekommt,
die immer mehr Leistung bringen.
Dann wurde mir dann klar, dass ja, okay, warum ja noch Spezialchips?
Warum nicht einfach irgendwas, was in einem PC steckt, nehmen?
Wir reden vom Zeitraum her.
Ich kürze da zwischen ein.
Das ist so Anfang der 90er.
Da ging es los.
486, Intel, 486er.
Der Pentium war schon am Horizont zu sehen mit unglaublichen 90 bzw. 100 Megahertz.
Die ersten Homecomputer in den 80ern hatten 1 Megahertz.
Deswegen auch das Moore-Gesetz.
Ja, genau.
Das exponentielle Maximum der Verarbeitungsgeschwindigkeit.
Und der Pentium war für mich auch der Punkt, an dem es interessant wurde.
Der hatte auch von der Ausstattung her, was Register und Rechenwerke so anging.
Der war wirklich DSP-tauglich.
DSP heißt digitale Signalverarbeitung.
Dass man da Echtzeitfähig werden konnte.
Mit Pentium und Windows 95.
Das waren so die beiden.
Richtig, genau.
Windows 95 war ja auch damals die Revolution.
Bis das endlich 32-Bitig wurde.
Und Mac war gerade am Wegsterben.
Da war also noch nicht der Highland wieder erschienen.
Weil sie noch auf Motorola-Prozessoren gesetzt hatten.
Ja, ja.
Deswegen habe ich gesagt, okay.
Ich habe dann jemanden gefunden in einer Firma, in der ich damals gearbeitet habe.
Das war im Mischpult-Bereich.
Die Firma wurde aber dann auch wieder umrandticht gemacht.
Und wir gingen in die Arbeitslosigkeit.
Und mit dem habe ich mich hingesetzt und gesagt, komm, du hast Ahnung von Compilern und von
Software und ich habe Ahnung von Signalverarbeitung.
Lass uns mal probieren, ob wir nicht einen Synthesizer auf der Basis von ganz normalen
PC-Prozessoren und Betriebssystemen hinbekommen.
Das war der Volker Hinz, richtig?
Genau, Volker Hinz.
Und ja, Volker hat sich da durchgebissen durch die ganzen Entwicklungsumgebungen, die dann
dafür nötig waren, bis hin zu einer Treiberentwicklung, die wir dann gemacht haben.
Wir haben festgestellt, dass die Soundkarten zu der Zeit unzufrieden große Latenzen hatten.
Man konnte also nicht über normale Soundkarten Keyboard spielen.
Der Ansatz war, man nimmt ein MIDI-Keyboard, der Computer hat einen MIDI-Eingang, im Computer
läuft die notwendige Signalerzeugung und dann gibt man es aus über eine Soundkarte
und das hat dann hoffentlich was in Echtzeit spielbares und das war mit den Soundkarten
nicht möglich.
Da hatte man 120 Millisekunden oder so Latenzen.
Das waren noch die ISA-Karten, die über den ISA-Bus angeschlossen waren.
Genau.
Der Systembus war so quälend langsam.
Wir haben damals auch eine eigene Karte entwickelt.
Das war auch eine ISA-Karte.
Das ging schon.
Man musste nur ganz direkt in den Handler schreiben und dann ging das.
Wir hatten damit die ganze Kette von der Bedienoberfläche, MIDI haben wir genommen, wie es war, bis zum
Audioausgang hatten wir dann unter Kontrolle und konnten auf die Art und Weise befriedigende
Performance bekommen.
Der Ansatz war, dass wir am Anfang dachte ich, irgendein Synthesizer, mir fällt schon
was ein von der Struktur her und dann fängt man an mit irgendwelchen Oszillatoren, irgendwelchen
Filtern oder so.
Dann haben wir gemerkt, wenn man Software entwickelt, ist sowieso alles modular.
Man schreibt Software-Module, die man nachher wiederverwenden kann, sonst verschwindet man
ja seine Zeit.
Und die man auch jedes Modul für sich weiter optimieren, weiterentwickeln kann.
Deswegen hat sich schnell der Gedanke bei uns etabliert, dass wir gesagt haben, wir
können das eigentlich auch an den User durchreichen.
Wir schreiben hier Software-Module auf der Software-Ebene, aber wir können diese Module
auch im User-Interface sichtbar machen und wir können dem User die Möglichkeiten geben,
diese Module miteinander zu verdrahten, indem man einen Wire zieht vom Ausgang eines Moduls
zum Eingang eines anderen.
Das war dann ein radikaler Ansatz, der aber mir sehr mächtig erschien, dass wir uns damit
gar nicht festgelegt haben, auf irgendeinen Klangerzeuger, auf irgendeinen Effekt oder
sonst was.
Sondern wir haben erstmal eine Plattform entwickelt, auf der dann wir und andere, und das wurde
dann eben auch ziemlich wichtig, dass da neue Leute dann hinzukommen konnten, die dieses
Modularsystem, diesen Baukasten dann eben benutzt haben.
Und deswegen ist Generator als Vorgänger vom Reaktor schon so angelegt worden, dass
man eben in die Struktur was reinpacken muss.
Dann sieht man auf dem Panel, das ist dann die zweite Ebene, sieht man eventuell Bedienelemente.
Und man kann aber immer wieder in die Struktur reingehen und alles editieren und weitermachen,
was allerdings auch sehr Ingenieursmäßig ist, muss man auch sagen.
Wir haben die potenziellen User also komplett überfordert damit.
Sorry, du wolltest was sagen?
Ihr habt, als ihr die Version 1.5 von dem Generator rausgebracht hattet, ich habe da
tatsächlich bei Sound on Sound einen Testartikel gefunden für Native Instruments Generator
1.5, aus dem September 1998, geschrieben von Martin Walker.
Und er führt hier auf, ihr habt das, was du gerade erzählt hattest, ihr habt also
140 fertig designte Instrumente in dieser Generator Library mitgeliefert.
Davon waren 70 unterschiedliche Synthesizer, die in solche Kategorien sortiert sind wie
Atmosphere, Basic, Analog, FM, Modeling, Organ, Padstring, Percussions und so weiter und so
fort.
Und ihr habt aber auch, und das finde ich war für die damalige Zeit total, ich sag
mal, ja, bahnbrechend, ihr habt auch Effektverarbeitungsmodule quasi, also Effektgeräte, Chorus, Kompression,
Distortion, Filter, Flanger, Delays und so weiter und so fort, habt ihr auch mit reingepackt,
dass man das entsprechend dann auch schon nutzen konnte, um sein Audio, was man eben
im Bahnrechner hatte, dann entsprechend auch dann schon zu verändern.
Und das ist, glaube ich, also mittlerweile ist das ja Standard, das macht jede DAW, die
bei 12 nicht auf dem Baum ist, aber damals war das, also soweit ich mich erinnern kann,
ich hatte damals Generator, das war der Hammer.
Ja, Generator war in sich schon ein kleines Studio, ne?
Also man konnte Instrumente, also die höchste Ebene, das Ensemble, das konnte Instrumente
beinhalten und Instrumente, das war jetzt nicht unbedingt nur Klangerzeuger, das konnten
auch eben, ja, Units sein, die halt als Effektprozessoren laufen.
Und man konnte sich auch einen Mixer bauen und so weiter, also mehrere Instrumentenkanäle
über mehrere Effekte auf mehrere Mixerkanäle bringen oder so.
Es gab, also jetzt nur so als kleine Bemerkung, also dieses Effektprozessing war schon etabliert
zu der Zeit, ja?
Also in den DAWs.
Also es gab auch schon Effektplugins, also sagen wir mal für Dings hier, wie heißt
das, Pro Tools und so.
Ja, aber dass du das alles miteinander verbinden kannst und mit deiner Klangerzeugung über
virtuelle Patchkabel verbinden kannst, das gab's noch nicht.
Bitwig hat das jetzt zum Beispiel und in Ableton Live haben sie es halt auch irgendwie über
Max MSP reingebastelt, aber so, dass das halt, ich sag mal, patchbar war, das gab's nur im
Zusammenhang hier zum Beispiel mit dem Klavier modular oder so.
Aber ansonsten war das schon ziemlich groundbreaking.
Ja, wir haben das, glaube ich, schon alles sehr gründlich angegangen und so und gedacht,
okay, was möglich ist, das geben wir auch an den User weiter.
Das war dann auch den, also Audio Inputs, also wenn eine Soundkarte Inputs und Outputs bietet,
dann konnte man auch einen Reaktor, also Reaktor einfach als, oder Generator als Effektgerät
betreiben.
Irgendwann, ja, in 99, 2000 gab's dann die Plug-In-Version davon.
Aber erstmal war es eben als Standalone, in sich geschlossene Applikation konzipiert.
Und es hat auch eine ganze Menge Leute gegeben, die einfach damit ihre Performances gemacht
haben, auch in diesem Electronic Live Performance Bereich und die damit aufgetreten sind.
Weil man konnte dann nämlich auch noch Sequencer bauen damit, also die Eventverarbeitung hat,
also die Verarbeitung von Steuersignalen war genauso möglich wie von Audiosignalen.
Und ja, von daher, also Lazy, ähm, nicht Lazyfish, ähm, ja, Aerosmith, also Erik Wiegand, der
tolle Live Performance ist gemacht, nur mit Reaktor.
Und, oder Tim Exile hat auch ganz massiv Reaktor eingesetzt in seinen Live Setups.
Was ja das Besondere an einem Generator war und auch natürlich an den ganzen Nachfolgeprodukten,
das ist natürlich auch der Sound gewesen.
Ihr habt jetzt nicht versucht, irgendwelche alten analogen Klassiker da zu simulieren,
sondern das war, das war auch klangtechnisch, war das schon, ja…
Es hat halt das Neue embraced, sozusagen.
Richtig, genau.
Es war nicht krampfhaft, versuchen, das, was schon da war, zu simulieren, sondern zu sagen,
hier ist ein Baukasten, baut mal.
Weißt du, das ist so der Vergleich, wie die Leute, die sich Lego-Sets kaufen, zum sie
nach Anleitung zusammenbauen und dann in die Hütte stellen.
Reaktor ist halt eher so, okay, das ist e-modular, ab in die große Kiste, oder?
Also so, wie ich Lego gebaut habe als Kind.
Und zwar ohne, dass du irgendwie so einen Kasten hier irgendwo hinstellen musstest,
sondern du konntest das einfach mit deinem, ja, quasi mit deinem Heimcomputer, mit deinem
Spielerechner, konntest du dir plötzlich ein Studio installieren, einen Synthesizer
installieren.
Wie geil war das denn?
Das war halt auch ein Kasten damals, muss man immer sagen, so rein platzbedingt.
Ja, aber du weißt, was ich meine.
Also du hast den Kasten ja schon gehabt, weil du hier als Spielerechner oder was…
Ja, das ist Simulisation.
Genau, das war für uns, ja, also auch ein wichtiger, also ich hab lange Jahre, hab ich
immer für Software-Synthesizer, sagen Evangelist gespielt, ne, irgendwie, warum Software-Synthesizer
so viele Vorteile haben.
Und eben, ja, vorhandene Hardware zu nutzen, die bei jedem schon rumsteht, ist eben, ja,
auch eine effiziente Sache.
Und das Problem ist nur, also in der Anfangszeit, dass da Leute hatten halt mit Windows immer
schön viele Blue-Screens und Ärger und Konfigurationsthemen und viel.
Also Computer hat man oft mit, ja, mit Problemen oder mit Büro, sozusagen, Applikationen vor
allen Dingen, assoziiert, ne, und auf dem Computer als Musikinstrument oder auf, weil
es irgendwie mit, was man auch mit auf den Bühnen nehmen kann und so weiter, zu begreifen,
das, ja, das hat eine Weile gedauert, bis da so das Vertrauen da war.
Die Robustheit von Soundkarten, von Betriebssystemen und so weiter, das hat dann, ja, zum Glück.
Ja, das ist auch der Technologie geschuldet, ne, also die Betriebssysteme, die waren halt
noch nicht so weit, für so Echtzeit-Signalverarbeitung wirklich da hundertprozentig zu laufen.
Und heute rennen wir alle mit irgendwelchen Smartphones rum, die die damaligen Rechner
um haushoch was Rechenkapazität tragen, ne.
Ich hab halt auch immer noch das erste Mac OS X vor Augen, ne, so grauenhaft, wie das
war.
Ja, aber es war doch generell die Zeit, wo die ganze Technik super uncool war, da sind
doch die ganzen Gitarrenbands aus dem Boden geschossen und irgendein Metal-Produzent wurde
von seiner eigenen Fanbase auf irgendeinem Festival verprügelt, weil er es gewagt hat,
Synthesizer einzusetzen.
Jaja, also die Synthesizer wurden eben von der Techno-Szene hochfähig gemacht, oder
waren da.
Die haben sich ja total dafür begeistert, allerdings haben sie dann auch viele alte
Schätzchen so aus dem Gebrauchtmarkt sich besorgt und konnten dann noch an Knöpfen
drehen und deswegen war es ein großer, oder ist ja immer noch ein großer Kult um die
Artwehr und um das analoge Zeug und das alte Zeug.
Und wir haben das auch zu spüren bekommen, dass sie kamen auf uns zu und sagten, ja,
kann man damit auch eine 303 machen, kann man damit auch ein Minimoog machen und so
weiter.
Also es kamen dann schon mal die Anforderungen und die Anfragen aus der Synthesizer-begeisterten
Szene.
Also mein persönlicher Standpunkt, den sieht man auch im Reaktor, wir haben da eben kein
Moog-Emulationsfilter irgendwo drin und das sind alles kleinere Bausteine und generischere
Bausteine, die wir da angeboten haben.
Viel kleiner auch als das, was, wie soll man sagen, die Granularität ist eben viel kleiner
als das, was klassische Modularsysteme geboten haben.
Nordmodular hat sich eher an den klassischen Modulen orientiert, während Reaktor war also
viel kleinteiliger.
Man musste jedes Bedienelement, da musste man sich auch dafür entscheiden, dass man
das haben will und wie das aussehen soll und wie das heißen soll und wo das angeschlossen
sein soll.
Also wenn man sich quasi aus ein paar Chips und ein paar Poti's was zusammenbaut eher,
das ist gewesen.
Ja, da hast du halt irgendwann einfach ein Platzproblem, oder?
Und zwar ein Platzproblem im Sinne von, du musst das Mikroskop holen, oder?
Auf Software-Ebene ist das kein Problem, du zoomst rein und gehst irgendwie in die Transistoren
und kannst da alles modular auswechseln.
Ja, oder du arbeitest mit Macros halt, brauchst hier ein Macro-Modul.
Das Reinsummen bei dem Reaktorkonzept ist eher so, dass man eine Hierarchie hat, dass
man auf der oberen Ebene eingekapselte Strukturen hat, in denen wiederum Macro-Module liegen,
wenn man da reinsteigt, weitere Macro-Module und so weiter.
Das ist auch wieder diese Wiederverwendbarkeit natürlich, wenn man einmal was Gutes entwickelt
hat, will man das auch vielleicht in der Bibliothek legen und nachher wiederverwenden.
Auf diese Weise war das Ganze sehr ungebunden und unabhängig von Legenden und Vorbildern
und so.
Und physikalischen Gegebenheiten vor allem, oder?
Ja, mir war das wichtig, also den Leuten Möglichkeiten zu geben, die sie vorher nicht hatten und
die neue kreative Potenziale freisetzt.
Und das ist für eine kleinere Gruppe von Leuten auch gelungen.
Wir haben dann Leute gefunden, die richtig tief eingestiegen sind und Zeug entwickelt
haben, wo ich dachte, das geht gar nicht mit Reaktoren.
Das war für mich selber dann oft überraschend, wenn ich gesehen habe, oh Gott, also Lazyfish,
so ein russischer Entwickler, was macht der da?
Teilweise war ich auch sauer, weil ich dachte, missbraucht der da so, dass das an die Grenzen
kommt.
Aber es war sehr, sehr fruchtbar in vieler Hinsicht.
Vielleicht nochmal was zu den 150 oder 140 mitgelieferten Instrumenten und Effekten,
was du vorhin erwähnt hast, Thomas.
Das waren oft ziemlich kleine Instrumente.
Das ist auch ein wichtiger Aspekt, wenn man Instrumente bauen kann und die im Prinzip
nichts kosten oder eine Bibliothek von diesen Instrumenten haben kann, dann muss man nicht
ein Instrument bauen, das alles kann und das total flexibel, die super Mega Maschine ist,
sondern man kann Spezialisierte, also so einen String Synthesizer kann man bauen oder einen
Glockensynthesizer oder, ja, also Spezialisierte Klangerzeuger mit relativ überschaubarer
Bedienoberfläche.
Davon hatten wir eine ganze Menge am Anfang.
Also später kamen auch eher die Mega Synths, aber eigentlich das Konzept von so einem Modularbaukasten
erlaubt dir eigentlich mit kleineren Komponenten und kleineren Instrumenten auch zu arbeiten.
Wenn ich das noch richtig im Kopf habe, wart ihr ja damals mit der Reaktor Library eigentlich
auch so ein bisschen die Ersten, die das wirklich, also in einem Zeitalter, wo wirklich quasi
jeder noch Dongles und Festplatten und USB-Sticks verschickt hat, wart ihr eigentlich mit der
Reaktor Library da einfach irgendwo auf Github rumgeschwebtes oder so in der Art, eigentlich
ein bisschen so Pioniere, weil es eben so klein war, oder?
Weil wir gar nicht von riesigen Megabytes geredet haben, sondern wirklich von Kilobits, die
dann in den Rack gepackt wurden.
Genau, man brauchte eigentlich nur Kilobytes, ja, um so ein Instrument zu verpacken.
Wir konnten da so gut als E-Mail-Attachment wohin schicken, zum Beispiel irgendeinem Freund
oder ein Mitentwickler oder so, schnell das Instrument rüberschicken.
Und wir haben dann ziemlich schnell so ein Forum und ein Download-Area da aufgemacht,
wo User ihre Kreationen hochladen konnten und andere die halt dann wieder runterladen
und ausprobieren konnten.
Also wir haben das Internet schon ziemlich gut zu Nutzen gewusst damals, oder es war
ziemlich wichtig für uns.
Nur mal so aus morbidem internethistorischem Interesse, wie lange hat es gedauert, bis
da irgendwelche Spaßvögel, Leuchter, so Zeug in die Patch-Library reingesetzt haben,
das da nicht reingehört?
Also so, keine Ahnung, Viren, Wolven, Vorr…
Nee, ich glaube es gab relativ wenig.
Ja, du musst verstehen, 1900, ich sag mal 1900, oder sagen wir mal die 2000, die Nullerjahre.
Ich war auch da in der Zeit, Kollege.
Aber es hat halt nicht jeder im Internet gesurft und da haben sich wirklich auch nur die Leute,
die sich wirklich dafür auch interessiert haben und da auch wirklich ein Interesse dran
hatten, sich in den Foren, in den musikrelevanten Foren getummelt.
Also zum Beispiel hier, wir haben es ja vorhin schon genannt, Sequenz hat die E-Forum, Synthesizer-Forum
hieß es da noch.
Das war wirklich eine eingeschworene, ich will nicht sagen eine Clique, aber das waren
jetzt nicht so viele Leute, wie es heutzutage sind.
Das war aber auch nicht besser.
Neulich haben sie eine Tread-Leiche von vor 22 Jahren ausgebuddelt und die sind sich da
2003 schon genauso angegangen, wie sie es heute tun.
Dass der Mogulator überhaupt noch so ein Archiv pflegt, ist auch der Wahnsinn.
Ich muss zugeben, ich habe mir den Luxus erlaubt, mich nicht im Forum großartig rumzutreiben,
weil ich auch immer gehört habe, dass im Forum wieder geschimpft wird oder so.
Ich habe das sozusagen filtern lassen von den Kollegen.
Ich habe gesagt, okay, die sollen sich mal ruhig aufregen im Forum.
Aber ich habe nicht mitgeschimpft oder nicht mitgemacht.
Und ja, was nicht unbedingt die beste Lösung war.
Aber es gibt natürlich, es gibt immer bei Leuten, denen man Software verkauft oder man
eine Software verkauft, die auch immer sich besorgt haben, gibt es die Unzufriedenheit,
das geht anders, das geht besser, weil man ja auch dauernd Updates rausbringt.
Warum habt ihr jetzt nicht das Updates, sondern nur das?
Und so weiter.
Die ganze Meckerei, die dann kommt, die ganze Enttäuschung, irgendwie Ansprüche, die dann
plötzlich anscheinend bestehen.
Warum wir nicht aufs Forum gehört haben oder warum wir nicht auf den Herrn X gehört haben,
der doch alles besser weiß als wir.
Aber es war, wie gesagt, diese Upload-Area, die haben wir, glaube ich, auch gefiltert,
wie das dann von File-Typen irgendwie her nur eben Charakter-Ensembles und Instrumente
waren.
Zwangsweise, dass da keine Viren verbreitet werden und so was.
Ja eben, es war halt da noch wirklich wilder Westen, oder?
Aber was da eben kam in den Upload-Areas, das war für uns teilweise wirklich faszinierend,
jetzt von den seriösen Beiträgen.
Und das waren eben auch so eine Talent-Präsentation.
Wir haben da so viele Leute entdeckt, die unglaublich gutes Zeug gemacht haben und haben
die eingeladen, bei uns mitzuarbeiten und Teil der Firma zu werden oder zumindest als
Externe weiter mitzumachen.
Das war wichtig.
Und da sind so Leute, mit denen ich heute noch zusammenarbeite, Mike Dalio zum Beispiel,
der war einfach ein durchgeknallter, lernbegieriger Anfänger zu der Zeit und hat alles mögliche
ausprobiert und hat tausend Fragen gestellt.
Und der ist ganz schnell ganz gut geworden und ist heute, würde ich sagen, einer der
besten Instrumentenbauer überhaupt, die es gibt.
Der hat vorhin schon erwähnt, Eric Rezifisch, so einige Namen.
Tim Hacksal und die anderen.
Ja, Tim Hacksal.
Der hat ja auch ganz krasses Zeug für Reaktor gemacht.
Ich bin nicht so tief drin im Ökosystem, was ich von dem mal gesehen habe, aber das
war irre.
Also es ist ein bestimmter Typ von Mensch, der eben auch in der Lage ist und bereit ist,
sich ganz tief einzugraben und wochenlang quasi mit, im Prinzip ist es ja ein grenzenloses
System, wo man immer nur an den eigenen Unfähigkeiten oder an die eigenen Grenzen stößt.
Und wenn man da den Biss hat, dann kommt man halt sehr weit.
Wenn wir einen kleinen Zeitsprung machen und wir gehen mal so ein paar Jahre weiter, also
ich sag mal vielleicht so ungefähr so 20 Jahre weiter ins Jahr 2012.
Wie kam es dazu, dass du gesagt hast, Native Instruments ist super, aber ich will mal was
anderes machen?
Was ist da passiert?
Wenn du das verraten darfst.
Ja, ja, ich kann da schon drüber reden und ich werde auch ganz drüber.
Also ich bin von der Rolle des Gründers eigentlich auch ziemlich schnell, sag mal, in so einer,
also war ich eher der technische Leiter.
Wir hatten dann den CEO, der lange Jahre den Laden sehr massiv vorangebracht hat.
Aber da ist auch ein anderer Mindset dahinter.
Und also dieses sehr auf Wachstum und Marketing orientierte.
Und dann gab es halt neue Leute, die herangeholt wurden.
Es gab andere Einflüsse.
Also ich bin auch mit der Zeit immer mehr in den Hintergrund gekommen und habe aus dem
Hintergrund heraus immer noch viele technische Projekte voranbringen können.
Aber insgesamt in der ganzen Produktgestaltung und der Produktphilosophie nicht mehr so meine
Handschrift gesehen.
Das waren andere Leute.
Und das war eben auch von der Zielgruppe war ich auch nicht der Beste.
Also Native hat eben sehr stark die Producer und DJ Szene bedient.
Und da gibt es Leute, die sich da besser zu Hause fühlen und auch sich besser begeistern
können dafür.
Und ich habe zum Beispiel für Traktor die erste kleine Soundengine, die es gab für
Traktor, die habe ich mitentwickelt und ich habe Traktor wirklich auch stark mit angeschoben.
Ich habe mich mit Maschine beschäftigt, habe da meinen Prototypenbau mitgemacht und so.
Wo ich allerdings mehr als Oldschool Musikfan irgendwie mich gesehen habe, war zum Beispiel
bei Guitar Rig.
Das war auch ein Projekt, was ich angeschoben habe damals, weil ich gesehen habe, wir konnten
zum Beispiel in Reaktor wunderbare Gitarren-Effekte machen.
Und mit einer Low-Latency-Soundkarte konnte man das schon ganz gut vorführen.
Daraus wurde dann irgendwann Guitar Rig, aber dann hat irgendwann das Management festgestellt,
dass man sich da nicht verzetteln sollte und dass es nicht die Kultur der Firma sei, Gitarristen
zu bedienen.
Das sind so Richtungsentscheidungen, was Zielgruppen angeht, was Produktphilosophie angeht und
so.
Und deswegen habe ich mich auch teilweise wirkungslos gesehen oder konnte bestimmte Ideen nicht umsetzen
und hatte dann die Chance, weil wir viel mit Investoren, Einstieg von Investoren, Ausstieg
von Investoren und so um Umbauten zu tun hatten, gab es dann einen Moment, wo ich mit aussteigen
konnte und Anteile verkaufen konnte.
Die letzte Reaktor-Version, das war glaube ich die Fünfer, oder?
Wo ich noch beteiligt war, das war 5.9 oder so.
Ich glaube aber seitdem hat sich Reaktor auch nicht weiterentwickelt, oder?
Es gibt eine 6 und es ist eine Ansammlung von leeren Versprechen und einer so halbwegs
funktionierenden Oberfläche.
Sie haben es jetzt gerade mit viel Krampf auf M1 gekriegt und ich bastelte auch zwischendurch
noch rein Razor ist cool oder auch jetzt Polyplex.
Ich mag das Zeug, aber man sieht halt schon, die Betriebsphilosophie ist komplett anders.
Also, konntest du das, also Stefan, konntest du das auch irgendwie dann loslassen oder
fühlt sich das eher so an, wie wenn jetzt die eigenen Kinder sich ans Brandenburger
Tor kleben würden?
Ne, also inzwischen bin ich da ganz cool, was das angeht.
Ich hatte ein paar Jahre noch, als ich noch bei Native war, da hatte ich so ein bisschen
schlechte Laune und da bin ich halt froh, nach dem Ausstieg wurde meine Laune schon
besser.
Also die schlechte Laune war eben vor allen Dingen da, darin begründet, dass ich nichts
mehr umsetzen konnte oder wohnte.
Und inzwischen, es gab schwere Krisen, die die Firma durchgeschüttelt haben und wo viel
versucht und auch viel wurde und viel auch gescheitert ist.
Umbauten, die also auch stark auf Kosten der Mitarbeiter gingen.
Das tat mir wirklich leid um die Mitarbeiter, weil ich viele von denen halt auch kenne oder
so.
Also da war ich, ich war sauer, wie man Mitarbeiter behandelt hat.
Was die Produktpolitik angeht, hat mich nichts gestört oder überrascht oder so.
Ich habe auch Reaktor loslassen können.
Also das war für mich jetzt nicht, also ich könnte jetzt irgendwie meckern über Reaktor
6, aber im Prinzip sind da auch ganze Menge gute Verbesserungen drin, die ich auch sinnvoll
finde.
Und ja, also von daher, jetzt ist so ein bisschen die Frage, was wird aus Reaktor langfristig?
Ja genau, das wollte ich nämlich gerade fragen.
Ich habe so das Gefühl, dass das so ein bisschen das stiefmütterliche Kind jetzt ist bei Native.
Mal abgesehen von ihrer Webseite.
15 Jahre Trauer.
Die haben sie jetzt sogar komplett umgebaut, die ist nicht besser geworden, im Gegenteil.
Nein, die Webseite von Native Instruments, die ist schon sehr, also unübersichtlich
sagen wir mal so.
Es gibt eine Sache, die schlimmer ist für so einen durchschnittlichen Webbrowser, und
das ist das Schneeplaggen auf irgendwelchen Webshops.
Ansonsten Native Instruments all over the world.
Ich glaube halt Produktphilosophie, also ich meine, die hauen ja regelmäßig so Zeug raus,
aber ich habe auch so den Eindruck, da sind so wenige Dinge kohärent.
Zum Beispiel, ich habe gerade heute wieder Massive X in den Fingern gehabt, weil ich
gerade Zeit brauche für dem Next.
Geh mal wieder live.
Und das ist ein total genialer Synthesizer, aber warum zum Arsch haben die das Ding Massive
X genannt?
Die hätten ihn keine Ahnung, irgendwie Ravioli nennen können und der wäre, ja hätte jetzt
nicht Serum gekillt, aber der wäre halt durchmarschiert.
Aber dadurch, dass er halt so in diese halb Nostalgie-Ecke, halb Futurismus-Ecke, dass
er das ganze Ding verreckt.
Und das Problem sehe ich halt bei der Firma gerade an allen Ecken und Enden.
Und ich glaube, dass der Sad State of Native Instruments Thread by Carverway irgendwie
400 Seiten hat, ist halt auch so ein bisschen, hängt halt auch so ein bisschen damit zusammen.
Ja, also da muss man nochmal dazu erwähnen, dass Native Instruments natürlich ein absolutes
Schwergewicht ist.
Eben.
Und du findest, ich glaube, kaum eine Top-10-Produktion, wo man nicht irgendein Native Instruments
Sound hören kann.
Also das ist schon alleine, Kontakt ist quasi der Platzhirsch, was auf dem Software-Sampler
mag.
Es gibt eigentlich nichts anderes.
Die machen ja auch geile Stuff.
Die waren, glaube ich, die ersten, die nach solchen furchtbaren Dingen wie Automap oder
VIP, das hat alles nichts funktioniert.
Und dann kommt Native und kriegt irgendwie den gesamten Markt mit NKS unter die Hütte,
dass das Control-Plugin irgendwie fünf Minuten braucht zum Laden gerade in der aktuellen
Version, ist so ein kleiner Schönheitsfehler.
Aber die haben halt trotzdem noch den Markt gemacht.
Vielleicht kann ich da noch mal ...
Zumindestens ein Battery oder so ist in den aktuellen Produktionen als Drum-Footer überall
zu hören.
Also ich kenne so viele Leute, die Battery verwenden.
Das ist ja auch schön zu sehen.
Das war eigentlich der Mann, der nachher der Kopf hinter Kontakt war, der hat, glaube
ich, mit Battery seinen Einstand gehabt bei uns.
Und Battery war ein relativ schlankes Tool und funktioniert immer noch bestens.
Hat sich irgendwie gut gehalten.
Und Kontakt wurde dann halt so ein sehr ausgefeilter Sampler und hat sich zum Industriestandard
gemacht.
Ausgefeilt ist nicht das Wort, das ich verwendet hätte.
Ich hätte aufgebläht gesagt, aber das kam ja danach.
Ja, Fakt ist, du kommst um Kontakt, du kommst so nicht mehr rum.
Ja, weil da 20 Jahre Community und Entwicklungsarbeit drin stecken.
Aber wenn du halt auf aktuelle gut klingende Libraries setzen willst und was aus den eigenen
Häusern nachgeliefert wird, das ist immer ein ganz hoher Qualitätsmaß.
Es gibt ein paar Sample-Libraries, die hauen mir regelmäßig die Ohren aus meinem Gesicht,
weil ich nicht weiß, was da gerade passiert und wo der Sound herkommt.
Das ist wunderbar.
Das ist eben, was ich auch mit ausgefeilt meine.
Das Ding ist echt mächtig und hat ja auch das ganze Scripting-System noch darunter.
Das heißt, man kann Bedienoberflächen drauf bauen, die aussehen wie neue Instrumente.
Und das hat eben viele Third-Party-Entwickler angesprochen.
Hat funktioniert, hat sich etabliert.
Und ja, man muss sagen, es gibt diese Kontaktschiene oder die Kontaktplattform bei Native und es
gab die Synthesizer-Gruppe und die Kontaktgruppe hat gewonnen.
Es war so in der Zwischenzeit, also das Management hat ja jetzt x-mal gewechselt und der Produktchef
für eine Weile war auch der Mann, der aus der Kontaktecke kam.
Also es gibt ja bei den Synthesizern zwei Plug-ins, die bei mir in wunderbarer Erinnerung
sind.
Das eine ist FM7 und das andere ist Absynth.
Absynth war so geil.
Siehst du?
Absynth war so geil.
Den hab ich auch gehabt.
Ich hab ihn geliebt.
Richtig.
Absynth von Brian Klevinger ist ein hervorragendes Instrument geworden.
Es ist völlig unabhängig von Native entstanden.
Also der war als externer Entwickler immer nur locker mit Native verbandelt.
Das ganze Konzept und Signalverarbeitung stammt von ihm.
Die ganze Musikalität von dem Teil, das ist ihm zu verdanken.
Und Native hat sich dann um ein bisschen Bedienüberflächendesign gekümmert und hat
Sounddesigner angesetzt und hat Handbücher geschrieben und so, was doch so nötig ist,
wenn man Produkte vervollständigt.
Und hat es vor allem in Vermarktung betrieben.
Das war in so einer Phase, wo wir versucht haben, dass man eigentlich mit Reaktor alles
abdecken kann.
Dass man gar keine neuen Produkte braucht.
Dann haben wir aber gemerkt, dass die Leute damit überfordert sind und dass es einfach
zu viel ist.
Viele wollten einen vertrauten Anblick haben, vertraute Bedienelemente.
Deswegen haben wir den Pro5 erstmal als Reaktor geprototypt und ausprobiert.
Das war ein Profit-Clone.
Das wurde dann das erste ernsthafte VST-Plugin, das es überhaupt mal gab am Markt.
Das war dann eine ganz andere Lösung.
Das war nicht mehr der Baukasten, sondern ein kompaktes, in sich geschlossenes Instrument
mit einer sehr begrenzten Bedienoberfläche und einem altbekannten Aussehen.
Das war halt wie ein Profit.
Der Michael Kurz, der den Pro5 da gemacht hatte, der hat dann weitergemacht.
Der hatte einen FM7.
Nee, der kam erstmal in die B4, glaube ich.
Die Orgel.
Da haben wir uns eine Hammond besorgt und der hat die analysiert.
Michael hat richtig viel Signalprozessing und Messtechnik Ahnung.
Der hat daraus eben so einen Orgel-Clone gemacht.
Die ganzen Entwicklungen haben immer im Reaktor stattgefunden.
Bis wir das Gefühl hatten, das klingt gut und funktioniert gut, wurde das übersetzt
als C++-Projekt für Plugins.
Das gleiche war FM7, später FM8.
Der Fall, auch da, das ist noch so ein Michael Kurz-Produkt.
Da haben wir uns halt am DX7 orientiert, aber haben dann gesagt, da stehen zu bleiben.
Die alten 32 Algorithmen da irgendwie wieder abzubilden, das ist eigentlich ein bisschen
zu wenig mit den neuen Möglichkeiten, neuen Bedienoberflächen.
Deswegen gab es dann diese sehr sinnvolle Matrix, in der man jeden Operator mit jedem
anderen irgendwie frei verbinden konnte.
Der FM7.
Ich glaube, ansonsten können wir auch gerne mal, weil wir sind jetzt wunderbar abgeschweift
nochmal ins Reich der nicht mehr skalierbaren Oldschool-Synthesizer.
Auch ich hatte meinen Spaß neulich auf einer Reise, als ich die alle nochmal auf einen
alten Laptop geladen habe.
Aber jetzt gehen wir, wie Thomas schon wollte, ins Jahr 2012.
Stefan Schmidt ist ein freier Elf und macht was.
Genau, 2012 und gerade wo du gesagt hast, Tobi, in sich geschlossene Klassiker, da kommt
Stefan Schmidt 2012 auf die grandiose Idee, sich ein Bier aufzumachen.
Nee, kein Bier.
Wer war das?
Warst du das?
Ich war's.
Ein Energy Drink.
Hey, ein Energy Drink.
Sehr gut.
Jetzt habe ich den Faden verloren.
Mach einfach weiter, Stefan.
Okay, 2012.
Ich hatte zum Schluss einige auf Reaktor basierende Produkte rausgebracht.
Das gab es ja auch.
Reaktor kann eben auch als Plattform benutzt werden für Einzelprodukte, die man nach Einzelner
Produkten wirbt, wo dann Reaktor Player quasi dahinter läuft.
Das gab es zum Beispiel eben vom Eric, den Racer, der sehr erfolgreich lief.
Von mir gab es unter anderem, Moment, jetzt müsst ihr alles rausschneiden.
Alles rausschneiden?
Das ist Content Gold.
Ihr könnt mir alles rausschneiden.
Ich habe manchmal so eine Namensplakate.
Nee, das ist menschlich, das lassen wir drin.
Das ist Content Gold.
Ich habe jedenfalls drei kleine Synthies da rausgebracht.
Zum Beispiel Prism war eins davon.
Als wir Modalsynthese eingeführt hatten in Reaktor, war das ein gutes Demo, wie Modalsynthese
genutzt werden kann.
Die Erfahrung, die ich da so gemacht hatte mit diesen kleinen Reaktor-Instrumenten, hat
mich ein bisschen genervt und gewurmt.
Die Leute haben gesagt, ich habe das installiert und ich benutze das.
Dann habe ich ein, zwei Fragen gestellt und gemerkt, der hat das nicht wirklich benutzt.
Er hat das nur mal offen gehabt.
Das ist auch klar, die Leute haben 200, 300 Plugins auf ihren Rechnern.
Die machen vieles wahrscheinlich nur kurz auf oder benutzen ein paar Presets davon.
Dafür ist mir aber irgendwie das ein bisschen zu schade, was ich da entdeckt habe.
Also die Eitelkeit, die da getroffen ist.
Das war halt so der Moment, wo du gedacht hast, Speichermedien werden immer kleiner,
ich baue jetzt was, wo man was anbauen muss im Haus.
Dann braucht man ein bisschen.
Genau.
Und dann ist es dieses Commitment, wenn man sich ein Stück Hardware hinstellt.
Das ist in mehrerlei Hinsicht ein ganz anderes Commitment, als wenn man sich ein Plugin irgendwo
unterlädt und installiert.
Total.
Das Plugin nimmt nicht dauernd Platz auf dem Bildschirm weg, weil man klickt einfach
auf den "Use"-Button und es ist weg.
Bei einem Hardwaregerät, da stellt man sich hin, dafür gibt man relativ viel Geld aus,
das steht dann da, nimmt Platz weg, steht da und sagt "Spiel mich, spiel mich" oder
"Ich verstaube".
Das ist eine gute Eigenschaft, weil Hardware will ernst genommen werden.
Ich kenne jetzt auch eine Menge Kunden, die haben einfach 20, 30, 50 Synthesizer rumstehen
und nehmen die auch nicht ernst.
Das sind die typischen Sammlertypen.
Was mir vorschwebte, war ein Instrument, das im Vergleich zu einem Fast Food, was man in
der Software-Ecke bekommt, sozusagen Slow Food ist.
Wo man sich ransetzt und stundenlang dranbleibt und monatelang mitarbeitet, jahrelang am besten.
Und das sich auch lohnt.
Das ist natürlich auf der anderen Seite auch unsere Verpflichtung, etwas zu liefern, was
sich auch wirklich lohnt, dass man lange Zeit damit verbringt.
Da hat sich das letzte Konzept, an dem ich da so gearbeitet hatte, das war dieser Phase-22-Synthesizer,
der später noch zur Kontur wurde und dann auch in C15 gelandet ist als Soundengine.
Das hat sich für mich so dargestellt, dass das eigentlich ein ziemlich simples Teil ist.
Es besteht nur aus zwei Oszillatoren und zwei Filtern.
Aber da kann man Ewigkeiten mit verbringen.
Das ist also sounddesign-technisch ein hochinteressantes Feld, auf dem man sich überlegt.
Lass mich da eine Frage dazwischen schieben.
Oder was heißt ja dazwischen schieben?
Lass mich das Gespräch mal in genau diese Richtung lenken, und zwar in Richtung C15.
Der Hamburger Künstler, der Hamburger Musiker Stimming hat über den C15 gesagt, das wäre
das Rhodes des 21. Jahrhunderts.
Peter Kern von Create Digital Music hat geschrieben, dass es ein ultra-expressive-keyboard-instrument
sei und auf beat.de ist über den C15 zu lesen "high-end synthesizer".
Was ist es denn jetzt?
Wir haben ja den Claim "for those who love to play keys".
Es geht schon um das Keyboard-Spielen sehr stark.
Mich interessiert an einem Instrument auch die Spieloberfläche.
Was spiele ich da, was fasse ich da an und wie spielt sich das?
Wenn man oldschoolmäßig unterwegs ist und eher vom Jazz herkommt oder von der Rockmusik,
Expressivität, Ausdrucksmöglichkeiten sind da wichtig.
Und Synthesizer sind nicht unbedingt bekannt dafür, dass man besonders expressiv spielen kann.
Oft ist es klischeehaftes Abrufen bestimmter Soundflächen oder Arpeggien oder Sequencer-getriebenes Zeug.
Was mich gereizt hat, war elektronisches Musikinstrument zu bauen, was für nicht elektronische Musik gedacht ist.
Elektronische Musik hat ja nicht nur die elektronische Klangquelle, sondern vor allem auch diese
Produktionsweise als Merkmal. Elektronische Musik ist eigentlich ohne Sequencer nicht zu denken.
Oder was als elektronische Musik so bezeichnet wird.
Es kommt halt von da. Ich kenne jetzt schon Leute, die den Sequencer nicht versuchen zu ersetzen,
sondern sagen, wir wollen diese Pattern-basierte Musik machen, jetzt live.
Die machen das live relativ gut. Und Mos D. Robert, dieses NE-Projekt, das da über Festivals geschleift wurde,
die haben es nicht ganz so gut hinbekommen. Aber ich verstehe natürlich, was du meinst.
Also raus aus dem Grid, raus aus den Patterns.
Das war für mich musikalisch gesehen nicht unbedingt ein großer Fortschritt.
Aber diese Grid- und Pattern-orientierte Musik fand ich eher...
Wenn man James Brown hört oder sich Videos anschaut, nachher, okay, in vieler Musik sind dann James Brown Loops drin.
Wo der Drummer von James Brown oder so.
Der weltberühmte Amen Break.
Ja, der Amen Break oder so was. Die ganze Sample-Kultur hat das ja.
Und die Loop-Kultur hat sich die Rosinen rausgepickt und da raus versucht, neuen Kuchen zu machen.
Die haben ganze Musikgenres damit begründet.
Der Amen Break ist verantwortlich für Drum'n'Bass, Jungle, Grime und unzählige andere Musikstile oder Musikrichtungen.
Wir sind aber inzwischen am Punkt, wo Leute den Amen Break samplen und in den YouTube-Kommentaren steht,
das stammt aus dem und dem Soundpack.
Ja, das ist das Recycling des Recyclings.
Und jedenfalls, mich haben immer improvisierende Musiker interessiert.
Musiker, die live auftreten, Musiker, die live auch alles live spielen.
Also für jede Note verantwortlich sind, die sie spielen.
Und wo eben auch viel schief gehen kann, die Risiko eingehen.
Und wo aber auch die Spannung da ist.
Für das Publikum auch wirklich was geboten wird.
Ich habe keine Lust, Leuten zuzugucken, die an Knöpfchen drehen oder Schalter drücken.
Also das ist okay auf der Produktionsebene, aber auf der Performance,
ich bin eben total auf 100% live ausgerichtet als Konsument.
Und zu solchen Musikern wollte ich was bauen.
Darum geht es also, dass beim C15 ein Instrument, das, wenn man es gut spielen kann, auch sehr gut klingt.
Wenn man schlecht spielt, klingt es auch schlecht.
Oder wenn man nichts bewegt, bewegt sich nichts.
Und wenn man keine Ideen hat, dann kommt halt nichts raus.
Es gibt keinen Arpeggiator, es gibt keinen Step Sequencer, es gibt nichts, was von alleine anfängt zu spielen.
Es gibt keine eingebaute Musik.
Was aber drin ist, oder was heißt "drin"?
Warum hat Stimming das Rhodes des 21. Jahrhunderts genannt?
Weil du tatsächlich auch quasi den Synthesizer mit einem entsprechenden Software-Editor gekoppelt hast.
Also man kann quasi den Synthesizer auch direkt am iPad oder am Computer editieren.
Das ist der 21. Jahrhundert-Anteil, ja.
Richtig.
Ansonsten beim Rhodes, also vielleicht noch so,
also ich denke Stimming war fasziniert von bestimmten Sound-Aspekten.
Stimming ist auf der Suche nach Sounds.
Stimming ist natürlich ein Producer, der das Ding nicht live spielt.
Der aber eben zu schätzen weiß, was die Sound-Engine so hergibt
und wie man da auch relativ schnell eingreifen kann.
Bei Stimming ist es eine Soundquelle, die er absamplet und weiterverwendet.
Das ist ein anderer Aspekt. Die Verweigerung oder der harte Bruch, den ich da gemacht habe,
mit der Szene, für die ich vorher gearbeitet habe,
die Verweigerung von Midi, okay,
das hat eben damit zu tun, dass ich mich erst mal darauf fokussieren wollte,
ein Instrument, das wirklich spielbar ist,
zu machen für Leute, die spielen können und spielen wollen.
Und damit hat man eben ein ganz starkes Filter.
Wenn kein Midi dran ist, fühlen sich alle abgestoßen, die halt nicht spielen können.
Inzwischen haben wir das nicht mehr so rigoros.
Nachgereicht.
Ja, wir haben es nachgereicht.
Wir haben als zweites irgendwie keine Automatismen.
Es gibt also nichts, was auch die typische Synthesizer-Erwartung ist,
dass da schon was vor sich hin tuckert.
Und wenn man nur eine Taste drückt, dann passiert schon ganz viel.
Das passiert hier nicht.
Es gibt keine LFOs, keine Stepsequencer, nichts,
was irgendwie selber so Strukturen, Patterns oder irgendwas generiert.
Entweder ich habe Pattern im Kopf und kann sie spielen,
oder ich habe halt keine Pattern.
Das dritte ist, wir benutzen kein komplexes, vorgeformtes Material.
Wir benutzen keine Samples.
Wir benutzen nichts, was viel Information enthält.
Die Komplexität der Klänge entsteht erst in der Millisekunde, wo ich sie spiele.
Nicht nur durch Spielen, sondern auch durch die Struktur der Synthengine,
die Feedback-Loops hat und sowas.
Und das vierte ist, ich habe keine Lust auf Vintage und Retro.
Mich interessiert nicht, wie irgendwelche Legenden geklungen haben
oder wie irgendwelche alten Filter und Oszillatoren funktioniert haben.
Die Branche ist voll mit Firmen, die sich nur darauf fokussieren,
die alle alten Schätzchen noch einmal irgendwie neu rausbringen.
Für 2,99 Euro und jetzt Black Friday Sale für 2,79 Euro.
Ich glaube, wir wissen alle, wer gemeint ist.
Kannst du noch mal erklären, was der C15,
okay, das sollte ein richtiges Instrument sein,
wie sieht die Klangerzeugung denn aus?
Du hast erzählt, zwei Filter, zwei Oszillatoren, nur Sinewave?
Oder gibt es noch andere Wellenformen?
Und was hast du denn für Modulationsmöglichkeiten eingebaut in das Instrument?
Erstmal ist es ein voll digitales Instrument.
Da drin läuft im Prinzip auch ein Computerboard
und am Anfang lief da drin auch das Reaktor, ohne dass es von außen sichtbar war.
Das haben wir inzwischen nicht mehr, weil wir da erheblich bessere Performance haben,
wenn wir das nativ implementieren.
Die Soundengine, die da läuft, ist Polyphone, 24-stimmig inzwischen,
vielleicht noch ein paar mehr in Zukunft.
Wir haben in der Struktur zwei Sinus-Oszillatoren im Kern
und einen Kammfilter und einen State-Value-Filter.
Und dahinter noch eine Kette von Effekten,
einen Output-Mixer, wo man die Signale der Oszillatoren und der Filter zusammenführen kann
oder einzeln rausführen kann,
einen Feedback-Mixer, der erlaubt, alles Mögliche aus den Filtern oder auch aus den Effekten
wieder zurückzuführen auf die Oszillatoren oder auf die Filtereingänge,
so dass sie in Selbstoszillation gehören.
Und wesentlich ist, dass die beiden Sinus-Oszillatoren eine Ähnlichkeit haben mit den Yamaha FM-Operatoren.
Das heißt, auf Sinus wird allein schon durch, wenn man in Phase-Modulationen eingänge,
also Phase-Modulation und FM, das ist jetzt synonym,
Yamaha hat FM gesagt, aber es ist eigentlich Phase-Modulation.
Die Phase-Modulationseingänge der Oszillatoren erlauben also Selbstmodulation,
die Modulation durch den jeweils anderen Oszillator,
dann auch eben kreuzweise, A moduliert B, B moduliert A
und dann auch Modulation durch das Feedback-Signal,
das irgendwie von weiter hinten aus dem Signalweg kommen kann.
Selbstmodulation von Sinus führt zu einer Verformung des Sinus bis hin zu einer Art Sägezahn.
Das ist das ganze Spektrum mit der hohen Grad von Selbstmodulation.
Damit hat man also schon ein Spektrum als nur diese eine einzige Linie, die ein Sinus liefern würde.
Die Modulation durch den anderen Oszillator, das Ergebnis hängt sehr stark von dem Verhältnis der Frequenzen ab.
Wenn der eine also irgendwie Vielfaches der Frequenz des anderen hat,
entstehen da andere Muster, sagen wir mal, von Obertönen,
aber noch harmonischer, wenn man nicht in Vielfachen denkt, sondern in irgendwelchen Krummverhältnissen.
Wenn der eine zum Beispiel 1,3 mal die Frequenz vom anderen hat,
dann entstehen alle möglichen nicht-harmonischen Teilfrequenzen.
Das erzeugt dann ein metallisches, teilweise geräuschhaftes Klangbild.
Das ist auch für mich der interessantere Teil.
Das ist eben was bei analogen und virtuell analogen Synthesizers,
höchstens wenn die auch mal Ringmodulation oder FM oder sowas erlauben.
Aber der Standard-Oszillator ist immer ein harmonischer Oszillator,
der irgendwie Rechteck, Sägezahn, Dreieck oder sowas liefert.
Das Gute, wenn man Sinus-Oszillatoren benutzt und die dann mit variabler Modulation,
Modulation wird von den Envelopes auch mitgesteuert,
dann ist es fast so, als würde man einen Filter anwenden.
Wenn die Modulation hoch ist, habe ich einen hellen Klang,
reduziere ich die Modulation, fällt der Envelope zum Beispiel ab,
dann bekomme ich einen weichen Klang, bis runter zum Sinus.
Das ist also, als wenn ein Tiefpassfilter geschlossen wäre oder runtergefahren wird in der Eckfrequenz,
dann bleibt auch nur noch ein Sinus übrig.
Aber hier ist es so, der Sinus ist immer der Ursprung.
Und das merkt man den Klängen auch an.
Die können ganz brillant werden, die können aber auch wieder ganz soft werden,
ohne dass ich da immer dramatische Filterbewegungen machen musste.
Was aus den Oszillatoren kommt, wenn man das auf die Ausgänge bringt,
ohne die Filter überhaupt zu benutzen, dann kriegt man eine Menge perkussive,
E-Piano-artige, Glocken-artige, Zupfinstrument-artige Klänge
oder auch irgendwie schrilles, schräges Material schon raus.
Das könnte man jetzt durch den State Variable Filter,
das ist unser Filter, der eher dem klassischen analogen Multimode-Filter entspricht,
führen. Und da kann man mit Filter, Filterresonanz, wobei wir zwei Cut-offs haben,
also die dann wie zwei Formanten bilden können,
kann man das vielleicht zu wilde, zu helle Spektrum von Oszillatoren im Filter ausdünnen oder begrenzen.
Oder das Filter wie einen Resonator betrachten.
Man sagt ja, der Oszillator macht vielleicht ziemlich geräuschhafte Signale
und das Filter filtert dann quasi auf seiner Resonanz irgendwas raus,
was wie ein Ton klingt.
Aber viel besser als Resonator funktioniert eigentlich der Kamm-Filter.
Das ist eine Delay-basierte Einheit.
Man kennt das, wenn man Flanger hoch auftritt im Feedback,
dann erzeugen die auch einen Ton.
Wenn es noch gelingt, die Modulation auf Null zu stellen,
ist das ein Ton, der nicht mal so auf- und abwärts geht, einfach ein konstanter Ton.
Und wenn man da ein Geräusch reingibt, dann wird diese Resonanz angeregt.
Resonanzen gibt es überall, vieles funktioniert so.
Seiten zum Beispiel, wenn man sie anreißt.
Das Kamm-Filter ist wie der klassische K+Ton-Resonator aufgebaut.
Das heißt, man hat eine Delay-Line, ein Feedback,
was fast bis 1 in sehr feiner Auflösung gesteuert werden kann.
Bei 1 wäre eine Dauerozillation,
darunter sind es vielleicht 10 Sekunden oder 1 Sekunde Decay-Time.
Wir schreiben auch nicht Feedback, sondern Decay.
In dem Loop, der da läuft, haben wir einen Altpass-Filter und einen Tiefpass-Filter.
Das Tiefpass-Filter ist der klassische K+Ton.
Ein Einpol-Tiefpass-Filter würde bei jedem Durchlauf des Loops,
also immer wenn das Signal reflektiert wird und wieder in den Eingang zurückgebracht wird,
wird es ein bisschen gedämpft.
Da es tausende Male durch diesen Delay-Line-Loop geht,
habe ich eine schnell abfallende Frequenz.
Am Anfang ist es noch hell, ich habe einen hellen Impuls reingegeben.
Nach einiger Zeit wird er immer dumpfer und ich höre nur noch diesen Grundton,
der durch die eigene Resonanz des Kamm-Filters gegeben ist.
Das klingt nach einer Gitarren-Saite, der Klassiker bei den K+Ton-Algorithmen.
Das Altpass-Filter hat einen Phasengang, der nicht linear ist über die Frequenz,
macht nichts mit der Amplitude und erzeugt Gruppenlaufzeiten, die nicht konstant sind.
Das bedeutet, dass sich Obertöne verstimmen,
weil die Gruppenlaufzeit für den Oberton eine andere wird als die für den Grundton.
Dann habe ich plötzlich schräge Obertöne und kriege auch wieder metallische Klänge,
die nach Platte, nach Glocke, nach Stab klingen und nicht mehr nach Seite.
Diesen Kamm-Filter-Resonator kann ich mit allem möglichen Material vom Eingang antreiben,
eben kurze Bursts draufgeben, was mit den Oszillatoren möglich ist.
Ich kann die Oszillatoren auch in einem Jitter-Modus betreiben, dann werden die eher zu Rauschquellen.
Wenn ich permanentes Rauschen draufgebe, dann ist es wie angestrichen, angeblasen, wie sich das anhört.
Ich kann aber das Sate-Vibral-Filter noch dahinter schalten,
ich kann vom Sate-Vibral-Filter wieder ein Feedback auf den Eingang vom Kamm-Filter geben,
dann kriege ich angehobene Resonanzen.
Das ist eine wilde Spielwiese und der Feedback-Mixer erlaubt mir,
Signale aus der Struktur herauszupicken und sie wieder irgendwo zurückzuführen.
Das ist so, wo das Ganze auch überraschendes Verhalten entwickelt.
Wenn man dir so zuhört, Stefan, und ich erinnere mich jetzt an den Beginn unseres Gesprächs,
da hast du erzählt, wie du Blockflöte gespielt hast, wie du Spinett gespielt hast.
Hier war das nicht wild genug, weil damit konnte man keinen Funk spielen.
Kann es sein, dass du dir hier damit deinen eigenen Blockflöten-Spinett gebaut hast,
mit Feedback-Möglichkeit, dass man damit auch Funk und Blues und generell einfach Rockiger werden kann?
Du hast hier quasi einen Jugendtraum erschaffen.
Ja, klar. Ich habe immer Gitarristen geliebt. Gitarristen waren meine Helden,
die ich bewundert habe. Auch deren Sound, deren Arbeit mit Feedback usw.
Keyboarder stehen häufig so daneben und dürfen irgendwas auffüllen, klanglich so.
Das ist eher die Rache an den Gitarristen.
Großartig. Das nenne ich mal ein Motivationsgrund.
Die Rache an den alten Bandkollegen.
Der sieht ja gerade in der Holzversion edel und wie ein Wohnzimmermöbel aus.
Ich hatte mal eine Vorführung bei Reinhold Heil.
Da hat er gemerkt, der ist wirklich böser als er aussieht.
Wenn man sich so ein C-15 zulegt, das ist natürlich auch ein entsprechendes Instrument.
Man kriegt tatsächlich, kauft man bei euch dann nicht nur einfach den Synthesizer.
Man kriegt auch ein entsprechendes Rundum-Sorglos-Paket.
Ihr habt tatsächlich auch an die Nachsorge, also an die Zeit danach gedacht,
dass ein Techniker vorbeikommt und da möglicherweise was dran macht.
Allein schon, dass man das Instrument nicht unbedingt kaufen muss.
Man kann es auch mieten bei euch.
Ihr habt da wirklich den Kunden in den Vordergrund gestellt,
was auch heutzutage nicht mehr selbstverständlich ist.
Man wird ja hier doch mehr oder weniger auch teilweise von der Musikindustrie
als Konsumvolk einfach abgeschweißt.
Alpha-Tester hätte ich jetzt gesagt.
Oder als Alpha- oder Beta-Tester.
Alpha, Alpha.
Ihr steckt da so viel Liebe und auch, wie man an deinen Ausführungen jetzt auch noch mal gemerkt hat,
sehr viel Liebe und auch sehr viel Detail.
Auf sehr viele Details achtet ihr.
So Kleinigkeiten, die auch wirklich einem Instrument näher bringen und ans Herz wachsen lassen.
Ja, wir haben uns von vornherein für Direktvertrieb entschieden.
Die Firma hier ist ein Experiment auf vielen Ebenen.
Es ist nicht nur technisch eine spannende Sache,
sondern auch kommerziell, sozial, kulturell.
Ich wollte gerne die typischen Vertriebswege vermeiden,
weil die auch nicht viel leisten für die Instrumente.
Das war jedenfalls mein Eindruck.
Und das lieber selber machen.
Das andere ist, dass das Instrument sowieso schon relativ teuer ist.
Wenn man es über Läden und Vertriebe oder Importe und dann noch über Läden verkauft,
dann wird es bestimmt 40 Prozent teurer sein.
Wir sind jetzt schon bei 4.500, dann wäre es bei 6.000 bis 7.000.
Und dann erreicht man nur noch die ganz reichen Säcke.
Deswegen haben wir uns für Direktvertrieb entschieden,
um für den Kunden möglichst die Kosten zu kappen.
Aber wir haben auch gesagt, wir wollen mit den Kunden in Kontakt sein.
Es gibt einen Grund, das Instrument ist schon erklärungsbedürftig.
Jemand, der von einem anderen Synthesizer kommt, wird hier wahrscheinlich,
wenn er am Cut-Off dreht, wird oft nichts passieren,
weil der Filter vielleicht gar nicht im Signalweg ist.
Das heißt, ich wollte, dass wir den Leuten das auch erklären,
dass wir sie betreuen, wenn sie Fragen haben, dass sie sich an uns wenden können,
wenn sie Sounddesignbedarf haben, dass wir das teilweise zuliefern können.
Wir haben damit auch eine perfekte Übersicht über das, was passiert mit dem Instrument.
Wer setzt es ein, wofür, wer kommt damit klar, wer kommt damit nicht klar.
Da ich ganz viele Schulungen gemacht habe, kann ich immer den Leuten zuschauen,
wie sie scheitern an bestimmten Bedienvorgängen.
Wir konnten die Bedienung optimieren.
Wir konnten auf Requests von den Leuten reagieren
oder sehen, was besonders gut ankommt.
Wir wollten eine der nettesten Firmen der Welt sein.
Erstmal, weil mir junge, weniger betuchte User am Herzen liegen,
weil die oft die musikalisch größeren Talente sind,
gibt es dieses Rent-to-Own-Modell.
Das heißt, das Risiko oder die Einstiegshürde ist sehr gering.
Bei Rent-to-Own kann man auch jederzeit abbrechen und zurückgeben.
Dann haben wir ein Gerät, das wir als refurbished herausbringen können.
Wir haben sogar den Leuten, die den vollen Preis zahlen,
also gleich kaufen, dafür gibt es auch ein Rückkaufangebot.
Der Gedanke dabei war, den Gebrauchtmarkt lieber selber zu bedienen
und dafür zu sorgen, dass nur heile und refurbished Teile unterwegs sind.
Wir haben es sicherlich übertrieben, aber wirtschaftlich betrachtet
war das ein teurer Ansatz, den wir hier erfahren haben.
Für mich selbst hat es auch bedeutet, dass ich sehr viel Zeit
bis in die Nächte oder so in den richtigen Schulungen verbracht habe,
die ich den Leuten gegeben habe.
Aber die Erfahrungen, die wir sammeln konnten,
die wir bekommen haben und die Marktforschung, die man sonst betreiben müsste,
wer hat das eigentlich gekauft, wer kann das wofür gebrauchen,
die ergibt sich automatisch.
Ich habe auch diesen Nachhaltigkeitsgedanken.
Ein Hardware-Instrument soll nicht dauernd neu gekauft werden,
nur weil Konzepte und technische Lösungen besser geworden sind.
Das heißt, in der Oberfläche gibt es Magnetfolien.
Falls wir mal den Parametersatz ändern, was wir einmal schon gemacht haben,
dann schicken wir den Leuten neue Folien.
Falls es mal eine ganz neue Soundengine gibt, schicken wir denen neue Folien.
Und die haben eine neue Beschriftung.
Wir haben also damit einmal gekaufte Hardware mehrfach genutzt.
Das ist ja genial. Ist das so die Idee hinter diesem einen Encoder-Prinzip?
Und wie viel von denen musst du dir schon austauschen?
Wie viel von den Encodern? Gar nicht.
Da ist, glaube ich, kaum einer kaputt gegangen.
Die Oberfläche ist sehr generisch gehalten.
Es sind ja vier Panels, a 24 Tasten, also 96 Tasten,
die von Magnetfolien beschriftet sind.
Und im mittleren Feld sind feste Beschriftungen,
weil das sind so Grundfunktionen, was weiß ich,
Decrement, Increment, Enter, Edit, Store und so was.
Wenn ich ein Instrument haben will, was offen sein soll,
für die Zukunft, für Dinge, die mir heute noch gar nicht eingefallen sind,
dann kann ich da nicht einen festen Satz von POTYs verbauen.
POTYs sind sowieso Quatsch, aber, sagen wir mal, Inkrementalgeber,
die dann in besonderen Positionen, hier ist der Filter,
hier sind die vier Stück für den ADSR oder so was,
wenn ich nachher dann mehr ADSRs habe, ja, passt nicht mehr,
dann muss ich alles ins Menü packen, wie beim Virus,
und dann lieber von vornherein generisch halten,
eine ganz flache Oberfläche quasi, aber trotzdem haptisch.
Wir haben sehr gute Taster, wir haben so eine Gruppierung,
die man auch quasi blind so tasten kann.
Man hat irgendwann eine Diskussion um Körpergerechtnis,
oder Muskelgerechtnis, wo man weiß, wo man hingreifen muss.
Die Fläche ist ziemlich groß, ähnlich wie bei einem Mischpult oder so,
man greift nach links oben, hat dann den Envelope A,
und rechts oben ist der Flanger.
Und man kann diese Oberfläche kritisieren,
und wir waren auch am Anfang ein bisschen skeptisch,
weil es immer einen Schritt bedeutet, Parameter auswählen,
dann Parameter bedienen.
Das ist eben nicht dieser direkte Zugriff auf ein Bedienelement pro Parameter,
sondern es ist eben noch dieser Zwischenschritt mit der Auswahl,
aber man kann verdammt schnell damit arbeiten.
Ihr habt ja auch noch zwei Ribbon-Controller an dem Instrument dran,
und ihr habt ja auch noch die Möglichkeit geschaffen,
dass man einfach Pedale anschließen kann.
Da hat man natürlich noch mehr Direkteingriffsmöglichkeiten,
die auch vielleicht intuitiver zu bedienen sind,
als wenn man erst unter 25 Reglern den Cut-Off finden muss.
Genau, wenn man jetzt live beim Spiel eingreifen will in den Sound,
dann muss man dafür dedizierte Elemente haben, die so funktionieren.
Und das kann auch jedes Mal bei jedem Preset auch was anderes sein.
Wir haben Makro-Controls, die das ein bisschen abstrahieren,
wo man sagt, mit dem Makro-Control A bestimme ich den Geräuschanteil in dem Klang
und mit dem Makro-Control B die Helligkeit.
Die wirken dann auf beliebig viele Zielparameter.
Und die Makro-Controls können von den Hardware-Sources,
also von den physikalischen Elementen,
beliebig über eine Matrix zugeordnet werden.
Dann kann ich einen Makro-Control auf dem oberen Rippen,
einen auf dem unteren Rippen und gleichzeitig vielleicht auch noch
auf dem linken Pedal und auf dem rechten Pedal haben.
Wir liefern das meistens mit drei Pedalen.
Das können Leute sich noch dazu besorgen.
Die Pedale sind mit dabei?
Naja, sagen wir mal so, die stehen schon getrennt auf der Rechnung,
aber wir überzeugen fast jeden Kunden davon.
Aber ihr liefert das dann mit Pedalen aus und der kennt das dann?
Das ist natürlich sehr wichtig.
Ich wollte noch einen Aspekt herausgreifen,
weswegen Stimming gesagt hat, das wäre das Roads des 21. Jahrhunderts.
Und zwar ist das die, ich lese es einfach mal auf Englisch vor von eurer Website,
das ist die Continuous Digital Audio Capture-Funktion.
Das heißt, die Ausgabe, das was man spielt,
wird permanent aufgezeichnet.
Ich weiß jetzt nicht, ach so, 80 Minuten.
In einem 80 Minuten langen Puffer und dann kann man sich jederzeit
das über WLAN von dem Instrument einmal holen und in seine DAW importieren.
Wie geil ist das denn?
Warum hat das nicht jeder Synthesizer?
Genau, also mitschneiden.
Ja, irgendwann, also wir haben da drin, da läuft ein Linux-Rechner.
Das habe ich mir schon gedacht gehabt.
Das ist der der Dateien, die ihr liefert auf eurer Seite.
Da hätte ich mich auch noch ein paar Fragen zu gehabt.
Und der hat ein paar Gigabyte RAM.
Und davon können wir ruhig 500 Megabyte abzweigen.
Wenn man jetzt mit Flak-Kompressionen arbeitet,
dauert es lange, bis man 500 Megabyte voll hat.
Weil die Leute die meiste Zeit nicht spielen, und dann spielen sie wieder ein bisschen.
Das heißt, die 80 Minuten wären die Zeit, die man hätte,
wenn man die ganze Zeit durchspielen würde.
Und da dann eben auch absolute Stille herrscht am Ausgang eines Synthesizers,
wenn ich nicht spiele, dann erzeugt das mir eben kaum Memory Verbrauch.
Und ein Kollege hat das mal irgendwann,
also wir haben da solche Möglichkeiten diskutiert,
aber er hat das dann irgendwann mal implementiert und meinte,
geht eigentlich ziemlich gut und einfach und dann braucht man halt noch eine User Interface dafür.
Und das User Interface ist ja sowieso, wir haben eine zweite Ebene,
das haben wir noch nicht erwähnt, mit dem über WiFi angekoppelten Device.
Das kann vom Telefon bis zum Computer alles sein, was WiFi und Browser hat.
Genau, ihr habt einen Web-Server, der auf dem Instrument läuft,
und den man dann einfach benutzen kann, um den zu programmieren.
Ja, wir haben, also das war auch, diese zweite Bedienungsfläche ist quasi gleichwertig
mit dem, was man auf der Hardware bedienen kann, und noch ein bisschen mehr.
Und man könnte auch, weil das Gerät besteht ja auch aus zwei Teilen,
wir haben so eine Basiseinheit und die Panel Unit,
die Panel Unit könnte man auch zu Hause lassen,
weil die ganze Rechentechnik ist in der Basis drin.
Und da ist eben dieser WiFi Access Point auch,
und ich kann eben irgendeinen Browser öffnen,
und wenn ich mit dem Netzwerk verbunden bin vom C15,
die entsprechende Adresse eingebe, dann sehe ich eine Webseite.
Und die Hauptseite enthält alle Parameter in so einem grafischen User Interface,
und sie enthält alle Presets, die kann ich da hinschmeißen, wo ich will,
und hin und her schieben, also Presetbänke.
Und das kann dann auch ziemlich groß und unübersichtlich werden,
das ist vielleicht nicht die beste Lösung geworden,
aber ich habe also Zugriff auf alles mit der Maus oder auf einem Touch-Device,
wir haben es so touchgerecht auch ausgelegt,
und kann Parameter ändern, kann Presets aufrufen,
ich kann vor allen Dingen, was wichtig ist in der Arbeit,
wenn man ernsthaft arbeitet, dass man sich Presets zusammenstellen kann,
nicht immer einfach mit Drag und Drop, ich ziehe mir das Preset in die Bank,
also ich mache einfach eine neue Bank auf, ziehe mir die Presets rein,
kann die irgendwie mit Farbmarkierungen versehen und so weiter,
habe also dann eine ziemlich gute Umgebung,
in der ich viel Komfort habe, schon in der Presetverwaltung.
Gibt es eine Morph-Funktion, dass man zwischen zwei Presets überblenden kann?
Ich habe das ganz früh in die Ankündigung geschrieben,
wir haben es immer noch nicht hundertprozentig implementiert,
wir können nur so einen Zeitmorph machen,
wie wenn man ein Licht anladen könnte,
das heißt von einem Preset zum nächsten können wir mit einem festgelegten Zeitübergang,
z.B. 5 Sekunden oder so, das geht, das zeigt also was Morphing so kann,
aber wir haben kein Bedienelement, mit dem ich die Morph-Position eingeben kann,
ich kann nur Morphen mit dem Pedal.
Aber das Thema Morphing hat einen ziemlichen Einfluss auf das Design der Audioengine,
es gibt nämlich keine Schalter,
ich kann ja nur Morphen, wenn ich Parameter habe, die alle kontinuierlich sind,
kann ich auch Morphen.
Stimmt.
Ich schalte also nicht zwischen Wellenformen um,
es gibt keine verschiedenen Wellenformen,
ich schalte nicht zwischen Filtertypen um, es gibt nur einen Filter.
Bei Effekten, es gibt nur diesen Flanger,
wenn ich den entsprechend parametrisiere, wird er zum Chorus oder zum Phaser usw.
Alles ist nur kontinuierlich, nur über Crossfades und Mixamounts und Modulationsamounts und so zu bestimmen.
Deswegen kann ich auch, wenn ich jetzt am Pedal,
sagen wir mal, ich habe das Pedal oder über Makrokontrollen mit 20 Zielen verbunden,
die ich irgendwie beeinflusse, dann komme ich auch zum Morph-artigen...
Das ist dann auch schon quasi Morphing, würde ich sagen.
Genau, ja.
Und in der grafischen Oberfläche noch ganz kurz wegen dem Recorder, den wir vorhin hatten.
Also da kann man auch ein zweites Fenster, man kann eigentlich beliebig viele Tabs aufmachen,
die dann irgendwie alle verschiedene Aspekte irgendwie vom...
Also da hilft uns die Browser-Technik, weil die ja sowieso Tabs bieten.
Und in einem Tab kann ich also diesen Recorder laufen lassen,
dann kriege ich so eine Art Wellenform-Anzeige für die Geschichte.
Was ich heute schon so alles gespielt habe, kann ich beliebig zurückgeben, mir das anhören,
kann dann markieren, in einem bestimmten Bereich, weiß ich, ein paar Sekunden oder Minuten,
und die dann downloaden als Plug-File oder als Wave-File.
Und dann, wenn ich dann am selben Rechner bin, wo meine DAW leuchtet,
brauche ich also nur noch Drag & Drop, wenn die DAW machen.
Vorteil ist, erstmal, ich verliere nichts, also frühere Ideen und geniale Momente sind irgendwo alle erhalten,
auch ohne, dass ich... Ich brauche keine Soundkarte anschließen und irgendwo auf "Record" drücken oder so.
Das Ding nimmt einfach in dem Moment, wo ich es einschalte, nimmt an, aufzunehmen.
Aus Privacy kann man es auch abschalten.
Und das andere ist, ich habe auch eine Aufnahme in denkbar bester Qualität.
Das ist vor unseren Wandlern, also noch in der digitalen Domäne aufgenommen.
Es geht nicht nochmal über Kabel in ein weiteres Audio-Interface.
Das war übrigens, by the way, der Auslöser, muss ich sagen.
Ein guter Kunde und Sounddesigner, Aro Vane,
als wir MIDI hatten, meinte ich, willst du eine Beta- oder eine Vorversion haben mit MIDI?
Nee, MIDI interessiert mich nicht.
Okay, ihn würde digital Ausgang interessieren.
Ich sagte, geht nicht, ist eine Hardware-Änderung.
Dann habe ich weitergedacht und dachte, ja, digital Ausgang, in dem Sinne, geht schon,
wenn wir einfach intern digital aufnehmen.
Dann ist es komplett verlustfrei.
Man hat sowohl diese Notizbuchfunktion, das alles irgendwo, was man irgendwann mal improvisiert hat, erhalten bleibt,
als auch diese High-End-Aufnahmefähigkeit.
Der Recorder hat noch ein weiteres ziemlich frappierendes Feature,
nämlich wir haben ein Undo-System, weil wir mit einem richtigen Computer arbeiten
und mit richtig gutem Programmierer arbeiten.
Der Henry, unser Chef-Programmierer, der hat ein unendliches Undo mit beliebiger Verzweigung.
Alles, was ich jemals gemacht habe, befindet sich in irgendwelchen Ando-Zweigen.
Ich kann zurückgehen an die bliebige Stelle meiner Arbeit.
Das heißt, er hat so eine kleine Versionierung, so ein kleines Git für die Soundprogrammierung eingebaut?
Für alle Operationen, die man ausführt am Gerät und das eben auch jede Parameteränderung.
Das ist ja auch oft so, dass man beim Sounddesign,
schraubt man und schraubt man, und das wird besser, dann schraubt man weiter und das wird wieder schlechter.
Ich sag mal, Roland Synthesizer sind da ein schlechtes Beispiel,
wie man es nicht machen sollte mit der Presetspeicherung.
Was meinst du da jetzt gerade?
Es gibt von Roland einen neuen Synthesizer, den SH4D.
Da muss man das Pattern speichern, man muss den Sound speichern, man muss die Sequenz speichern,
man muss die Drums extra speichern.
Alles einzelne Schritte, die man durchführen muss.
Und dann kann es dir passieren, dass du einen Regler aus Versehen drehst und es ist alles weg.
Das ist mir schon bei vielen Geräten passiert.
Und deswegen, wenn du sagst, ihr habt da so ein unendliches Ando implementiert,
das ist natürlich schon ziemlich geil.
Wir können zurückgehen, vor 20 Minuten war das schon richtig geil.
Also irgendjemand, der neben mir rückwärts...
Das ist auch noch zeitbasiert?
Ja, genau.
Erst hatten wir dieses unendliche Ando, und dann hatten wir den Recorder.
Dann haben wir das beide miteinander kombiniert.
Das heißt, du kannst auf der Recorder Timeline an eine beliebige Stelle springen und sagen,
jetzt rufe ich das auf, was zu diesem Zeitpunkt auch die Einstellungen waren.
Wahnsinn.
Das heißt, ich habe jetzt nicht nur die musikalische Idee, zumindest als Audio-File, festgehalten,
sondern ich weiß auch noch, mit welchem Sound das war.
Wir haben auch so Marken, immer wenn ich ein Preset aufrufe, wird da eine Marke gesetzt,
sodass ich schon mal sehe, okay, das war anscheinend das Preset.
Aber wenn ich an dem Preset noch rumgeschraubt habe,
dann werden diese Änderungen halt auch vom Ando-System erfasst, mit Zeitstempel erfasst,
und ich kann dann diese Stelle wieder zurückfahren.
Deswegen das Rhodes des 21. Jahrhunderts.
[Lachen]
Naja.
Ich könnte dir noch stundenlang zuhören, aber ich glaube, wir haben schon über eine Stunde mittlerweile.
Eine Stunde und 47 Minuten.
[Lachen]
Ich habe noch so viele Fragen.
Hau raus, sonst hätte ich noch zwei Fragen zum Abschluss.
[Lachen]
Wenn man sich bei euch auf der Seite umschaut,
dann steht da ja auch was von zukünftigen Engines, die hinzugefügt werden.
Da ist so der kleine Techniker in mir, der sich dann fragt,
okay, irgendwann mal ist ja die Leistungsfähigkeit von so einem Rechner ausgeschöpft.
Was habt ihr da für einen Rechner drin?
Das ist ein NUC-Board, also NUC sind diese New Unit of Computing von Intel,
was jetzt vor kurzem abgekündigt wurde, aber von Asus weitergeführt wird.
Ja, Intel steckt tief in Problemen gerade.
Das sind so 10x10 cm große Mainboards mit Notebook-Technik drauf.
Das sind also Core i3-Prozessoren in unserem Fall, die wir da einsetzen.
Da haben wir am Anfang die 5. Generation verwendet,
inzwischen gibt es die 12./13. Generation.
13 bis i9, oder gibt es das?
Ja, es gibt da immer kleinere CPUs.
Wegen der Wärmeentwicklung?
Ja, nicht alles so vollblond.
Die reichen auch aus, also eine 2-Kern-CPU reicht völlig aus.
Die Leistung ist schon beträchtlich.
Wir verbauen jetzt gerade so NUCs aus der 7. Generation.
Wir haben eine Menge Luft, also wir verbrauchen gerade erst mal 20% von der zur Verfügung stehenden CPU-Leistung.
Wow, das ist aber effektiv programmiert.
Hoffentlich, ja.
Vergleiche es mal mit anderen Entwicklerfirmen, die jetzt spontan auf den Gedanken kommen,
wir könnten eigentlich noch eine Synthese-Engine auf einem Chip schreiben.
Ups, scheiße, es hat keinen mehr frei.
Und du sagst da so etwas von 20%.
Und das in einer Firma, die ja im Grunde genommen, weil sie so extrem kundenorientiert ist,
dass du einfach auch ins Auto steigen kannst und einfach alle bestehenden C15s in neue Prozessoren reinstecken könntest.
Ja, es wird wahrscheinlich eines Tages auch mal so sein, dass wir zum Beispiel die Stimmzahl und die Sample-Rate auch mal hochsetzen wollen.
Das wird aber nicht bei allen Boards im gleichen Maße möglich sein.
Wir werden also Boards haben, die ein bisschen langsamer sind, wie bei früher, und welche, die schneller sind.
Aber wie gesagt, auf allen haben wir genug Luft, um da noch die Stimmzahl zu verdoppeln.
Von daher ist das noch relativ locker.
Und wenn wir jetzt über neue Synthese-Engines sprechen, dann bin ich da auch so puristisch.
Das hat auch mit den Magnetfolien zu tun.
Aber ich sage, du musst dich schon entscheiden.
Du kannst entweder die Synth-Engine A betreiben, dann legst du diese Magnetfolien drauf,
oder du kannst die Synth-Engine B betreiben, dann legst du andere Magnetfolien drauf.
Und wir sind jetzt nicht so eine multitemporale Workstation.
Diese Workstation-Haftigkeit ist sowieso immer so etwas, was viele Leute auch abschrecken würde.
Workstations haben einfach ein schlechtes Image.
Die funktionieren in der Praxis natürlich sehr gut, deswegen haben wir auch ganz viele Profis, die so ein Kronos oder so auf der Bühne stehen.
Es sind halt Kompromiss-Instrumente. Das ist halt das Problem, oder?
Wie ich auf der Seite war, mit den Produktfotos angeschaut habe, egal ob das jetzt von der Bedienoberfläche waren oder so Gesamtfotos,
habe ich mir einfach nur gedacht gehabt, das Ding ist hübsch. Wirklich hübsch.
Und da würde mich das auch gar nicht stören, dass ich da jetzt nicht irgendwie gleichzeitig zwei verschiedene Syntheseformen verwenden kann,
weil hätte ich ein Klavier zu Hause stehen, habe ich nur ein Klavier da stehen, was nur Klavier kann.
Und wenn ich dann auch die Möglichkeit hätte, aber sage ich mal, ich mache jetzt mal dann so eine virtuell analoge Sache,
oder in den nächsten Schritt gehe ich in Schalte um und habe dann irgendwie was Digitales an Synthese,
das fände ich jetzt persönlich jetzt ziemlich cool.
Ich meine, ich kann das ja beim Klavier nicht machen, Klavier ist Klavier.
Aber bei so einem elektronischen Instrument ist das schon eine geile Option.
Und die Möglichkeit, die ich geschaffen habe, das Instrument zu bedienen, das ist ausgefuchst,
weil ich habe eine Möglichkeit gefunden, verschiedene Parameter auf ein und derselben Oberfläche bedienbar zu machen,
mit möglichst wenig Bedienelementen. Das lernt man schnell.
Du sagtest was vorhin von Muskelgedächtnis, ich denke mir so, du hältst mit der einen Hand den Drehknopf
und mit der anderen Hand suchst du die Stellen aus, mit welchen Parametern du jetzt editieren willst.
In einer Woche habe ich so etwas von Intus, dass ich das schon fast im Dunkeln machen kann.
Und das ist genial.
Ja, gerade heute haben wir mich hier umgespuckt und gesagt, wer von uns kann das Ding jetzt ohne Folien bedienen?
[Lachen]
Eigentlich alle, die ein bisschen mehr damit zu tun haben können, das glaube ich.
Zwei Fragen habe ich noch. Oder Tobi, hast du noch eine?
Ne, und wenn, dann glaube ich, ist es jetzt ein guter Moment, um abzurunden.
Man kann ja dann in fernen Zukunften über die nächste Auflagefolie sprechen oder so.
Oder weiter rumnörten. Also wir könnten hier alle noch bis zwölf sitzen, aber ich glaube, es ist doch schön, so eine Klammer zu setzen.
Ich wollte noch mal nachfragen, Stefan. Diese Weigerung, keine LFOs einzubauen, also der Spieler ist der LFO.
Werdet ihr das vielleicht doch nochmal überdenken?
Wir haben jetzt schon mit den...
Ich frage, also warte, lass mich kurz mit dem Hintergrund meiner Frage nochmal einbringen.
Also ein LFO ist ein Low Frequency Oszillator, ist aber eigentlich ein Oszillator.
Und man könnte so ein LFO vielleicht ja so designen, dass er...
Ich gucke da so gerade so ein bisschen in die Entwicklung der letzten, ich sag mal, der letzten zehn Jahre, was da so im Eurorack-Modularbereich sich so entwickelt hat.
So ein LFO kann natürlich schon sehr viele auch andere Möglichkeiten bieten.
Und es gibt auch Hüllkurven, die plötzlich zu LFOs werden oder zu Oszillatoren, wenn ich jetzt hier zum Beispiel an die, an Buckler und Serge angelehnten Funktionsgeneratoren denke.
Wäre das für euch vielleicht etwas, wo ihr sagt, so ein Dual-Universal-Slope-Generator, das wäre doch mal genau das Richtige, was wir in unseren C15 auch haben wollen.
Oder wäre das eher schon etwas, wo ihr sagen würdet, hey, da machen wir eine komplett neue Synthese-Engine für?
Ne, wir haben da ja auch eine Erweiterung jetzt mit dem Spring 23-Update gemacht, nämlich Envelope C hat einen Loop-Parameter bekommen.
Ah, okay, das ist mir ganz in Gang.
Envelope C, also wir haben übrigens fest verbundene Envelopes, also du kannst jetzt nicht irgendwo alles überall hinmappen, weil das wieder so ein Parameter-Boost ergeben würde.
Aber genau, ich gucke immer noch Möglichkeiten, wie man die Sound-Engine vielleicht noch ein bisschen mächtiger macht und natürlich auch den Wünschen entgegenkommt, ohne dass es so ein Feature-Creeping gibt.
Also, dass man noch was dran klatscht und noch eine Einheit irgendwo verstecken muss.
Und dann ist es so, der Envelope C, also unsere Envelopes haben ja immer zwei Decay-Phasen, also es gibt einen Breakpoint-Level und einen Sustain-Level.
Mit der ersten Decay-Phase fährt man zum Breakpoint, der zweiten zum Sustain-Level.
Und das ist jetzt so implementiert, wenn man diesen Loop-Parameter aufdreht, da ist man ein bisschen so haarscharf am Schalter vorbei.
Dann wird diese Periode von Decay 1 und Decay 2 wiederholt.
Die Zahl der Wiederholungen oder wie schnell das abklingt, das ist quasi der Parameter da.
Dadurch ist also ein loopbarer Envelope entstanden und kann auf den Kammfilter, auf die Pitches, auf das Feedback-Signal gemappt werden.
Das ist natürlich schon eine Erweiterung.
Ich muss aber dazu sagen, wir hatten auch vorher im Prinzip LFOs, weil die Oszillatoren runter bis 0 Hz gehen.
Du kannst also immer eine der Oszillatoren runter stimmen bis auf 0 Hz.
Und es gibt durchaus auch Presets, bei denen dann so was passiert, was eben, sagen wir mal, evolving oder betriebsmoduliert ist.
Der klassische LFO ist ja oft monophon. Eine Quelle moduliert alle Stimmen gleichzeitig.
Das ist nicht so, wenn ich den Oszillator als LFO missbrauche oder wenn ich jetzt den Envelope als LFO laufen habe, dann sind das 24 LFOs.
Die können auch alle verschieden schnell laufen und sind dann auch alle mit der Taste synchronisiert.
Das heißt, dieses klassische LFO-Ding, das da ganz plump immer gleichzeitig alles auf und zu geht, geht gar nicht so einfach zu realisieren.
Und häufig haben wir ein Key-Tracking drauf. Das heißt, beim Oszillator lässt sich auch das Key-Tracking einstellen.
Wenn ich da so ein bisschen Key-Tracking habe, wie 10% oder so, dann habe ich oben ein schnelleres Vibrator als unten.
Ich habe auf jeder Stimme, die gespielt wird, ein anderes Vibrator drauf und das ist auch so, wie es in Orchestern oder Ensembles so passiert.
Das ist das Ähnliche beim Envelope. Der ist jetzt noch Velocity-abhängig. Ich habe viele Einflüsse.
Der ist Key-Tracking-abhängig. Das heißt, da bewegt sich jetzt was, das in vielseitiger Form auch explosiv beeinflusst wird.
Also von daher sind wir auch da ein Stück von der reinen Lehre abgeliehen inzwischen. Wie beim MIDI.
Evolutionär.
Ja, genau.
Ja, aber ein MIDI ist auch irgendwo wichtig.
Aber wenn du die letzten 80 Minuten deines Spiels einfach von der Festplatte putzen kannst, um deine DAW per Wifi übertragen, wozu brauche ich da noch MIDI?
Ja, ich bin nicht in der Clock, ich bin nicht tight. Ich bin ein Mensch und da habe ich halt diesen Human-Factor-Swing drin.
Und mit MIDI habe ich das tight auf die Millisekunde genau.
Manchmal will man das aber gar nicht.
Nein, dann schalte ich die Humanisierung wieder ein. Dann ist er wieder raus.
Die Humanisierung schaltest du ein?
Ja, also die algorithmisch gesteuerte Humanisierung. In der Quantisierung. Oh Gott.
Es gibt diesen wunderschönen Podcast von Element of Crime. Sie gehen durch Ihre ganze Geschichte chronologisch an Ihren Alben.
Narzissen und Kakteen heißt der. Wenn ihr mal 10 Stunden übrig habt, oder 15, hört dieses Ding chronologisch durch.
Ja, vielleicht sind es 20. Keine Ahnung. Die labern sich da einen ab. Das war halt so ein Corona-Langzeitprojekt.
Die Leute ziehen sich 14 Stunden Hörbücher rein während der Autofahrt. Also geht schon, ne?
Ja, ja. Es gibt diese Stelle. Ich glaube, es ist irgendwo so in der Mittelfase oder mit Pyrolator und so, wo sie für irgendein Stück halt einen Arpeggiator dabei hatten.
Element of Crime, das ist ja wirklich handgemachte Musik ohne Ende.
Da gibt es diesen Moment, wo sie halt einen Loop hatten für irgendwas.
Ich glaube, Schiffsgeräusche zusammengeschmissen oder so. Irgendwas Elektronisches.
Da hat er gesagt, das ist im Moment okay. "Nee, das ist schon zu maschinell."
Und dann Pyrolator so, okay, gut, machen wir einen Humanizer rein. "Ja, nee, jetzt fällt's auseinander."
Und dann so dieses unisono-Synthasium, so 20 Millisekunden hin oder her. Wo leben wir denn?
An das hat es mich jetzt gerade wenig erinnert.
Ja, klar. Also ich glaube, rausrennen ist ja das eine. Ich glaube, Sascha will eher die Sachen in den Synthesizer reinrennen aus der DAB.
Ich will die Daten reinschicken, dass mir das Gerät tolle Klänge macht, die ich dann zurückbekomme und dann in meiner DAB mit diesen wunderbaren Möglichkeiten noch weiter veredle.
Dann kannst du das dann ja auch zerschneiden und auf quasi der Timeline hin und her choppen.
Dazu braucht man kein Gerät mit der Tastatur dran, ne? Also das kann man auch mit einem Plugin machen.
Ja, aber ich hab einen Haufen Plugins. Die sind alle toll. Aber wenn ich mich irgendwo hinsetzen will, dann nehm ich hier, ihr könnt mich schlagen, ihr könnt mich auslachen, Yamaha DJX2.
Nee, warum? Ist doch ein tolles Gerät.
Das Ding ist von der Bedienung her ganz simpel. Die Qualität ist Spielzeug. Aber da pack ich ein paar Batterien rein, setze mich irgendwo im Schneidersitz hin und klimpere darauf rum und habe Klavier, Trompeten und die ganzen Karten.
Ein paar Synthesizer-Sounds und kann da Ideen entwickeln. Und das ist nämlich der Punkt bei so einem Gerät.
Ich schalte es ein und ich nehme es mit irgendwo hin oder ich hab es zu Hause stehen, aber ich muss nicht den Computer hochfahren.
Dann hab ich, oh Gott, es gibt einen Treiber-Update. Das Betriebssystem ist ein Update. Bitte fahren Sie den Rechner runter.
Wir kennen alle diese Krämpfe.
Jaja.
Und dann bist du stellenweise mehr Computertechniker oder Edi Fauler als alles andere. Und du willst nur diese dämliche Melodie, die du gerade im Kopf hast, irgendwo zubringen.
Okay. Und wo ist der Bogen zur Midi-Clock?
Ich bin jemand, der halt in der DAW arbeitet.
Du willst das einfach zu deiner DAW synchronisieren. Okay, dann sag das doch.
Ja, aber ich will auch hingehen, die Noten, die ich dann halt in der DAW habe, in das Gerät reinkriegen und dann halt schön rauskommen.
Das wäre doch eine schöne Frage, Stefan. Wenn du selber spielst und du bist selber der Arpeggiator, brauchst du keine Midi-Clock.
Und wenn du Midi reinschicken kannst, dann schickst du ja auch eine Midi-Clock. Und du hast ja die Möglichkeit, über USB Midi reinzuschicken.
Das wollte ich synchronisieren.
Das wollte ich gerade sagen.
Also, was kommt als Anfrage, ist dann das Echo zu synchronisieren, dass das Echo eben beatsynchron ist.
Und da frage ich immer, was ist mit dem Stereo-Parameter, mit links und rechts, naja, gut, kann man eine Lösung finden.
Man könnte den Flanger LFO synchronisieren vielleicht.
Könntest du auch den LFO synchronisieren, den es nicht gibt, beziehungsweise den Envelope C?
In einem musikalischen Kontext wäre es ja wichtig, dass alle Sachen, die rhythmisch sind, synchronisierbar sind.
Wir haben gerade 80 Minuten davon, das Rhythmik, bitte schön, händisch.
Du kennst die Standard-Techniker-Antwort, es kommt drauf an.
Dann könnte ich ja auch noch einen Tap-Knopf drauf machen und dann sagen, hier soll ich tappen.
Und dann, immer wenn ich tappe, kommt dann halt der Hall oder das Echo.
Ihr habt doch bestimmt in der Synthese-Engine die Möglichkeit zu sagen,
das Klock-Signal für die geloopten Höhlkurven ist jetzt, keine Ahnung, 90 BPM, oder?
Ne, das müsste man noch ganz schön reinwirken.
Also, jeder Höhlkurve läuft für sich nach ihrem eigenen Gesetz, nach ihren eigenen Bildungsstellen.
Und die Effekte, Delay, ich glaube, das macht gerade ein Teil des Homes aus.
Also, da ist, ja, ein Delay, da brauche ich nur einen Buffer.
Klar, da kann ich jetzt sagen, die Zeiten, mit denen ich da so einen Delay,
die kann ich irgendwie quantisieren.
Ich kann irgendwie einen reinkommenden Klock analysieren oder eine Beat-Angabe, die über den Midi kommt,
und kann dann die Echo-Times darauf quantisieren.
Also, die Delay-Zeit ist bei euch in Millisekunden dann?
Ja, ja.
So, Elektron-Style?
Der ist doch bei vielen Geräten, also bei vielen Hardware-Geräten.
Ja, das stimmt.
Wir wissen gar nicht...
Ja, ja, genau.
Also, ich kenn das alles aus Native-Zeiten und man hat ganz viel Zeit damit verbracht,
dass alles mit allem synchronisiert werden soll und alle möglichen Schnittstellen bedient werden sollen
und auch noch das Verhalten der DAW beim Restart mitten im Loop und was weiß ich so,
abgebildet werden muss, also das dann alles mitslaved.
Und ja, ich bin heilfroh, dass ich meine Zeit nicht damit verschwenden muss,
irgendwelche Synchronisationsprobleme zu lösen.
Was aus...
Ja.
Nee, nee, du machst fertig, ich mach die Überleitung nachher.
Weil du denkst...
Dann machen wir jetzt die Überleitung zu meiner letzten Frage.
Ja, das war nämlich die Überleitung, die ich vorhatte.
Dann kommen wir dann nämlich auch schon zum Schluss von dieser...
Eine Frage, die ich jedem unserer Gäste stelle, ist...
Wegen der Zeitverschwendung, deswegen war die Überleitung nicht da.
Wegen der Synchronisation.
Stefan, was machst du, wenn du nicht gerade an Features, an neuen Features für den C15
oder an irgendwelchen Bauteilbeschaffungs-Arien teilnehmen musst
oder an sonstigen Kundenproblemen dich beschäftigst?
Was machst du in deiner Freizeit? Womit entspannt sich Stefan Schmidt?
Ja, ich bin gerne draußen unterwegs mit dem Rad.
Ich bin gerne im Grünen.
Wir haben hier in Berlin viele Parks, Seen, Wälder und sowas.
Das wäre jetzt die Zeit, wo ich ganz vom Thema frei bin.
Aber am wichtigsten ist mir eigentlich, meine Zeit zu verwenden, um ein besserer Musiker zu werden.
Da sitze ich ja zu Hause am Digital-Piano zum Beispiel.
Ich habe auch einen Klavierlehrer mal wieder eine Zeit lang gehabt.
Ich gucke mir alle möglichen YouTube-Videos an.
Ich lese irgendwelche Jazz-Harmonie-Bücher und so weiter.
Das ist für mich auch das Spannendste und das ist auch für mich sozusagen noch so eine Torschluss-Panik in gewisser Weise.
Ich ärgere mich, dass ich eben in meinem Leben nicht genug musikalische Bildung,
also für meine Gefühle nicht genug musikalische Bildung angeeignet habe und nicht genug geübt habe.
Und versuche das jetzt nachzuholen.
Das finde ich schön. Ich finde das toll.
Das sind die Momente, wo ich auch am zufriedensten oder am glücklichsten bin, wenn mir da was gelingt.
Oder wenn ich merke, ich mache Fortschritte oder da fließt irgendwas, was ich vorher nicht konnte.
Ich finde, das ist ein wunderbares Schlusswort.
Panteries, alles fließt.
[Lachen]
In diesem Sinne, schaltet auch beim nächsten Mal wieder ein, wenn ihr den Sascha sagen hören wollt.
Der Probe-Podcast beim gemütlichen Talk aus dem Proberaum.
Ich bedanke mich bei allen Zuhörern, bei unserem besonders interessanten Gast
und wünsche euch einen schönen Mittag, Morgen, Abend, eine gute Nacht und sage Tschüssi.
Tschüss.
Vielen Dank, Stefan.
Ja, ich danke auch.
Und ich sage auch Tschüss.
Wird Tobi nix sagen?
Wie, ist fertig? Hallo?
[Lachen]
Tobi sagt Tschüss.
Boah, da müssen wir wieder schneiden. Das wird ja wieder ne...
Nein, nein, das wird nicht geschnitten.
Da war der Cut, Leute. Da wär der Cut gewesen.
Na egal, macht's gut.
Tobi, Tschüss.
Tschüss.
Okay, tschüss, macht's gut.
Unterstützer erhalten Vorabzugang zum Ruhschnitt der Podcastfolgen
vor der eigentlichen Veröffentlichung.
Weitere exklusive Inhalte wie Vor- oder Nachgespräche oder eine Art Tagebuch.
Alle Informationen, wie man Unterstützer wird, findet ihr in den Show Notes.
Der Probe-Podcast
Ein Podcast. Ein gemütlicher Talk im Proberaum.
Ein Podcast. Ein gemütlicher Talk im Proberaum.
Ein Podcast. Ein gemütlicher Talk im Proberaum.
Ein Podcast. Ein gemütlicher Talk im Proberaum.
Ein Podcast. Ein gemütlicher Talk im Proberaum.
Ein Podcast. Ein gemütlicher Talk im Proberaum.
Unterstützen:

Ihr könnt uns über Paypal direkt unterstützen oder über Steady oder Patreon mit einem kleinen Mehrwert als Dankeschön.

Die Spenden werden benötigt, um ein Teil der Kosten für die Bereitstellung meiner Werke, Podcast, Blogtexte sowie die Videos zu gewährleisten.

"Unterstützer erhalten vorab Zugriff auf die neusten Veröffentlichungen noch vor ihrem regulären Erscheinen im Rohschnitt. Darüber hinaus gibt es exklusive Inhalte nur für die Unterstützer wie Vor- und Nachgespräche sowie eine Art Tagebuch. Über folgende Dienste könnt ihr uns unterstützen: Steady, Patreon und erhaltet Zugang zu den extra Inhalten."

Patreon Feed auf Spotify oder Steady Feed auf Spotify

Feedback zur Ausgabe hinterlassen?

Dann schreib doch ein Kommentar

Audio Feedback zur Sendung?

Der Anrufbeantworter ist geschaltet. ☎ 0231 53075818

Sprecher:
avatar
Stephan Schmitt
avatar
Tobi
avatar
Notstrom
avatar
Sascha
Anzahl der Downloads: 388
Spieldauer: 2:07:49
Tag der Aufnahme: 17.11.23
Diese Folge stammt aus der Staffel 3, es gibt insgesamt 4 Staffeln.


Eine LautFunk Publikationskartell Produktion - Wo Geschichten unüberhörbar übermittelt werden.

Podcast Lizenz:

Autor: Sascha Markmann

Legastheniker am Werk (Mehrfaches lesen meiner Postings kann zu irreparable Schäden an den Augen führen z. B.. Pseudotumor-zerebral-Syndrom) Leicht gestörter bis Mittel schwerer Fall von Überlebens Künstler, Maler, Blogger, Musiker, Podcaster und Video Produzenten "Audiovisueller STUMPFSINN mit keinem Nutzwert"

Kommentar verfassen

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.